Nauka To Lubię

Oficjalna strona Tomasza Rożka

Kategoria: Technologie

Sieć 5G – czy jest się czego bać?

Wokół technologii 5G w ostatnich latach narosło mnóstwo mitów i zrobiło się niezłe zamieszanie. Czas, aby uporządkować wiedzę, dlatego w tym materiale opowiem, jak działa i czym jest sieć 5G…

Wokół technologii 5G w ostatnich latach narosło mnóstwo mitów i zrobiło się niezłe zamieszanie. Czas, aby uporządkować wiedzę, dlatego w tym materiale opowiem, jak działa i czym jest sieć 5G oraz czy powinniśmy się jej obawiać?

Niniejszy tekst włączam w niedawno powstały cykl pod nazwą „Nauka. Sprawdzam TO”, w którym rozprawiam się z naukowymi mitami.

Na początek krótka definicja. Co to jest 5G? Jest to sieć bardziej pojemna, czyli umożliwiająca przesyłanie większej ilości informacji. To standard telefonii, który sukcesywnie jest wprowadzany w wielu krajach świata. Bez niego nasze miasta nie będą SMART. Zgodnie z unijnymi regulacjami w każdym kraju członkowskim do końca 2020 roku musiało być przynajmniej jedno miasto w całości pokryte siecią komórkową nowej generacji, czyli siecią komórkową 5G.

Co daje 5G?

Nie tylko duże miasto może w godzinach szczytu totalnie się zakorkować. To samo dotyczy sieci telefonicznej. Łączność mobilna piątej generacji, czyli 5G, może przesyłać dane 1000-krotnie szybciej niż sieci, które działają dzisiaj. Bez nowego standardu bardzo trudno sobie wyobrazić powszechność takich urządzeń jak autonomiczne samochody, dostarczające nam produkty drony, Internet Rzeczy, elektronika ubieralna czy coraz powszechniej pojawiające się urządzenia robotyczne. W końcu chcemy, przynajmniej większość z nas chce, mieć możliwość oglądania telewizji w standardzie 4K na urządzeniach mobilnych czy streamingowania filmów wysokiej jakości i przesyłania zdjęć.Wesprzyj zrzutkę Nauka. To Lubię

Zgodnie z wyliczeniami na jednym kilometrze kwadratowym w sieci 5G będzie mogło pracować kilkaset tysięcy różnych urządzeń. Za trzy lata w sieci połączonych będzie prawie 30 miliardów różnych urządzeń elektronicznych. Szacuje się, że ponad 80 proc. całego ruchu w sieci będzie pochodziło z przesyłania, oglądania materiałów wideo, w tym materiałów 4K. Do roku 2025 polscy operatorzy będą musieli zwiększyć pojemność sieci siedmiokrotnie. I w ogóle nie chodzi o dzwonienie, tylko o przesyłanie danych. Świat idzie w kierunku powszechnej wymiany informacji o wszystkim przez każde urządzenie. Doskonałym tego przykładem są chociażby autonomiczne samochody.

Co z infrastrukturą technologii 5G?

Po to, by mógł zadziałać nowy standard sieci, najpierw trzeba wyznaczyć dla niego nowe częstotliwości. Najprościej mówiąc – fale, które będą ten zwiększony ruch przenosiły, nie mogą być tymi samymi falami, które dzisiaj są w telefonii już wykorzystywane. Widmo fal elektromagnetycznych jest szerokie, więc można by pomyśleć, że wybranie nowych częstotliwości nie powinno stanowić żadnego problemu. Ale niestety nie jest to takie proste. Do niedawna jedna z częstotliwości, konkretnie 700 MHz, na której ma działać 5G w Polsce, ale także w pozostałych państwach Europy w Afryce i na Bliskim Wschodzie, w Rosji była używana przez telewizję naziemną oraz wojsko. W tej sprawie udało już się z Rosjanami częściowo porozumieć.

Ogromnym wyzwaniem jest wybudowanie nowej infrastruktury. W gęsto zabudowanym terenie miejskim anteny systemu 5G dla wyższych częstotliwości, a wyższa częstotliwość to mniejszy zasięg fal, będą musiały być rozlokowane co kilkaset metrów. Dla najwyższych częstotliwości, 26 GHz, zasięg wynosi kilka metrów. Większe zagęszczenie anten nie będzie jednak oznaczało, że co kilkanaście metrów będą budowane maszty. Nadajniki i odbiorniki będą mogły być instalowane, na przykład w latarniach ulicznych. Pokrycie całego kraju będzie zapewniała sieci 5G częstotliwości 700 MHz, ale tam, gdzie jest szczególnie dużo ludzi, na przykład na stadionach czy w centrach handlowych, będzie dodatkowe pokrycie siecią wyższych częstotliwości.

Maszty 5G

I tutaj pojawia się kolejne wyzwanie. Gęściej budowane anteny oznaczają, że przekroczone zostaną polskie normy promieniowania elektromagnetycznego. Polskie normy są na tle europejskim wyjątkowo restrykcyjne. Niektóre kraje Europy dopuszczają nawet 100-krotnie wyższe natężenie promieniowania niż u nas. Nie zmienia to jednak faktu, że więcej anten, nowe częstotliwości i przekraczane normy wzbudzają lęk przed nową siecią. Czy jest się czego bać? Czy strach przed 5G jest uzasadniony?

Nie taki diabeł straszny… Czy sieć 5G jest niebezpieczna?

Kilka miesięcy temu zrobiłem materiał o tym, że nie każde promieniowanie powoduje nowotwory. Sieć 5G jest rozwinięciem technologii, a więc wcześniejszych sieci 2G, 3G, 4G, a nie jest nową technologią. To oznacza, że badania wpływu fal elektromagnetycznych z zakresu mikrofal, bo na nich działają telefony komórkowe, są prowadzone już od kilkudziesięciu lat. Regularnie pojawiają się też duże prace przeglądowe. Na stronach Światowej Organizacji Zdrowia znajdziecie podsumowanie tych badań i wnioski, że badania nie wykazały statystycznego związku między falami elektromagnetycznymi, wykorzystywanymi w telekomunikacji a zapadalnością na jakiejkolwiek choroby.

Czy to oznacza, że fale elektromagnetyczne są bezpieczne? Na tak zadane pytanie nie da się udzielić poprawnej odpowiedzi. Wiele zjawisk fizycznych, a już szczególnie tych związanych ze światem ożywionym, nie jest zerojedynkowych, a do ich zrozumienia wykorzystujemy statystykę. Czy szczepionki są bezpieczne czy nie? Statystycznie tak, co nie znaczy, że nie ma osób, które po szczepieniu nie miały odczynów poszczepiennych. Z 5G jest podobnie.

Fale elektromagnetyczne mają wpływ na nasz organizm. Przy bardzo dużych dawkach ten wpływ jest negatywny, ale nie ma dawki, która byłaby granicą, za którą możemy powiedzieć, że teraz już kompletnie nic nam nie grozi. Z tych badań statystycznych wynika, że korzystanie z sieci 5G będzie bezpieczne, bo mikrofale, na których ten system się opiera są badane od wielu, wielu lat, a częstotliwości, które 5G będzie wykorzystywało dzisiaj też są w eterze. Tyle tylko, że służą innym technologiom.

Co daje 5G

Czy to wszystko to zwyczajny spisek?

Nie tylko w przypadku 5G, ale także w wielu innych technologiach, pojawia się argument, że nie ma co wierzyć w badania naukowe i w to co mówią naukowcy, bo wszyscy oni chodzą na pasku biznesu i są po prostu skorumpowani. Wybaczcie, ale tego argumentu kompletnie nie kupuję. Nie wierzę w globalny spisek fizyków, fizyków medycznych, onkologów czy inżynierów. Podczas ostatniego Międzynarodowego Kongresu BIO M, na którym spotykają się najlepsi światowi eksperci zajmujący się bioelektromagnetyzmem, powtórzono, że nic nie wskazuje na to, by fale elektromagnetyczne wykorzystywane w telekomunikacji, były dla ludzi szkodliwe.

Warto przy okazji pamiętać, że przez to, że sieć 5G będzie wymagała większej liczby mniejszych anten, ich moc będzie mniejsza niż anten wykorzystywanych w sieci 3G czy 4G, które działają już dzisiaj. Warto też pamiętać, że generalnie moc anten i samych telefonów dzisiaj jest wielokrotnie mniejsza niż telefonów pierwszej czy drugiej generacji. Moce promieniowania wykorzystywane w technologii 5G będą dużo mniejsze i stąd ich wpływ na zdrowie powinien też być mniejszy.

Linki do badań, które wykorzystałem podczas tworzenia materiału:

https://academic.oup.com/jnci/article…

http://interphone.iarc.fr/interphone_…

https://www.gov.pl/web/5g/pole-elektr…

http://ptze.pl/elektrofakty

https://www.ncbi.nlm.nih.gov/pubmed/2…

https://www.itu.int/dms_pubrec/itu-r/…

Możliwość komentowania Sieć 5G – czy jest się czego bać? została wyłączona

Żelazna Kopuła – co to jest i jak działa izraelska obrona przeciwrakietowa?

W ostatnich dniach w mediach było sporo filmów i zdjęć z Izraela, które wyglądały niczym kadry z filmów science-fiction. Mam na myśli rakiety odpalane jedna za drugą i strącane przez…

W ostatnich dniach w mediach było sporo filmów i zdjęć z Izraela, które wyglądały niczym kadry z filmów science-fiction. Mam na myśli rakiety odpalane jedna za drugą i strącane przez – nazwijmy to antyrakiety. Całość wyglądała tak, jak gdyby nad miastami było jakieś pole siłowe. Dzisiaj chcę o nim opowiedzieć.

Słowo wstępu 

Dwie sprawy na początek. W tym filmie chcę opowiedzieć o technologii. Nie chcę wchodzić w sprawy konfliktu izraelsko-palestyńskiego. Sprawa jest znacznie bardziej złożona niż wydaje się większości komentujących ją w Internecie. Ze swojej strony jak zawsze polecam podcast Dariusza Rosiaka, Raport o Stanie Świata, w którym eksperci regularnie wyjaśniają zawiłości tej – w zasadzie – wojny. Ja w tym materiale się tego nie podejmuję.

I sprawa druga, bardzo serdecznie dziękuję osobom które wspierają różne działania Nauka To Lubię poprzez zrzutkę. Dzięki Wam mogę rozwijać kolejne projekty.

Wesprzyj zrzutkę Nauka. To Lubię

W wielu filmach science-fiction pojawiają się pola siłowe. W sumie – przynajmniej w języku polskim – pole siłowe to zagadnienie, które pochodzi z chemii obliczeniowej i jest ono związane z energią potencjalną układu atomów albo cząstek, ale zazwyczaj kojarzymy je raczej z fizyką. To bariera, jakaś powierzchnia, która chroni, choć czasami ukrywa statki kosmiczne czy całe miasta. Jak gdyby oddziela świat zewnętrzny od wewnętrznego. Każdy kto chce te chronione miejsca zaatakować, a w niektórych przypadkach nawet się do nich przedostać zostaje zniszczony. W świecie realnym, w zasadzie pole siłowe to jakaś przestrzeń, w którym działa dowolna siła, ale nieczęsto to przypomina barierę nie do przebicia. Takim wyjątkiem może – w pewnym sensie – jest horyzont zdarzeń wokół czarnej dziury? Tylko tutaj to raczej obszar z którego nie da się wydostać na zewnątrz, a nie obszar do którego nie da się dostać z zewnątrz. No ale to jest zupełnie inny temat. Ale… to nie znaczy, że nie potrafimy chronić obiektów przed wtargnięciem z zewnątrz.

Skuteczność tarczy antyrakietowej

Kilka lat temu byłem na granicy między Koreą Północną a Południową. To jeden z najbardziej naszpikowanych bronią kawałków naszej planety, który dla niepoznaki nazywa się strefą zdemilitaryzowaną. Są tam urządzenia robotyczne, które otwierają ogień do każdego poruszającego się w konkretnym kierunku obiektu. Coś w stylu bariery czy pola siłowego. Technicznie rzecz biorąc, wybudowanie urządzenia, które – wyposażone w moduł rozpoznawania obrazu – niszczyłoby konkretny samochód, albo zabijałoby konkretnego człowieka, gdy ten przekroczy jakoś ustaloną granicę, nie jest żadnym problemem. Korzystając z podobnych, a czasami identycznych technologii, można wybudować całą tarczę, albo wręcz kopułę, która chroni obszar pod sobą przed konkretnymi zagrożeniami. W przypadku Izraela tym zagrożeniem jest ostrzał rakietowy. A ten system nazywa się żelazna kopuła. Z ang. Iron Dome. W jednym z artykułów na ten temat przeczytałem, że pierwotnie miała się nazywać złotą kopułą, ale ostatecznie uznano że ta nazwa jest zbyt pretensjonalna.

Jak działa tarcza Izraela

Źródło: PAP/EPA, Fot: Ilia Yefimovich

Prace nad własnym systemem obrony przeciwrakietowej w Izraelu rozpoczęto jakieś 15 lat temu, kiedy podczas tzw. II wojny libańskiej na Izrael spadło kilka tysięcy pocisków rakietowych. System został zaprojektowany tak, by niszczył rakiety skierowane na cele cywilne. To system krótkiego zasięgu ziemia-powietrze. Składa się z radaru oraz wyrzutni pocisków przechwytujących Tamir. Rakiety systemu potrafią śledzić cele, a tymi celami mogą być nie tylko rakiety czy pociski moździerzowe, ale także samoloty, helikoptery czy drony. W praktyce najczęściej system przechwytuje i niszczy rakiety. Jego skuteczność w warunkach bojowych przekracza 90 proc. W ostatnich dniach, w kierunku Izraela w ciągu trochę ponad doby wystrzelono 1000 rakiet. Tylko kilkanaście dosięgnęło celu.

Jak działa tarcza Izraela?

Wspominałem, że system składa się z radaru i wyrzutni. W rzeczywistości jest to bardziej skomplikowane. Jest radar wykrywający i śledzący cele. Jest system zarządzania walką jest system kontroli uzbrojenia oraz automatyczna wyrzutnia rakiet. Bateria systemu to cztery kontenery, z których każdy zawiera 20 rakiet. System wyrzutni nie wymaga obsługi, działa automatycznie. System kontroli uzbrojenia – tzw. BMC – jest mózgiem Żelaznej Kopuły. To tutaj podejmowana jest decyzja, czy strzelać, czy nie. Np. wtedy gdy system wyliczy, że rakieta spadnie na teren niezamieszkały albo do morza, nie niszczy jej. System działa niezależnie od pory dnia czy nocy i co ważne, niezależnie od pogody.

Co ważne, izraelskie rakiety Tamir nie trafiają w cel czyli nadlatującą rakietę. One wybuchają w jej pobliżu, a ich odłamki niszczą wszystko wokoło. Co ważne, rakiety Tamir są manewrujące, mogą więc podążać za calem.

Tarcza Izraela

Źródło: PAP/EPA, Fot: ABIR SULTAN

Jedna bateria rakiet Tamir to koszt około 50 mln dolarów. Jedna rakieta to około 100 tys. dolarów. To dość mało jak na tak zaawansowany system. Dla porównania, jedna rakieta amerykańskiego systemu przechwytującego Patriot kosztuje 3 mln dolarów. Faktem jest, że Patriot ma zasięg ponad dwukrotnie większy, ale jedna rakieta kosztuje 30 razy więcej.

Odnośnie samych rakiet. Tamir ma wysokość około 3 metrów, waży 90 kg i ma kaliber 155 mm. Ich zasięg wynosi 40 kilometrów, a każda bateria chroni teren o powierzchni 150-160 km kwadratowych. Radar baterii jest w stanie śledzić do 1100 celów powietrznych równocześnie, o ile nie znajdują się one dalej niż 70 km od radaru. Radar śledzi rakietę w zasadzie od momentu jej startu. Szybki komputer wylicza trajektorię setek obiektów równocześnie, a na te, które stanowią zagrożenie dla cywilów wypuszcza Tamiry. Od momentu wykrycia, przez śledzenie, wyliczenie i unieszkodliwienie… to wszystko trwa kilka, kilkanaście sekund.

Żelazna Kopuła i co dalej?

Po to, by tarcza Żelazna Kopuła chroniła cały teren Izraela, potrzeba 13 baterii rakiet Tamir. Dzisiaj Izrael ma takich baterii 10, są rozmieszczone w różnych częściach kraju i są mobilne. Żelazna Kopuła jest systemem zaprojektowanym do ochrony celów cywilnych przed nawet dużą ilością, ale prostych rakiet. Ten system nie poradzi sobie z rakietami latającymi nisko czy z rakietami manewrującymi, stąd – cały czas mówię o celach cywilnych, bo do ochrony celów wojskowych Izrael ma inne systemy przeciwrakietowe – od kilku lat trwają prace nad systemem laserowym nazwanym roboczo Light Blade, czyli świetlne ostrze albo Iron Beam czyli żelazny promień. Tak jak Żelazna Kopuła powstała w trzy lata, tak system laserowy okazał się znacznie trudniejszy do budowy. 

Kłopotem jest synchronizacja źródeł światła laserowego, odpowiednie źródła energii po to, by system mógł strzelać raz za razem no i pogoda. Światło laserowe w atmosferze pełnej chmur czy ogólnie wilgoci jest mocno rozpraszane. Receptą jest podwyższenie mocy laserów, no ale to wymaga większego zasilania i koło się zamyka. Kiedy powstanie pełna laserowa kopuła – nie wiadomo, ale będzie na pewno jeszcze bliżej filmów science-fiction niż to, co widzimy dzisiaj.

Możliwość komentowania Żelazna Kopuła – co to jest i jak działa izraelska obrona przeciwrakietowa? została wyłączona

Czy komputer może odczytać nasze myśli? Pionierskie badania naukowców ze Stanford University

Naukowcy ze Stanford University wszczepili do mózgu sparaliżowanemu mężczyźnie elektrody, które przenoszą to, co wyobraża sobie w głowie, jako tekst na ekranie. Efekty pionierskich prac, które usprawniają komunikację opublikowane zostały…

Naukowcy ze Stanford University wszczepili do mózgu sparaliżowanemu mężczyźnie elektrody, które przenoszą to, co wyobraża sobie w głowie, jako tekst na ekranie. Efekty pionierskich prac, które usprawniają komunikację opublikowane zostały w „Nature”.

Naukowcy ze Stanford University, dzięki wszczepieniu 65-letniemu mężczyźnie, sparaliżowanemu od szyi w dół, tuż pod powierzchnię mózgu dwóch siatek małych elektrod, zdołali stworzyć interfejs mózg-komputer. 

Jak działają elektrody?

Elektrody mają za zadanie odczytywanie aktywności elektrycznej w tej części mózgu, która odpowiedzialna jest za kontrolowanie ruchów dłoni i palców. Do tego wystarczające jest badanie aktywności kilkuset neuronów. Sparaliżowany mężczyzna wyobraził sobie, że pisze odręczne listy, a następnie naukowcy za pomocą algorytmu ustalili wzorce neuronowe, które pasowały do każdej wyobrażonej litery i przekształcili te wzorce w tekst na ekranie.

Eksperyment pokazał, że sparaliżowany mężczyzna tylko z pomocą aktywności mózgu był w stanie napisać 90 znaków, czyli 15 słów na minutę. Dla porównania – to prawie tyle samo, ile wynosi średnia prędkość pisania na smartfonach przez osoby w podobnym wieku – i dwa razy szybciej niż w przypadku dotychczasowych rozwiązań śledzących ruchy oka.

Dla naukowców zaskoczeniem było, że tak dobrze udało się odczytać sygnały dotyczące nieużywanych od roku 2007 kończyn.

Co dalej?

To jeszcze nie koniec badań. Naukowcy chcą przebadać kolejnych ochotników oraz poddać testom osoby, które nie mówią i straciły zdolność poruszania się. 

Badania naukowców ze Sanford University nad przełożeniem aktywności mózgu na tekst lub mowę dałoby szansę osobom sparaliżowanym na porozumiewanie się za pomocą samych myśli.

źródło:

www.naukawpolsce.pap.pl

Wesprzyj zrzutkę Nauka. To Lubię

Możliwość komentowania Czy komputer może odczytać nasze myśli? Pionierskie badania naukowców ze Stanford University została wyłączona

Utalentowani konstruktorzy w studenckim konkursie KOKOS – znamy laureatów

Przydomowa turbina wiatrowa, wyścigowy bolid czy łódź podwodna to niektóre z nagrodzonych niezwykłych prac laureatów studenckiego konkursu KOKOS. Jego celem jest wyłonienie i nagrodzenie najbardziej utalentowanych młodych konstruktorów, skonfrontowanie ich…

Przydomowa turbina wiatrowa, wyścigowy bolid czy łódź podwodna to niektóre z nagrodzonych niezwykłych prac laureatów studenckiego konkursu KOKOS. Jego celem jest wyłonienie i nagrodzenie najbardziej utalentowanych młodych konstruktorów, skonfrontowanie ich prac z wymagającym światem biznesu oraz pomoc w komercjalizacji projektów oraz pozyskaniu inwestorów. Zobaczcie, czym zaskoczyli jurorów tegoroczni laureaci.

25 kwietnia odbyła się Gala Finałowa Konkursu Konstrukcji Studenckich, podczas której wyłonieni zostali najzdolniejsi konstruktorzy wśród studentów uczelni technicznych w całej Polsce. Zwycięzcy zostali wyłonieni w 6 kategoriach: Vehicle, Ecology, Smart Robots, Life Upgrade, Joker oraz w kategorii specjalnej Railway, której patronem zostało PKP S.A., Główny Partner wydarzenia.

Podczas tegorocznej edycji organizatorzy otrzymali rekordową liczbę zgłoszeń, a wśród finalistów znalazło się aż 39 konstrukcji!

Zobaczcie, kto zwyciężył w poszczególnych kategoriach:

  1. Kategoria Vehicle:

Bolid wyścigowy – eWarta stworzony przez zespół PUT Motorsport z Politechniki Poznańskiej

Bolid e-Warta

Bolid eWarta, czyli pierwsza w historii Zespołu konstrukcja o napędzie elektrycznym, łączy nie tylko najbardziej zaawansowane technologie ze świata Formuły 1, ale także jest wspaniałym nawiązaniem do nowego początku. Mianowicie, została zbudowana na bazie pierwszego bolidu PUT Motorsport, który na wszystkich rundach, w których wystartował, został okrzyknięty najlepszym debiutem w historii Formuły Student. Z tak niezawodną konstrukcją, nawet pandemia nie mogła pokrzyżować planów wybitnych konstruktorów z Wielkopolski.

  1. Kategoria Ecology:

GUST wykonany przez Studenckie Koło Naukowe Energetyków z Politechniki Łódzkiej

GUST - przydomowa elektrownia wiatrowa

GUST to prototyp przydomowej turbiny wiatrowej. Ma on za zadanie pokryć przynajmniej częściowo codzienne zapotrzebowanie gospodarstwa domowego na energię elektryczną, jak również przyczynić się do redukcji kosztów i zwiększenia oszczędności. Użycie małej, przydomowej turbiny wiatrowej zaprojektowanej i skonstruowanej przez zespół GUST zredukuje wciąż rosnące koszty związane z zakupem energii elektrycznej od dostawców. Ponadto przyczyni się do ograniczenia zużycia prądu z centralnej sieci, co pośrednio wpłynie na ograniczenie spalania nieekologicznych paliw kopalnych w elektrowniach. Dzięki zastosowaniu przydomowych turbin wiatrowych, indywidualni konsumenci będą bardziej niezależni od centralnej sieci poprzez produkcję energii z wiatru na własny użytek.

  1. Kategoria Smart Robots

Kalman – Autonomiczny Łazik Planetarny zespołu AGH Space Systems z Akademii Górniczo-Hutniczej w Krakowie

Kalman łazik

Łazik planetarny Kalman to projekt rozwijany od 2017 roku. Jego celem od samego początku jest stworzenie w pełni funkcjonalnego, mobilnego robota zdolnego do symulowania misji kolonizacyjnej na Marsie lub Księżycu i testowania nowych rozwiązań technicznych. Oznacza to konieczność stworzenia mobilnej, autonomicznej platformy, zdolnej do wykonywania szerokiej gamy zadań w trudnym terenie, przy jak najmniejszej ingerencji ze strony operatorów. Konstrukcja taka ma charakteryzować się maksymalną autonomią działań, szczególnie w zakresie poruszania się i znajdowania określonych struktur oraz przedmiotów. Dodatkowo, Kalman posiada możliwość przeprowadzania określonych rodzajów badań za pomocą modułu laboratoryjnego – w szczególności wykrywania śladów życia w pozyskanych próbkach gleby.

  1. Kategoria Life Upgrade:

AlterARM, konstrukcja zespołu Jawornicka Dynamics z Politechniki Poznańskiej

Alter Arm

AlterARM to projekt, który wiąże się z implementacją protezy całej górnej kończyny człowieka, wykonany ze skalowalnych modułów wykonanych prawie w całości techniką druku 3D, by można było dostosować ją w prosty sposób do niepełnosprawności docelowego użytkownika. Konstrukcja cechuje się stosunkowo niskim kosztem oraz szybkością wykonania, a dodatkowo posiada również szereg funkcjonalności znajdujących duże zastosowanie w robotyce dzięki wszystkim niezbędnym mechanizmom zintegrowanym wewnątrz ramienia.

  1. Kategoria Joker:

Łódź podwodna OKOŃ V2 wykonana przez OKOŃ Team z Politechniki Warszawskiej

Łódź podwodna Okoń

Projekt został zrealizowany z myślą o międzynarodowych zawodach, do badań naukowych związanych z autonomią i procesami zachodzącymi pod powierzchnią wody, a także do prowadzenia wielopłaszczyznowej współpracy z zewnętrznymi firmami – plany komercjalizacji, wykonywanie testów wodoodpornych urządzeń, próby szczelności i wytrzymałości w środowisku wyjątkowo niekorzystnym dla urządzeń elektronicznych.

  1. Kategoria Railway:

ROSTANICE, projekt którego autorami są Martyna Majer, Milena Szymczak, Magdalena Golina, Mateusz Otto i Agnieszka Strap z Politechniki Wrocławskiej

Dworzec kolejowy dla pociągów magnetycznych Rostanice

Projekt Rostanice przedstawia koncepcję dworca kolejowego dla pociągów magnetycznych. Projektowany dworzec zlokalizowany jest w Złotym Stoku w starej kopalni złota. Miejscowość ta leży przy granicy polsko-czeskiej. Projektowany dworzec wykorzystuje nieużywane już tunele starej kopalni, co minimalizuje ingerencję w strukturę góry. W Złotym Stoku funkcjonował kiedyś transport kolejowy połączony z kopalnią złota. Budynek dworca, który obsługiwał pasażerów stoi do dzisiaj, niestety infrastruktura nie przetrwała z powodu powodzi w 1997 r. Projektowany dworzec prezentuje zupełnie nowe podejście do tego typu obiektów. Zastosowany układ peronów jest niekonwencjonalny, gdyż znajdują się one jeden nad drugim, a główna komunikacja odbywa się pionowo. Takie rozplanowanie pozwala na bardziej intuicyjne poruszanie się użytkowników po obiekcie, wykorzystując tym samym potencjał góry. Co istotne, projektowany dworzec uwzględnia jego stopniową rozbudowę. W pierwszym etapie powstaje jeden peron, który znajduje się najniżej. W miarę rozwoju kolejnictwa i zaniku transportu drogowego będzie rozbudowywany o kolejne perony, które będą piętrzyć się ku górze.

Już od kilku lat Konkurs Konstrukcji Studenckich wydarzenie, które przyciąga młodych konstruktorów. Studenci mają okazję skonfrontować swoje pomysły z wymagającym światem biznesu i nawiązać znajomości, które mogą wpłynąć na dalszy rozwój ich projektów. Realizowalny przez Niezależne Zrzeszenie Studentów projekt spełnia rolę integracji środowiska akademickiego i biznesowego.

Konkurs KOKOS

Szczegółowe informacje na temat Konkursu Konstrukcji Studenckich znajdziecie na stronie internetowej: https://kokos.nzs.org.pl/oraz social mediach: fanpage KOKOS na Facebooku oraz  kokos.nzs na Instagramie.

Wesprzyj zrzutkę Nauka. To Lubię

 

Możliwość komentowania Utalentowani konstruktorzy w studenckim konkursie KOKOS – znamy laureatów została wyłączona

Stanisław Lem zostanie wyróżniony w kosmosie w czasie misji kapsuły SpaceX Crew Dragon

Jeden z członków misji  SpaceX Crew Dragon, która w piątek leci w kosmos, wyróżni w kosmosie  Stanisława Lema w setną rocznice jego urodzin. Misja kosmiczna będzie trwała ponad pół roku….

Jeden z członków misji  SpaceX Crew Dragon, która w piątek leci w kosmos, wyróżni w kosmosie  Stanisława Lema w setną rocznice jego urodzin. Misja kosmiczna będzie trwała ponad pół roku.

Informację o planach upamiętnienia polskiego twórcy science fiction przekazała Polska Fundacja Fantastyki Naukowej, która jest inicjatorem przedsięwzięcia.

Według Szymona Kloski z Krakowskiego Biura Festiwalowego, Stanisław Lem zostanie uhonorowany w kosmosie prawdopodobnie na jesień, pod koniec misji.  Jeszcze nie wiemy w jaki dokładnie sposób, ale przygotowania trwają.

Załoga liczy czterech uczestników misji kapsuły SpaceX Crew Dragon na Międzynarodową Stację Kosmiczną, która rozpocznie się w piątek. Thomas Pesquet, członek załogi (specjalista misji)  – to właśnie on, zgodnie z zapowiedziami, uhonoruje rok Lema.

Pesquet jest astronautą Europejskiej Agencji Kosmicznej, pozostali trzej uczestnicy pracują dla amerykańskiej agencji NASA: Shane Kombrough (dowódca misji), Megan McArthur (pilot) i Akihiko Hoshide (specjalista misji). Badania mają pomóc w jeszcze szerszym poznaniu wszechświata.

Misja kosmiczna SpaceX Crew Dragon rozpocznie się w piątek. Będzie można ją zobaczyć  na stronie internetowej NASA oraz na kanale YouTube:

To już duga misja kapsuły SpaceX Crew Dragon. Pierwsza odbyła się rok temu.

Lem tak ponad 50 lat temu  wyobrażał sobie podróże kosmiczne:

„Kiedy już pilot ułożył się na fotelu, miał po obu bokach cztery rękojeści główne reaktora i sterowniczych dysz odchylających, trzy awaryjne, sześć dźwigni małego pilotażu, pokrętła rozruchu i biegu jałowego oraz regulator mocy, ciągu, przedmuchu dysz, a nad samą podłogą — wielkie szprychowe kółko aparatury klimatyzacyjnej, tlenowej, rączkę instalacji przeciwpożarowej, wyrzutni reaktora (gdyby rozpoczęła się w nim reakcja łańcuchowa nie kontrolowana), linkę z pętlą, przymocowaną do wierzchu szafki z termosami i jedzeniem, pod stopami zaś — wymoszczone miękko i opatrzone strzemiennymi pętlicami pedały hamownic i bezpiecznik wyrzutowy, którego naciśnięcie (pierwej trzeba było nogą rozbić jego kołpak i pchnąć go do przodu) wyrzucało pęcherz razem z fotelem i pilotem oraz wylatującymi za nim strunami spadochronu pierścienno–wstęgowego.” („Opowieści o pilocie Pirxie”)

źródło:

naukawpolsce.pap.pl

Wesprzyj zrzutkę Nauka. To Lubię

Możliwość komentowania Stanisław Lem zostanie wyróżniony w kosmosie w czasie misji kapsuły SpaceX Crew Dragon została wyłączona

Polscy astronomowie w wielkiej europejskiej sieci obserwacyjnej OPTICON-RadioNet Pilot

Z polskim udziałem wystartowała największa europejska sieć koordynująca badania astronomiczne – OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego. Do tej…

Z polskim udziałem wystartowała największa europejska sieć koordynująca badania astronomiczne – OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego.

Do tej pory w Europie działały dwie główne sieci koordynujące współpracę instrumentów naziemnych. Jedna miała związek z obserwacjami astronomicznymi w zakresie widzialnym (OPTICON), a druga w zakresie radiowym (RadioNet). Taka sytuacja trwała przez ponad 20 lat. Teraz zdecydowano o połączeniu sił obu tych grup.

Wraz z rozwojem wiedzy astronomicznej naukowcy potrzebują coraz bardziej zaawansowanych instrumentów, a także takich, które będą się wzajemne uzupełniać. Coraz częściej obserwacje astronomiczne wymagają połączenia analiz na różnych długościach fali elektromagnetycznej. Duży nacisk kładzie się na ujednolicenie metod i narzędzi obserwacyjnych oraz poszerzenie dostępu do wielu różnych instrumentów astronomicznych.

Nowa sieć ORP ma zapewnić europejskim naukowcom dostęp do teleskopów z szerokiego zakresu oraz wesprzeć rozwój młodych badaczy. Projekt dysponuje finansowaniem w wysokości 15 milionów euro w ramach programu Horyzont 2020 realizowanego przez Europejską.

Projekt jest kierowany przez francuski CNRS, brytyjski Uniwersytet Cambridge i niemiecki Instytut Radioastronomii im. Maxa Plancka. Łącznie współpraca obejmuje 37 instytucji naukowych z 15 krajów europejskich, Australii i RPA. Z Polski udział wezmą Uniwersytet Mikołaja Kopernika w Toruniu oraz Uniwersytet Warszawski.

Prace naukowe na UMK będą koordynowane przez dr hab. Agnieszkę Słowikowską, zastępcę dyrektora Instytutu Astronomii UMK ds. Infrastruktury Badawczej. Co więcej, Polka została wybrana na przewodniczącą zespołu koordynującego ORP (Chair of the ORP Board), w skład którego wchodzi 37 reprezentantów wszystkich instytucji zaangażowanych w działalność sieci. Ze strony UMK w ramach nowej sieci dostępny będzie największy polski 32-metrowy radioteleskop oraz największy na terenie naszego kraju teleskop optyczny ze zwierciadłem o średnicy 90 cm.

Z kolei udziałem naukowców z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego będzie koordynował prof. dr hab. Łukasz Wyrzykowski, którego zespół już od 2013 roku brał udział w pracach sieci OPTICON. Na bazie zdobytego doświadczenia zespół opracował system internetowy do obsługi wielu teleskopów i wysyłania zamówień na systematyczne obserwacje tych samych obiektów w celu badania ich zmienności. Astronomowie z Warszawy będą odpowiadać za koordynację działania małych i średnich teleskopów naziemnych. Ich celem naukowym będzie monitorowanie zmienności czasowej interesujących obiektów. Sieć składa się z około 100 teleskopów, w tym około 50 robotycznych, rozproszonych po całym świecie. W jej skład wchodzi m.in. Północna Stacja Obserwacyjna UW w Ostrowiku z 60 cm teleskopem optycznym. (PAP)

Możliwość komentowania Polscy astronomowie w wielkiej europejskiej sieci obserwacyjnej OPTICON-RadioNet Pilot została wyłączona

Wiązania wodorowe pomagają w przenoszeniu elektronów

Międzynarodowy zespół kierowany przez Polaka zaobserwował po raz pierwszy, że przeniesienie elektronów dalekiego zasięgu w obrębie cząsteczki chemicznej, może zachodzić poprzez wiązania wodorowe bez tzw. przeskakiwania (ang. hopping). Odkrycie to…

Międzynarodowy zespół kierowany przez Polaka zaobserwował po raz pierwszy, że przeniesienie elektronów dalekiego zasięgu w obrębie cząsteczki chemicznej, może zachodzić poprzez wiązania wodorowe bez tzw. przeskakiwania (ang. hopping). Odkrycie to opublikowane w PNAS może nie tylko pomóc lepiej zrozumieć pracę białek, ale i projektować nowe materiały. 

Aby istniało życie, konieczne są procesy przekazywania energii i elektronów w ramach cząsteczek chemicznych i pomiędzy nimi. Podczas przeniesienia elektronów – a więc cząstek niosących ujemny ładunek elektryczny – przeskakują one z jednego miejsca w cząsteczce chemicznej w inne. Przeniesienie elektronów to choćby podstawa fotosyntezy, w której foton – cząstka światła – wzbudza cząsteczkę chlorofilu i wybija z niej elektron, który ucieka wtedy w inne miejsce. Zgromadzona w tym procesie energia w finale napędza pracę komórki. Proces przeniesienia elektronu jest też niezbędny do reperacji uszkodzonego DNA czy do pracy niektórych enzymów. Ma też jednak znaczenie w inżynierii – choćby w budowie ogniw fotowoltaicznych i technologiach fotonicznych.

Chemicy od dawna wiedzieli, że elektron może przeskakiwać na niewielkie odległości. Były też już jednak znane procesy przeskakiwania (ang. hopping) elektronów na większą odległość (to tzw. przeniesienie elektronów dalekiego zasięgu – ang. long-range electron transfer). Dotąd obserwowano tylko takie sytuacje, w których elektron skakał na sporą odległość, ale pod warunkiem, że miał na swojej drodze „schodki”, miejsca w cząsteczce, po których mógł po drodze kolejno przeskakiwać, aby w rezultacie przebyć dłuższą trasę.

Teraz zespół naukowców pod kierunkiem prof. Daniela Gryko z Instytutu Chemii Organicznej PAN pokazał nowy sposób takiego przenoszenia elektronów poprzez tunelowanie (ang. tunneling) – tzn. bez tradycyjnych „schodków”.

„W naszych badaniach po raz pierwszy udało się udowodnić, że proces przeniesienia elektronów może zachodzić pomiędzy przeciwległymi i położonymi daleko od siebie fragmentami, pod warunkiem, że w cząsteczce istnieje sieć wewnętrznych wiązań wodorowych” – streszcza w rozmowie z PAP prof. Daniel Gryko. To kierownik zespołu, którego badania ukazały się w prestiżowym czasopiśmie PNAS.

W badaniach brali udział badacze z IChO PAN: Rafał Orłowski (pierwszy autor pracy), prof. Agnieszka Szumna i dr Olga Staszewska-Krajewska, ale również badacze z Kalifornii (zespoły kierowane przez prof. Harrego Graya oraz przez prof. Valentine Vulleva) .

Pokazanie tego procesu było bardzo trudne – naukowcy musieli zaprojektować i wytworzyć cząsteczkę, w której dojdzie do takiego przeniesienia elektronów. Badania zajęły im trzy lata, ale trud ten się opłacił. W cząsteczce tej elektron przenosił się z jednego końca cząsteczki na drugi, chociaż byłoby to niemożliwe gdyby kształt cząsteczki był liniowy.

Kluczowe jest to, że cząsteczka zaprojektowana przez naukowców nie była liniowa ale raczej zawinięta w kształt skorpiona. Molekuła ta składająca się z kilku aminokwasów posiada w swojej budowie część bogatą w elektrony (donor), oraz ubogą w elektrony (akceptor). Elektrony z jednego końca cząsteczki miały więc „ochotę” dostać się na drugi jej koniec, ale podróż ładunku wzdłuż całej cząsteczki nie była możliwa. Jedyne, co się mogło tam zadziać, to skok elektronu z „głowy” skorpiona na jego „ogon”. Badacze pokazali, że jest to możliwe – dzięki temu, że podczas skoku elektron mógł skorzystać z obecności wewnątrzcząsteczkowych wiązań wodorowych, które się znalazły na jego trasie – a więc sił, które spinały ogon i głowę skorpiona. Nowatorskim pomysłem było takie dobranie donora i akceptora aby tworzyły wiązania wodorowe.

„Spodziewamy się, że inne zespoły wykorzystają ten model i naszą wiedzę, by zaprojektować swoje cząsteczki do innych celów – nie tylko chodzi o biologię molekularną, ale i o chemię materiałową” – mówi prof. Gryko. Ma nadzieję, że nowa wiedza o przenoszeniu elektronów w cząsteczkach pomoże nie tylko lepiej zrozumieć działanie białek, ale również pomoże w opracowaniu nowych rozwiązań szczególnie powiązanych z ogniwami słonecznymi.

„W naszych badaniach pokazujemy, że krótkie peptydy, zawierające zaledwie cztery reszty aminokwasowe, zapewniają sieć wiązań wodorowych, która może pośredniczyć w przenoszeniu elektronów z niezwykle wysoką wydajnością. Praca ta nie tylko zmienia spojrzenie na projektowanie cząsteczek, w których zachodzi przeniesienie elektronu, ale także sugeruje motywy strukturalne pośredniczące w transmisji elektronów w białkach” – podsumowuje prof. Gryko.

PAP – Nauka w Polsce, Ludwika Tomala

Możliwość komentowania Wiązania wodorowe pomagają w przenoszeniu elektronów została wyłączona

Polacy opracowali sieć neuronową wykorzystując „masywne” fotony

Zespół kierowany przez Polaków jako pierwszy na świecie zbudował sieć neuronową (sztuczny neuron) opartą o „masywne” fotony – cząstki światła zachowujące się tak, jakby miały masę (tzw. polarytony). Badacze mają…

Zespół kierowany przez Polaków jako pierwszy na świecie zbudował sieć neuronową (sztuczny neuron) opartą o „masywne” fotony – cząstki światła zachowujące się tak, jakby miały masę (tzw. polarytony). Badacze mają nadzieję, że wykorzystanie światła w obliczeniach sztucznej inteligencji jest szansą na duże oszczędności energii. 

Sztuczne sieci neuronowe używane są dziś w coraz większej liczbie zastosowań: w rozpoznawaniu mowy i głosu, obrazów, w tłumaczeniu tekstów, w sterowaniu pojazdami autonomicznymi. „Ilość danych, które chcemy przetwarzać, rośnie, a moc obliczeniowa potrzebna sieciom neuronowym jest bardzo duża i osiąga już limity. Poza tym do przetwarzania tych danych potrzebna jest ogromna ilość energii. Warto zastanowić się więc nad nowymi technologiami” – mówi w rozmowie z PAP prof. Michał Matuszewski z Instytutu Fizyki PAN.

Jego zdaniem nadzieją jest tu przechodzenie z urządzeń elektronicznych – działających za sprawą elektronów – do urządzeń, które wykorzystywać będą fotony, a więc cząstki światła. „Fotony są o tyle dobre, że – w przeciwieństwie do elektronów – ich propagacja odbywa się właściwe bez strat energii” – mówi prof. Matuszewski. Zwraca uwagę, że od dawna stosuje się już tę ideę w telekomunikacji – do przesyłania informacji na duże odległości wykorzystywane są przecież światłowody, a nie elektroniczne kable. Światło jednak cały czas nie jest jeszcze stosowane w wykonywaniu obliczeń komputerowych.

 

Rys: Mateusz Król, Wydział Fizyki UW, R. Mirek et al., Nano Letters 2021

Rys: Mateusz Król, Wydział Fizyki UW, R. Mirek et al., Nano Letters 2021

Fotony są o tyle trudne do wykorzystania w obliczeniach, że – w przeciwieństwie do elektronów – nie oddziałują ze sobą. A takie oddziaływania przydają się choćby do wykonywania operacji w tradycyjnych bramkach logicznych. Naukowcy z FUW – jako pierwsi na świecie – zbudowali sieć neuronową, której działanie jest oparte o fotony zachowujące się tak, jakby miały masę (kwazicząstki – tzw. polarytony). Badania ukazały się w czasopiśmie naukowym „Nano Letters” (https://dx.doi.org/10.1021/acs.nanolett.0c04696 ).

„My w swoich badaniach proponujemy rozwiązanie, które jest hybrydą elektroniki i fotoniki. Sieci neuronowe, które zaprojektowaliśmy, mają niskie zużycie energii, ale pozwalają wykonywać operacje z dużą skutecznością” – mówi prof. Michał Matuszewski.

W badaniach Polaków fotony więzione są w tzw. mikrownękach optycznych – wpuszcza się je pomiędzy dwa supergładkie lustra. „W takich warunkach można sprawić, że zachowują się jak cząstki z bardzo małą masą. Dołożenie do tego elektronów powoduje, że one mogą ze sobą oddziaływać. Fotony takie nazywamy polarytonami. Mamy więc tam silne oddziaływanie światła z materią” – mówi współautorka pracy dr hab. Barbara Piętka.

„Światło to wykorzystaliśmy do nauki rozpoznawania wzorców” – mówi PAP Michał Matuszewski. I opisuje, że sieć optyczną nauczono rozpoznawania odręcznie pisanych cyfr (tzw. baza MNIST) ze skutecznością 96 proc. A to znaczy, że sztuczny neuron myli odręcznie napisane cyfry tylko raz na 25 prób. A podczas wykonywania jednej operacji zużywa bardzo mało energii – zaledwie 16 pikodżuli.

„To na razie prototyp. Zrealizowaliśmy sztuczny neuron, a konkretnie 1 bramkę logiczną XOR, która wykonuje operacje w sposób sekwencyjny – jedna po drugiej” – mówi prof. Matuszewski.

Schemat ideowy zastosowania kondensatów polarytonów ekscytonowych jako elementu nieliniowej bramki optycznej XOR. Binarna sieć neuromorficzna została zrealizowana z bramek XOR i zastosowana do rozpoznawania odręcznie pisanych cyfr ze zbioru danych MNIST. Rys: Mateusz Król, Wydział Fizyki UW, R. Mirek et al., Nano Letters 2021

Rys: Schemat ideowy zastosowania kondensatów polarytonów ekscytonowych jako elementu nieliniowej bramki optycznej XOR. Binarna sieć neuromorficzna została zrealizowana z bramek XOR i zastosowana do rozpoznawania odręcznie pisanych cyfr ze zbioru danych MNIST. Rys: Mateusz Król, Wydział Fizyki UW, R. Mirek et al., Nano Letters 2021 

Pierwszy autor publikacji Rafał Mirek dodaje, że bramka XOR jest bramką wykonującą operacje logiczne. Jest ona jednak o tyle szczególna, że to bramka nieliniowa. „Na układzie, w którym wykonaliśmy naszą bramkę, możemy zrealizować dowolną inną bramkę logiczną i wykonywać przeróżne operacje logiczne” – zwraca uwagę.

A kolejny autor pracy, Andrzej Opala dodaje: „Światło i materię mieszamy po to, żeby oddziaływania, które powstają w układzie, miały charakter nieliniowy. Nieliniowość ta jest niezbędna do efektywnej realizacji sztucznego neuronu”.

Prof. Barbara Piętka uszczegóławia, że polarytony mają – w odróżnieniu od zwykłych fotonów – bardzo małą (ale niezerową) masę. Przez to następuje tam przejście do tzw. kondensatu Bosego-Einsteina. „Mówi się, że kondensat Bosego-Einsteina to piąty stan materii: po ciele stałym, cieczy, gazie czy plazmie. To układ, w którym cząstki – a dokładniej bozony, wykazują nowe własności kwantowe. Przejście do tego stanu jest silnie nieliniowe” – opowiada.

Na razie eksperymenty zespołu wykonywane są w temperaturach ciekłego helu. „Pracujemy już nad układami działającymi w temperaturze pokojowej. Jesteśmy przekonani, że to da się zrobić. A jest to ważny warunek, żeby rozwiązanie mogło znaleźć praktyczne zastosowanie w technologii” – mówi jeden z autorów badania, dr inż. Krzysztof Tyszka.

Naukowiec zapytany jak sobie wyobraża – w odległej przyszłości – praktyczne zastosowania fotonicznych sieci neuronowych, odpowiada: „na końcu drogi chcielibyśmy, stworzyć scalony układ fotoniczno-elektroniczny, który można byłoby np. wykorzystać jako układ sterowania samochodu autonomicznego. Takie układy mogłyby przetwarzać informacje o warunkach na drodze znacznie efektywniej niż dotychczas – przy niskim zużyciu energii, bez potrzeby łączenia się z Internetem”.

PAP – Nauka w Polsce, Ludwika Tomala

Możliwość komentowania Polacy opracowali sieć neuronową wykorzystując „masywne” fotony została wyłączona

Nagroda Jamesa Dysona w Polsce. Młody wynalazco – zgłoś swój pomysł do konkursu!

152 000 zł to wygrana na poziomie międzynarodowym, na którą mogą liczyć młodzi naukowcy w konkursie o Nagrodę Jamesa Dysona. Wymagania są proste – wystarczy zaprojektować coś, co rozwiąże jakiś…

152 000 zł to wygrana na poziomie międzynarodowym, na którą mogą liczyć młodzi naukowcy w konkursie o Nagrodę Jamesa Dysona. Wymagania są proste – wystarczy zaprojektować coś, co rozwiąże jakiś współczesny problem. W 2021 roku konkurs po raz pierwszy odbywa się w Polsce, a ja mam przyjemność być jednym z członków jury, które wybierze krajowych laureatów.

Nagroda Jamesa Dysona to jedno z wielu zainicjowanych przez sir Jamesa Dysona działań, które mają pokazać, że wynalazcy i inżynierzy mogą zmieniać świat. Instytut Inżynierii i Technologii Dyson, Fundacja Jamesa Dysona oraz Nagroda Jamesa Dysona zapraszają młodych inżynierów do tego, by wykorzystywali swoją wiedzę w praktyce i wynajdowali nowe sposoby na poprawienie jakości naszego życia dzięki technologii.

W tym roku po raz pierwszy polscy naukowcy mogą starać się o nagrody, a ja, razem z Doktorem Tomaszem Łuczyńskim i Przemysławem Pająkiem, będę miał przyjemność wyłonić zwycięzców na poziomie krajowym.

Sky is the limit

Pojęcie „rozwiązania jakiegoś problemu” jest dosyć ogólnikowe i bardzo pojemne, ale to celowe działanie organizatorów, którzy chcą zachęcić studentów, by zmierzyli się z istotnymi współcześnie problemami. To daje młodym naukowcom ogromne pole do popisu i w zasadzie nieograniczone możliwości. Z resztą, zobaczcie, co w poprzednich latach mieli do zaoferowania laureaci konkursu i jak bardzo kreatywne podejście prezentują naukowcy młodego pokolenia.
W 2020 roku Główną Międzynarodową Nagrodę zdobyła 23-letnia Judit Giró Benet, która przygotowała projekt The Blue Box, czyli urządzenie do samodzielnej diagnostyki raka piersi, wykorzystujące algorytm sztucznej inteligencji do analizy próbki moczu. Zostało ono opracowane jako mniej inwazyjna i łatwiej dostępna alternatywa dla konwencjonalnych mammograficznych badań przesiewowych, z których kobiety coraz częściej rezygnują.

W 2017 roku jury nagrodziło pomysł na kolorowe mydło w sztyfcie SoaPen, które ma zachęcać dzieci do dokładnego mycia rąk. Z kolei w 2011 roku w Singapurze Esther Wang stworzyła urządzenie, które ma za zadanie wspierać komunikację między personelem szpitala a dziećmi, którym wyjaśniane są procedury medyczne.

Warto dodać, że wspomniane wyżej projekty przyniosły rozgłos ich twórcom i wykorzystywane są na szeroką skalę – urządzenie do komunikacji z dziećmi znalazło zastosowanie w 44 szpitalach w łącznie 23 krajach, a twórczynie kolorowego mydła po wprowadzeniu swojego produktu na rynek znalazły się na prestiżowej liście 30 Under 30 czasopisma Forbes.

Zasady konkursu

Zachęcam młodych naukowców, inżynierów do tego, aby nie bali się zaprezentować swoich wynalazków. W grę wchodzą nie tylko nagrody pieniężne, ale przede wszystkim poczucie, że można rozwiązać jakiś ważny dla ludzkości problem, a to daje zdecydowanie więcej satysfakcji.

Jak wziąć udział w konkursie?

  1. Kreacja. Skonstruuj coś, co rozwiąże jakiś problem. Punktem wyjścia może być coś irytującego, z czym ludzie borykają się na co dzień. Może to być również jakiś globalny problem. Istotą pomysłu jest jego skuteczność. Opisz, jak działa Twój wynalazek i jak, krok po kroku, przebiegał proces jego rozwoju.
  2. Ocena. W pierwszym etapie projekty będą oceniane na poziomie krajowym przez niezależne jury (to właśnie na tym etapie będę mógł oceniać Wasze zgłoszenia!). W każdym kraju, które bierze udział w konkursie zostanie wyłoniony jeden projekt zwycięski i dwa wyróżnione. Spośród zwycięzców krajowych, zespół inżynierów firmy Dyson dokonuje selekcji 20 zgłoszeń, które przejdą do ścisłego finału.
  3. Nagrody. Sir James Dyson osobiście rozpatruje 20 wyselekcjonowanych zgłoszeń, a następnie przyznaje Główną Międzynarodową Nagrodę oraz wyróżnienia na poziomie międzynarodowym, jak również Międzynarodową Nagrodę w kategorii Zrównoważony Rozwój.
      • Autor(ka) projektu, który zwycięży w kategorii międzynarodowej, otrzymuje nagrodę w wysokości 152 000 zł, a jego/jej uczelnia – dodatkowe 25 000 zł.
      • Autor(ka) projektu, który zwycięży w kategorii Zrównoważony Rozwój, otrzymuje nagrodę w wysokości 152 000 zł.
      • Autorzy dwóch projektów wyróżnionych na poziomie międzynarodowym otrzymują po 25 000 zł.
      • Autor(ka) projektu, który zwycięży na poziomie krajowym, otrzyma nagrodę w wysokości 10 000 zł.
      • Dodatkowa nagroda w kategorii Zrównoważony Rozwój.
  4. Terminy. Zgłoszenia możecie wysyłać do godz. 00:00 (czasu pacyficznego) 30 czerwca 2021 roku.

Po dodatkowe informacje organizatorzy zapraszają na oficjalną stronę konkursu, którą znajdziesz pod tym linkiem.

 

nagroda-jamesa-dysona

Możliwość komentowania Nagroda Jamesa Dysona w Polsce. Młody wynalazco – zgłoś swój pomysł do konkursu! została wyłączona

Badanie: bezpieczeństwo i dostępność najważniejsze dla użytkowników chmur

Dostępność oraz bezpieczeństwo – to najważniejsze cechy chmur obliczeniowych, jakie wskazali użytkownicy tej technologii – wynika z badań ankietowych przeprowadzonych na Uniwersytecie Ekonomicznym w Katowicach Badacze z dr. Arturem Strzeleckim…

Dostępność oraz bezpieczeństwo – to najważniejsze cechy chmur obliczeniowych, jakie wskazali użytkownicy tej technologii – wynika z badań ankietowych przeprowadzonych na Uniwersytecie Ekonomicznym w Katowicach

Badacze z dr. Arturem Strzeleckim z UE w Katowicach na czele przeanalizowali ankiety od ponad 250 osób na co dzień pracujących z technologią chmurową. „Zapytaliśmy, jak oceniają oni aktualnie dostępne chmury, z których korzystają najczęściej, czy uważają je za użyteczne, dostępne, jak postrzegają bezpieczeństwo i jak oceniają usługi i jakość tego systemu. Wyniki pokazały, że użytkownicy postrzegają chmury jako bardzo bezpieczne. Wskazują oni również na dostępność, rozumianą jako możliwość skorzystania z tych narzędzi niemal od ręki” – tłumaczył Strzelecki.

Na podstawie wyników badacze następnie stworzyli model równań strukturalnych. „Z naszych wyników z jednej strony mogą skorzystać operatorzy chmur, żeby na tej podstawie ulepszyć pewne rozwiązania, a z drugiej ci profesjonalni użytkownicy, którzy widzą, jakie rozwiązania zostały lepiej ocenione, a jakie mniej” – powiedział.

Artykuł na ten temat pt. „Akceptacja rozwiązań technologii chmurowej wśród użytkowników” został opublikowany w „Sustainability”.

Dr Strzelecki przypomniał, że chmura to określenie dotyczące sprzętu komputerowego, który znajduje się poza miejscem działalności, np. przedsiębiorstwa. „To sprzęt, oprogramowanie, bazy danych, moc obliczeniowa, dostęp przez internet do pewnych rozwiązań. Korzystając z chmury obliczeniowej firmy dzierżawią ten sprzęt, opłacają dostęp i mogą korzystać z tej infrastruktury informatycznej” – mówił.

Jak wyjaśnił, chmury obliczeniowe (ang. cloud computing) podzielić można na trzy typy: sprzęt i infrastruktura (użytkownicy nie muszą posiadać sprzętu np. serwerów, procesorów, dysków twardych itd., mogą wykupić dostęp do nich), narzędzia informatyczne (platforma z gotowymi do użycia narzędziami np. do tworzenia stron czy aplikacji) oraz gotowe usługi informatyczne (nie trzeba ich instalować na komputerze, wystarczy przeglądarka internetowa; to np. popularne wśród użytkowników Google Docs albo Office 365, a także Google Drive, Dropbox czy iCloud).

„Z dwóch pierwszych typów chmur korzystają głównie przedsiębiorstwa albo profesjonaliści, z trzeciego – konsumenci indywidualni” – dodał Strzelecki.

Jego zdaniem technologia chmurowa będzie się dalej rozwijać. „Możliwe, że niebawem nie będziemy mieli zainstalowanego systemu na naszym komputerze, nasz komputer nie będzie miał twardego dysku, bo wystarczy szybkie łącze internetowe i dostęp do chmury właśnie. Z takiego rozwiązania już od kilku lat korzystamy w naszym Centrum Nowych Technologii Informatycznych. Zwykły użytkownik nie zauważy różnicy” – powiedział.

W jego ocenie rozwiązania chmurowe, choć i tak są płatne, to są tańszą opcją dla użytkowników korzystających z tej technologii na co dzień; są też bezpieczne. „W tych centrach danych informacje bezpieczne są na 99,99 proc., nic im się nie stanie, nikt ich nie wykradnie, nie zostaną zniszczone np. przez pożar czy zalanie, bo jest ich kilka kopii. Owszem, zdarzają się ataki hakerskie czy awarie, ale zwykły Kowalski nie ma się czym przejmować. Bo on najprawdopodobniej nigdy nie stracił maili na Gmailu, nie zgubiły mu się pliki na Google Drive’ie – chyba że je sobie sam skasował. Dla zwykłego Kowalskiego jest to bezpieczne rozwiązanie do przechowywania danych” – podsumował dr Strzelecki.

PAP – Nauka w Polsce, Agnieszka Kliks-Pudlik

Możliwość komentowania Badanie: bezpieczeństwo i dostępność najważniejsze dla użytkowników chmur została wyłączona

Symulatory lotnicze na uczelniach technicznych

Wirtualne loty pozwalają na kształcenie studentów w zakresie podstaw mechaniki lotniczej. Dzięki symulatorom lotniczym absolwenci uczelni technicznych dokładnie wiedzą, jakie przyrządy znajdują się w kabinach rzeczywistych statków powietrznych, jak działają,…

Wirtualne loty pozwalają na kształcenie studentów w zakresie podstaw mechaniki lotniczej. Dzięki symulatorom lotniczym absolwenci uczelni technicznych dokładnie wiedzą, jakie przyrządy znajdują się w kabinach rzeczywistych statków powietrznych, jak działają, jak mogą działać nieprawidłowo i z jakimi innymi systemami współpracują.

Zajęcia to często gry symulacyjne na niezwykłym sprzęcie, który można rozwijać o własną elektronikę i oprogramowanie.

„Działanie większości symulatorów jest oparte o grę komputerową. Na naszych stanowiskach zainstalowane są gry Microsoft Flight Simulator, Falcon BMS czy też Prepar3D – takie, które każdy może pobrać z internetu. Podstawowy sprzęt gracza można rozwinąć o joystick, klawiaturę, albo o autorską elektronikę, która pozwala podłączyć własne urządzenia. Zaawansowani użytkownicy mogą dodać oprogramowanie, które sprawia, że gra staje się bardziej realna i symuluje działanie prawdziwego samolotu” – tłumaczy dr inż. Krzysztof Kaźmierczak, jeden z inicjatorów powstania takiej pracowni w Wojskowej Akademii Technicznej w Warszawie.

Na symulatorze bezzałogowego statku powietrznego można się nauczyć, jak wygląda współpraca pilota z operatorem systemów obserwacyjnych zainstalowanych na dronie. A jeśli ktoś chciałby zobaczyć, jak ląduje się śmigłowcem na pokładzie okrętu – pozwala na to symulator z wirtualną rzeczywistością.

PRACOWNIE ROZWIJANE PRZEZ PASJONATÓW

Jak wylicza naukowiec, na różnych uczelniach rozwijane są pracownie symulatorów, które umożliwiają studentom praktyczne zapoznanie się ze sprzętem lotniczym.

Politechnika Krakowska od kilku lat posiada symulator kokpitu myśliwca F-16 wykonany dzięki zaangażowaniu dra Dariusza Karpisza wraz z zespołem studentów. Politechnika Lubelska rozwija własne rozwiązanie oparte o okulary wirtualnej rzeczywistości.

Laboratorium Symulatorów znajduje się również w Zakładzie Automatyki i Osprzętu Lotniczego przy Wydziale Mechanicznym Energetyki i Lotnictwa Politechniki Warszawskiej, gdzie jednym z najbardziej znanych studentom stanowisk jest symulator polskiego śmigłowca SW4. Na PW również kilkanaście lat temu został zbudowany przez studentów Koła Naukowego symulator lotu szybowca.

Najświeższą informacją w temacie studenckich symulatorów jest „Aviator AGH” – symulator lotniczy samolotu Cessna 172SP budowany przez studentów Akademii Górniczo-Hutniczej.

Część uczelni kupuje urządzenia treningowe bezpośrednio od producentów profesjonalnych symulatorów. Na przykład, komercyjne stanowiska zostały zakupione do Laboratorium Badań Symulatorowych przez Politechnikę Poznańską.

Na koniec rozmówca PAP wspomina o Akademickim Centrum Szkolenia Lotniczego w Lotniczej Akademii Wojskowej w Dęblinie wyposażonym w certyfikowane urządzenia treningowe przeznaczone do szkolenia pilotów.

SZKOŁA MECHANIKÓW LOTNICZYCH

Pracownia Systemów Zobrazowania i Symulatorów WAT znajduje na Wydziale Mechatroniki, Uzbrojenia i Lotnictwa WAT. Studenci uczą się tu na przyrządach identycznych jak te, które są zainstalowane w rzeczywistych statkach powietrznych. Po co, skoro nie jest to „szkoła pilotów”?

„Mogą dzięki temu podjąć pracę mechaników w służbach lotniczych. We współczesnych statkach powietrznych usterki diagnozowane są w trakcie lotu, a komunikaty o nich wyświetlają się na urządzeniach w kabinie. Potem pilot zapisuje w dzienniku pokładowym wszelkie zaobserwowane usterki. Mechanik dokonuje tzw. odbioru oraz samodzielnej diagnozy i naprawy usterek. Wykorzystuje przy tym informacje generowane na przyrządach i wyświetlaczach w kabinie samolotu. Pomaga mu wiedza, którą zaczął zdobywać na symulatorach” – tłumaczy dr inż. Kaźmierczak w filmie nagranym z udziałem studentów. Film „Gdzie nie kończy się pasja, a zaczyna nauka” jest dostępny na kanale YT akademii.

Wyjaśnia, że symulatory to stanowiska, które zastępują fizyczny kontakt ze statkiem powietrznym. Obejrzenie kabiny pilotów nie jest łatwe w warunkach rzeczywistych. Zwiedzić można jedynie samolot stojący na płycie lotniska. Nie widać wówczas, jak działają przyrządy i jakie informacje się na nich wyświetlają.

„Airbus 320 i Boeing 737 to najpopularniejsze statki powietrzne, które nieco różnią się filozofią działania. Boeing 737 NG prezentuje tzw. starą szkołę, gdzie pilot do sterowania używa wolantu, przekazującego sygnały do hydraulicznych urządzeń wykonawczych. W Airbusie 320 mamy elektroniczny system sterowania lotem „Fly by wire”, wykorzystujący szereg czujników i układów elektronicznych oraz w roli sterownika – joystick. Pojawia się tu już zaawansowany system zobrazowania informacji pilotażowych, nawigacyjnych oraz usterek, który jest obsługiwany z komputera w kabinie” – opisuje naukowiec przykładowe symulatory, którymi dysponuje WAT.

Obok symulatorów statków typu General Aviation w pracowni jest także symulator użytkowanego przez Siły Powietrzne „Jastrzębia” F16, stanowiącego efekt prac 7-osobowej grupy w ramach projektu dla młodych naukowców. Ponadto do dyspozycji studentów jest Cessna i inne powszechnie znane samoloty. Niektóre stanowiska można certyfikować na 5 godzin rzeczywistej nauki dla pilotów. Podobne, niekomercyjne stanowiska do nauki, trudno jest znaleźć poza uczelniami.

„Producenci samolotów z reguły od symulatorów badawczych zaczynają prace nad kolejnymi modelami. Nie zajmują się jednak sprzedażą symulatorów lotu. Profesjonalne symulatory do szkolenia pilotów wykonują specjalne firmy. Pełne certyfikowane symulatory lotu mogą kosztować do 10 mln dolarów, przy cenie nowego samolotu 97 mln dolarów” – szacuje naukowiec.

Dlatego pasjonaci muszą raczej liczyć na inicjatywy innych pasjonatów, których niemało wśród naukowców. I tak, w niektórych pracowniach na wydziałach lotniczych najpierw pojawiły się gry, potem dobudowywano do nich sprzęt, następnie płytki elektroniczne, do których można było podłączać przełączniki. A dalej wprowadzano takie aktualizacje tych gier, dzięki którym najwierniej oddają one specyfikę lotu danym typem samolotu. Dzięki temu obecnie sterować samolotem można w domu… lub na zajęciach na uczelni.

PAP – Nauka w Polsce, Karolina Duszczyk

Możliwość komentowania Symulatory lotnicze na uczelniach technicznych została wyłączona

Przełomowe badania polskich matematyków o symetriach wszystkich symetrii

Polskim matematykom udało się rozwiązać ważny problem dotyczący symetrii wszystkich symetrii. Był to nierozwiązany od kilku dekad problem – jedno z największych wyzwań geometrycznej teorii grup.  Wyniki pracy dr. Marka…

Polskim matematykom udało się rozwiązać ważny problem dotyczący symetrii wszystkich symetrii. Był to nierozwiązany od kilku dekad problem – jedno z największych wyzwań geometrycznej teorii grup. 

Wyniki pracy dr. Marka Kaluby (Uniwersytet im. Adama Mickiewicza i Karlsruher Institut fur Technologie), prof. Dawida Kielaka (Uniwersytet Oksfordzki) i prof. Piotra Nowaka (Instytut Matematyczny PAN) ukazały się w jednym z najbardziej prestiżowych pism matematycznych Annals of Mathematics (https://annals.math.princeton.edu/2021/193-2/p03). A w historii tego czasopisma jest tylko kilka prac polskich matematyków.

Prof. Piotr Nowak to jeden z nielicznych w Polsce laureatów ważnego europejskiego grantu ERC (https://naukawpolsce.pap.pl/aktualnosci/news,407601,laureat-grantu-erc-sprawdza-mosty-miedzy-odleglymi-obszarami-matematyki.html). „Kiedy składałem wniosek o grant nie odważyłbym się zaproponować rozwiązania problemu, który właśnie rozwiązaliśmy. Wydawało mi się, że na horyzoncie nikt nie widział wtedy takiej możliwości” – mówi.

Z podobną skromnością do tematu podchodzili dr Kaluba i prof. Kielak, którzy w swoich grantach też zakładali zdobycie innych, nieco mniejszych szczytów. Skoro jednak na swojej drodze naukowcy dostrzegli trasę na szczyt o wiele bardziej interesujący – Mount Everest geometrycznej teorii grup – nie zamierzali go ominąć.

O CO CHODZI W BADANIACH

„Rozwiązaliśmy pewien od dawna otwarty problem, pokazując, że pewna nieskończona rodzina obiektów algebraicznych – grup – ma własność T, a więc, że jest bardzo niekompatybilna z geometrią Euklidesa” – podsumowuje Nowak.

A dr Marek Kaluba dodaje: „Dzięki naszym badaniom zrozumieliśmy pewne geometryczne aspekty grup kodujących symetrie wszystkich symetrii”.

Obiekty z własnością T, których dotyczyły badania, mają bardzo egzotyczne właściwości geometryczne (nie daje się ich zrealizować jako symetrii w geometrii euklidesowej). Wydaje się to oderwane od rzeczywistości? Na pozór tak. Ale wiedza o tej skomplikowanej własności T znalazła już zastosowanie. Pozwala choćby konstruować ekspandery – grafy z dużą ilością połączeń wykorzystywane m.in. w algorytmach streamingujących. A takie algorytmy odpowiadają m.in. za wskazywanie trendów na Twitterze.

„Pytanie czy grupy, które badaliśmy, mają taką własność T, pojawiło się w druku w latach 90. Kiedy byłem doktorantem, to był to problem, o którym słyszałem na co drugim wykładzie i konferencji z teorii grup” – streszcza Piotr Nowak.

A Dawid Kielak dodaje: „Nasz wynik wyjaśnia działanie pewnego algorytmu. To algorytm Product Replacement używany, kiedy chce się losować elementy spośród ogromnych zbiorów np. liczących więcej elementów niż liczba cząsteczek we Wszechświecie. Ten algorytm istnieje od lat 90. i działa dużo lepiej, niż można się było spodziewać. Nasz artykuł tłumaczy, dlaczego on tak dobrze działa” – mówi prof. Kielak.

I dodaje: „informatyka to nowa fizyka. To, co nas otacza, to nie tylko cząsteczki, ale coraz częściej – również algorytmy. Naszym zadaniem jako matematyków będzie więc i to, by zrozumieć algorytmy, pokazywać, dlaczego one działają albo nie; dlaczego są szybkie lub wolne”.

KOMPUTER POMAGA SZUKAĆ DOWODU

Naukowcy w swoim matematycznym dowodzie wspomogli się obliczeniami komputerowymi. Używanie komputerów do dowodzenia twierdzeń w matematyce nie uchodziło dotąd raczej za eleganckie. Społeczność matematyków teoretycznych zwykle kręciła nosem na komputery. Tu jednak tu takie nowoczesne podejście spisało się wyjątkowo dobrze.

„Komputer wykonał tylko żmudną robotę. Ale nie zastąpił logiki. Naszym pomysłem było bowiem to, żeby zastosować redukcję nieskończonego problemu do problemu skończonego” – mówi prof. Kielak.

A dr Marek Kaluba dodaje: „zredukowaliśmy nasz problem do problemu optymalizacyjnego, a następnie użyliśmy do tej optymalizacji standardowych narzędzi – algorytmów, których inżynierowie używają do projektowania elementów konstrukcyjnych”.

Komputer dostał więc zadanie, by znaleźć tzw. macierz spełniającą określone kryteria. Maszyna tworzyła więc rozwiązanie, sprawdzała, jak dobrze ona spełnia ono zadane warunki i stopniowo poprawiała tę macierz, żeby dojść do jak najmniejszego poziomu błędu. Pytanie brzmiało tylko, jak niewielką skalę błędu jest w stanie uzyskać.

Komputer więc optymalizował, a matematycy, nieprzyzwyczajeni do tego, że maszyna wykonuje za nich pracę, co kilka minut chcieli wiedzieć, jaki jest poziom błędu. W pewnym momencie dr Kaluba, żeby koledzy nie zwracali mu ciągle głowy pytaniami, założył nawet konto na Twitterze (https://twitter.com/GimmeDaNumba), które na bieżąco pokazywało im, co wyliczył komputer. „Szkoda, że nasze tweety nie znalazły się w trendach na Twitterze” – mruga okiem prof. Nowak.

Nerwy się opłaciły. Okazało się, że błąd komputera w ostatnim przybliżeniu był bardzo, bardzo niewielki. Obliczenie komputera pozwalało więc – przy użyciu odpowiednich matematycznych argumentów – uzyskać ścisły dowód.

Macierz, którą „wypluł” komputer, miała 4,5 tysiąca kolumn i 4,5 tysięcy wierszy. – „Równie dobrze mogliśmy tej macierzy szukać ręcznie albo mogłaby się nam ona przyśnić, ale to musiałby być długi sen, co najmniej zimowy” – żartuje Dawid Kielak. I dodaje, że skoro komputerów używa się do robienia zakupów, to dlaczego miałyby nie pomagać i matematykom.

Marek Kaluba tłumaczy zaś, że problem, nad którym pracowali, był początkowo zbyt duży, żeby go rozwiązać dysponując nawet superkomputerem. „Wobec tego użyliśmy wewnętrznych symetrii tego problemu, aby ułatwić poszukiwania rozwiązania” – mówi. I tłumaczy, że analogiczne podejście będzie można stosować i w rozwiązywaniu innych problemów z zakresu optymalizacji obiektów, które cechują się geometrycznymi symetriami. „Te symetrie (w algebraicznej formie) będzie można zaobserwować również w problemie optymalizacyjnym i użyć ich do redukcji złożoności” – mówi dr Kaluba. I dodaje: „Chociaż więc zajmujemy się abstrakcyjną matematyką, to chcemy, by nasze oprogramowanie było przydatne również w inżynierskich zastosowaniach”.

PAP – Nauka w Polsce, Ludwika Tomala

Możliwość komentowania Przełomowe badania polskich matematyków o symetriach wszystkich symetrii została wyłączona

Jak rozwijać biznes w rzeczywistości postpandemicznej?

IBM Institute for Business Value we współpracy z Oxford Economics, przeprowadził wywiady z 3000 dyrektorów generalnych z prawie 50 krajów i 26 branż. Następnie przeprowadzono dodatkowo wnikliwe rozmowy z 24…

IBM Institute for Business Value we współpracy z Oxford Economics, przeprowadził wywiady z 3000 dyrektorów generalnych z prawie 50 krajów i 26 branż. Następnie przeprowadzono dodatkowo wnikliwe rozmowy z 24 wybranymi prezesami reprezentującymi 11 branż z 11 krajów. Badania i wywiady miały pokazać sposób myślenia, tematy i wyzwania, z którymi borykają się teraz czołowi liderzy w nowej rzeczywistości związanej z pandemią koronawirusa.

Nie zdarzyło się do tej pory tak, aby zaszła konieczność zreorganizowania życia całej Planety, jednak pandemia pokazała, że wcale nie mamy świata pod ścisłą kontrolą i wiele zmian jest koniecznych. W marcu 2020 roku rozpoczął się bardzo trudny okres dla firm i rządów – czas globalnej kwarantanny, społecznego dystansu i wielkich ograniczeń. Przyszłość zaczęła przybierać ciemne barwy i mnożyć zagrożenia, ale z drugiej strony pozwoliła dostrzec również nowe możliwości.

Postawiono sobie najważniejsze w tym momencie pytanie, co od teraz będzie liczyć się dla klientów, pracowników i inwestorów? Dyrektorzy generalni, z którymi przeprowadzono wywiady przemawiali niemal jednym głosem i podkreślali, że teraz należy skupić się na najmocniejszych stronach działalności przedsiębiorstwa oraz tym, co je wyróżnia i zapewnia największą wartość. Dotyczyć by to miało zarówno produktów i usług zewnętrznych, jak i tych wewnątrz firmy.

Raport podzielony został na 3 rozdziały, które kolejno omawiają zagadnienia związane z nowymi priorytetami dla współczesnych firm, atutami, które zapewniły przedsiębiorstwom przetrwanie w trudnym okresie oraz na czym skupiły się firmy, które najlepiej radziły sobie w rzeczywistości pandemicznej. Zapraszamy do lektury – poniżej, a o tym jak radzą sobie polskie przedsiębiorstwa będzie można posłuchać podczas wirtualnej konferencji Cloud and AI Forum by IBM już 17 marca br, od 10:00 – zapraszamy do rejestracji.

I. Podstawowe priorytety w organizacji przedsiębiorstwa

Po rewolucji, którą przyniósł 2020 rok, prezesi zdecydowanie podkreślają wagę sprawności organizacyjnej. Jako najważniejszą cechę liderów uznają zdolność do szybkiego reagowania na zaistniałą sytuację i dostosowywania się do warunków, jednocześnie bez utraty jakości działania. Dla 56 proc. CEO w ciągu najbliższych 2-3 lat liczyć się będzie elastyczność.

Nie jest zaskoczeniem, że dla 3000 ankietowanych prezesów najważniejszą zewnętrzną siłą, która będzie miała wpływ na ich przedsiębiorstwa w ciągu najbliższych kilku lat jest technologia. Według CEO to właśnie cyfrowa dojrzałość przedsiębiorstwa przekłada się na wyniki finansowe firmy. Rezultaty przeprowadzonego badania na podium plasują takie technologie jak IoT (Internet rzeczy), przetwarzanie danych w chmurze oraz sztuczną inteligencję.

Dyrektorzy generalni zostali poproszeni o wskazanie, którzy z pozostałych członków kadry kierowniczej będą odgrywać kluczową rolę dla ich organizacji w ciągu najbliższych 2-3 lat. Wybór padł na szefów zarządzających obszarami technicznymi (Chief Information Officers [CIO] i Chief Technology Officers [CTO]), a ich wartość oceniono dwukrotnie wyżej niż przykładowo dyrektorów marketingu.

 

II. Pięć czynników, które wyróżniają Outperformers

Mianem „Outperformers” określono tych właścicieli firm, które radzą sobie lepiej na rynku.

Na podstawie badania i przeprowadzonych rozmów wyodrębniono 5 obszarów w organizacji przedsiębiorstwa, które charakteryzują najlepszych graczy na rynku:

  • Najważniejsze jest przywództwo. Badanie pokazało, że bardziej elastyczne struktury (które są mniej biurokratyczne) odnoszą sukces, a osoby, które mają poczucie celu i misji osiągają lepsze wyniki.
  • Technologia, czyli coś więcej niż narzędzie. Bardzo istotna okazała się dojrzałość technologiczna, która gwarantuje wydajność pracy. Organizacje, które zainwestowały w przetwarzanie danych w chmurze lub sztuczną inteligencję, radziły sobie lepiej niż inne firmy podczas okoliczności związanych z pandemią, która wybuchła w 2020 roku.
  • „Hybrydowi” pracownicy. Nie ma wątpliwości, że praca zdalna będzie stałym elementem hybrydowego modelu pracy. Zmieni to kulturę organizacyjną i będzie wymagała nowego podejścia do zarządzania. Około 50 proc. dyrektorów generalnych, którzy wzięli udział w badaniu podkreśla, że praca zdalna będzie w najbliższym czasie wyzwaniem.
  • Dyrektorzy generalni spodziewają się mniejszej liczby partnerstw, ale o wyższym znaczeniu strategicznym. Wychodzą z założenia, że po co robić wszystko samemu, skoro można podjąć współpracę z kimś, kto realizuje dane zadania znacznie lepiej, i razem otwierać nowe możliwości?
  • Cyberbezpieczeństwo. Analiza wywiadów z CEO 3000 firm pokazała, że dyrektorzy zarządzający najlepiej prosperującymi organizacjami przykładają większą wagę do ochrony przed cyberzagrożeniami i ujawnieniem danych. Zdają sobie sprawę, że zaufanie stało się walutą ekosystemów biznesowych.

III. Azymut na klienta, produkt, a może na operacje?

Stosując analizę segmentacyjną opartą na danych, IBV wytypował trzy naturalne grupy, które wyodrębniły się na podstawie odpowiedzi 3000 respondentów: skoncentrowane na kliencie (ok. 50 proc.), zorientowane na produkt (30 proc.) albo na operacje (20 proc.). Udało się wysnuć pewne wnioski na temat różnic w działaniu między najlepiej a gorzej radzącymi sobie firmami.

Z analizy możemy się dowiedzieć m.in., że to, co jest ważne dla jednego kierunku, niekoniecznie takim jest dla innego. Badanie pokazało, że nie można skupiać się wyłącznie na jednym z tych trzech segmentów, zaniedbując jednocześnie pozostałe. Tak firmy działały dawniej, ale współcześnie nie ma miejsca na taki model w znaczących organizacjach. Liderzy firm przekonują, że należy wziąć każdy z tych 3 segmentów pod uwagę, ale jeden z nich traktować priorytetowo.

Ustalenia raportu kończą się przewodnikiem, który wskazuje, w jaki sposób można wykorzystać zawarte w nim ustalenia w pracy swojej organizacji.

Stagnacja i powielanie utartych schematów to droga donikąd. Aby zagwarantować przetrwanie i prosperowanie na szybko zmieniającym się rynku, firmy poniekąd zmuszone są do nieustannych zmian. Co w przyszłości będzie się liczyć dla klientów, pracowników firm i inwestorów? Jakimi cechami powinny charakteryzować się przedsiębiorstwa, aby miały szansę na przetrwanie? Między innimi te pytania postawili sobie organizatorzy Cloud and AI Forum by IBM. Podczas konferencji będzie można posłuchać reprezentantów polskich przedsiebiorstw, innowatorów, ekspertów z branży – serdecznie zapraszamy po garść inspiracji – rejestracja obowiązkowa.

 

Partnerem publikacji jest Cloud and AI Forum by IBM.

Możliwość komentowania Jak rozwijać biznes w rzeczywistości postpandemicznej? została wyłączona

Badacze z UMK kopiują rozwiązania natury, pracując nad membranami do transportu wody

Chemicy z UMK w Toruniu pracują nad membranami, które będą lepiej transportować wodę i zatrzymywać sole i oraz zanieczyszczenia. Punktem wyjścia były badania chrząszcza pustynnego, który potrafi jednocześnie zbierać i…

Chemicy z UMK w Toruniu pracują nad membranami, które będą lepiej transportować wodę i zatrzymywać sole i oraz zanieczyszczenia. Punktem wyjścia były badania chrząszcza pustynnego, który potrafi jednocześnie zbierać i odpychać wodę. Docelowo takie rozwiązanie można wykorzystać do pozyskiwania wody pitnej.

Istniejące w przyrodzie rozwiązania techniczne od dawna inspirują inżynierów. Jednym z najwcześniej zauważonych i najczęściej opisywanych jest kwiat lotosu, który pozostaje czysty, choć wyrasta z bagna (dlatego zarówno Egipcjanie, jak Hindusi czy buddyści znaleźli dla niego w swoich religiach miejsce).

Badając lotos pod mikroskopem naukowcy wyjaśnili, że jego zdolność samooczyszczania wynika ze struktury powierzchni, która jest silnie hydrofobowa, czyli zatrzymuje krople wody na powierzchni. Woda zbiera cząsteczki kurzu i spływając, usuwa je. Oznacza to, że siły adhezji odpowiedzialne za gromadzenie się wody na kwiecie są słabe, ale jednocześnie brud łatwo przyczepia się do kropelek, co skutkuje samooczyszczeniem. Dzięki naśladowaniu lotosu udało się stworzyć samoczyszczące powierzchnie – tynki, dachówki, tekstylia, powłoki malarskie. Inną strukturę mają płatki róży – ich powierzchnia jest hydrofobowa, ale o dużej adhezji (przyczepności) – dlatego kropla wody, która spadnie na płatek, przykleja się i nie spada (efekt płatka róży, petal effect). Żaba, która potrafi chodzić po suficie o chropowatej powierzchni, zainspirowała z kolei pomysłodawców kopert z paskiem samoprzylepnym.

Bardziej złożonym przypadkiem tego typu wydaje się struktura pancerza chrząszcza Stenocara gracilipes, żyjącego na afrykańskiej pustyni Namib. Jest ona jednocześnie hydrofobowa i hydrofilowa. Drobne guzki na pokrywach skrzydeł chrząszcza zbierają mikroskopijne kropelki, podczas gdy odpychające wilgoć obszary poniżej działają jak kanaliki, którymi woda dopływa do otworu gębowego. Dzięki temu chrząszcze mogą przeżyć w tak trudnym środowisku, jakim jest pustynia Namib, należąca do najgorętszych i najbardziej suchych miejsc na świecie. Potrafią wychwytywać wilgoć z niesionych wiatrem kropelek mgły.

„Oglądałam film, jak chrząszcz staje rano na łapkach, gdy jest rosa, i wychwytuje z tej mgiełki wodę” – mówi dr hab. Joanna Kujawa, prof. Uniwersytetu Mikołaja Kopernika (UMK) z Wydziału Chemii, cytowana na internetowej stronie swojej uczelni. – „Dzięki temu, że reszta powierzchni pancerza jest pokryta woskiem, woda spływa, a chrząszcz jest w stanie ją pić i przetrwać w tak trudnych warunkach”.

Naukowcy zaczęli się zastanawiać, jak to rozwiązanie przenieść z natury do laboratorium, bo takie zjawisko jest wykorzystywane w destylacji membranowej. „Tam enzymy nanosi się przez absorpcję, czyli przyleganie powierzchniowe, a nie wiązania chemiczne” – tłumaczy prof. dr hab. Wojciech Kujawski z Wydziału Chemii UMK. – „Jeśli jest to absorpcja fizyczna, to łatwo może nastąpić desorpcja, bo tam oddziałują słabe siły”.

Chodziło o to, żeby wzmocnić membrany, które dzięki połączeniom chemicznym stają się trwalsze. Dobrym pomysłem okazało się wykorzystanie dostępnego w dużych ilościach chitozanu. Chityna, którą łatwo można przekształcić w chitozan, występuje naturalnie m.in. w pancerzach krewetek. Pancerzyków tych „owoców morza” są hałdy i traktowane są jako odpad. Toruńscy naukowcy stwierdzili, że można nie tylko skopiować strukturę pancerza chrząszcza, ale też – zgodnie z zasadami filozofii „zero waste” – wykorzystać zalegający chitozan. Dzięki niemu woda będzie jeszcze łatwiej spływać, spełni on więc tę rolę, którą spełnia wosk u chrząszcza. Chemicy zdecydowali, by chitozan przyłączyć w miejscu hydrofilowych wysepek.

„To wymóg destylacji membranowej, że powierzchnia membrany musi być porowata i hydrofobowa” – wyjaśnia prof. Kujawa. – „Można znaleźć wiele przykładów wykorzystania chitozanu w membranach, ale nikt wcześniej nie przyłączał go chemicznie. Dało nam to duże pole do popisu – jeśli przyłączymy chitozan chemicznie, to pozostanie na swoim miejscu”.

Naukowcy najpierw modyfikowali chitozan, potem przyczepiali go chemicznie do membrany. Teraz natomiast zdecydowali się najpierw zmodyfikować membranę, a dopiero później dołączyć do niej chitozan. Dzięki temu membrana jest bardziej hydrofilowa, można przepuścić przez nią większy strumień wody. „W literaturze nie ma podobnych prac, więc trudno nam porównywać efekty z innymi” – mówi prof. Kujawa. – „Tam, gdzie fizycznie aplikowano chitozan do zmodyfikowanej membrany, też obserwowano poprawę, ale nie w takim stopniu jak u nas. Dzięki temu możemy dostosowywać materiał do procesu, w którym chcemy go wykorzystywać”.

Membrana powstająca w trakcie modyfikacji fizycznej jest tak naprawdę „na raz”. Później chitozan przeważnie jest wymywany. – “Z ciekawości zrobiliśmy próbę stabilności modyfikowanych chemicznie membran do odsalania wody, w dziesięciu długich, kilkudniowych cyklach” – zdradza prof. Kujawa. – „Zaobserwowaliśmy delikatne zmiany, ale nie na tyle znaczące, by nagle wszystko nam się rozpadło”.

Toruńscy chemicy testowali też odporność membran na zarastanie. Badania prowadzili na sokach owocowych. Przez oddziaływania pulpy owocowej z membraną resztki owoców zostawały na jej powierzchni, zatykały pory i nie można było jej dłużej używać. Natomiast na powierzchni, mającej w składzie chitozan o dodatkowych właściwościach bakteriobójczych, występują zupełnie inne oddziaływania, pulpa owocowa nie przywiera, a jeśli już się to zdarzy, można bardzo łatwo ją zmyć strumieniem wody, bez dodatków środków chemicznych.

Swoje koncepcje i prace chemicy z UMK opisali w dwóch publikacjach. Pierwszy – o przyłączaniu zmodyfikowanego chitozanu do membrany – ukazał się w „Desalination”; drugi – o odłączaniu chitozanu do zmodyfikowanej membrany – w „ACS Applied Materials and Interfaces”. Badania są realizowane wespół z partnerem zagranicznym, prof. Samerem Al-Gharabli z Wydziału Farmacji i Inżynierii Chemicznej Niemiecko-Jordańskiego Uniwersytetu w Ammanie (Jordania).

Docelowo naukowcy chcą zrobić takie membrany, które coraz lepiej będą transportować wodę, a jednocześnie zatrzymywać sole i inne zanieczyszczenia. „Oczywiście to wszystko jest związane z brakiem wody pitnej na Ziemi” – tłumaczy prof. Kujawski, cytowany na stronie uczelni. – „W Polsce też będziemy musieli zmierzyć się z tym problemem i to znacznie szybciej, niż sądzą najwięksi pesymiści. Kilka lat temu byłem na seminarium w Jordanii, gdzie usłyszałem, że na problem braku wody należy patrzeć nie przez pryzmat całego kraju, ale poprzez pryzmat bardzo małej jednostki administracyjnej. Jeżeli się zaczyna dzielić kraj na coraz mniejsze kwadraty, to nagle się okazuje, że procent populacji o ograniczonym dostępie do wody gwałtownie rośnie. W Polsce mamy dostęp do wody wzdłuż rzek, ale gdy 20 lat temu byłem w Zakopanem, słyszałem +oszczędzajcie wodę, bo nasze strumienie wysychają+. Tam studnie się zanieczyszczają, źródeł świeżej wody nie ma, więc problem wysychania i obniżania się wód gruntowych zdecydowanie postępuje”.

PAP – Nauka w Polsce, Paweł Wernicki

Możliwość komentowania Badacze z UMK kopiują rozwiązania natury, pracując nad membranami do transportu wody została wyłączona

Przełączniki przyszłości będą reagować na światło

Fotoprzewodnictwo można obserwować na przykładzie węglika krzemu, który wskutek oświetlania laserem zaczyna przewodzić prąd, zaś nieoświetlony jest izolatorem. Zachowuje się więc jak łącznik. W przyszłości takie łączniki mogą znaleźć zastosowanie…

Fotoprzewodnictwo można obserwować na przykładzie węglika krzemu, który wskutek oświetlania laserem zaczyna przewodzić prąd, zaś nieoświetlony jest izolatorem. Zachowuje się więc jak łącznik. W przyszłości takie łączniki mogą znaleźć zastosowanie w rozdzielniach elektrycznych. 

Do zastosowań jednak jeszcze daleko. Naukowcy dopiero symulują komputerowo właściwości półprzewodników, które w przyszłości będzie można wykorzystać do projektowania łączników fotoprzewodzących. Jednak już teraz można spodziewać się, że łączniki te znajdą zastosowanie w różnych układach energoelektronicznych. Pozwolą one odizolować układy sterujące od wykonawczych. Z punktu widzenia użytkowników może to skutkować większym uniezależnieniem od rozmaitych awarii.

Za pomocą symulatora wykonanego w oprogramowaniu MatLab naukowcy z Wydziału Elektroniki Wojskowej Akademii Technicznej (dr inż. Marek Suproniuk, dr inż. Mariusz Wierzbowski i doktorant Piotr Paziewski) modelowali nowy materiał półprzewodnikowy jakim jest węglik krzemu.

Zbadali, jak zmienia się przewodność (konduktywność) węglika krzemu w wyniku oświetlania go światłem laserowym o różnych mocach (o odpowiedniej długości fali). Przedstawiony przez nich model obejmował sześć defektów punktowych, które najczęściej pojawiają się w węgliku krzemu. Defekty są to wtrącenia innych pierwiastków lub niejednorodności w sieci krystalicznej półprzewodnika. Mogą one wpływać na działanie łącznika fotoprzewodzącego.

Wyniki tych symulacji opisało czasopismo „Scientific Reports” https://pubs.acs.org/doi/10.1021/acsami.9b20309

PAP – Nauka w Polsce, Karolina Duszczyk

Możliwość komentowania Przełączniki przyszłości będą reagować na światło została wyłączona

Specjalistka ds. przygotowań astronautów do misji: szukamy też 50-latków; zarobki ponad 8 tys. euro

50 lat – to górna granica dla kandydatów do udziału w misjach kosmicznych. Europejska Agencja Kosmiczna (ESA) rozpocznie 31 marca rekrutację chętnych. Jak powiedziała w rozmowie z PAP dr Anna…

50 lat – to górna granica dla kandydatów do udziału w misjach kosmicznych. Europejska Agencja Kosmiczna (ESA) rozpocznie 31 marca rekrutację chętnych. Jak powiedziała w rozmowie z PAP dr Anna Fogtman, specjalistka od medycznego przygotowywania astronautów do misji kosmicznych w ESA „wiek może być zaletą, a nie wadą”. 

„Osoby starsze mają niższe prawdopodobieństwo wystąpienia problemów zdrowotnych po przyjęciu zwiększonych dawek promieniowania jonizującego, na które narażone będą osoby w przestrzeni kosmicznej” – wyjaśniła dr Fogtman. ESA planuje przyjąć od 4 do 6 osób.

„To, że astronauta musi być osobą wyjątkowo silną fizycznie jest mitem pochodzącym z pionierskich misji kosmicznych. Zachęcamy do wzięcia udziału w rekrutacji na kosmonautów kobiety, a także osoby z niepełnosprawnościami”– mówiła specjalistka – „Pierwsze misje kosmiczne to były loty w nieznane; brali w nich udział przede wszystkim mężczyźni, najczęściej z zapleczem wojskowym. Dzisiaj mamy dużą wiedzę na temat wyzwań, jakie niosą ze sobą loty w kosmos. I takie myślenie nie ma uzasadnienia. Astronautki i astronauci to muszą być ludzie o dobrym stanie zdrowia, ale nie muszą biegać maratonów, posiadać ponadprzeciętnej siły czy wytrzymałości fizycznej” – podkreśliła dr Fogtman.

Aby zostać kosmonautą trzeba jednak mieć ukończone studia z obszaru nauk ścisłych. Preferowane, choć niekonieczne, jest posiadanie certyfikatu pilota testowego.

„W tej kampanii rekrutacyjnej nie faworyzujemy żadnej z grup, lecz kładziemy nacisk na komunikację o rekrutacji z dotychczas niedoreprezentowanymi grupami w gronie astronautek i astronautów, w tym szczególności z kobietami. W poprzedniej kampanii w 2008 r. jedynie 16 proc. zgłoszeń wysyłały kobiety, co skutkowało, tym, że na 6 przyjętych kandydatów wybrano zaledwie jedną kobietę. Kładziemy nacisk na różnorodność i kierujemy nasz przekaz do osób różnego pochodzenia, tożsamości seksualnej, orientacji seksualnej i o różnych przekonaniach. Po raz pierwszy w historii lotów załogowych ESA rekrutuje także osoby z fizyczną niepełnosprawnością” – powiedziała dr Fogtman.

Czy zatem na misję zostanie przyjęta osoba na wózku inwalidzkim? „Każda aplikacja zostanie oceniona indywidualnie. Na tym etapie studium wykonalności lotów w kosmos osób z niepełnosprawnościami dopuszczamy: osoby bez jednej lub dwóch stóp, jednej lub dwóch nóg poniżej kolana, osoby o nierównych kończynach oraz kandydatki i kandydatów o niskim wzroście poniżej 130 cm.”- sprecyzowała specjalistka i zacytowała słowa jednej z astronautek ESA, Samanthy Cristoforetti – „w kosmosie wszyscy jesteśmy niepełnosprawni”.

Astronauci i astronautki zostaną zatrudnieni na standardowych umowach ESA, a ich wynagrodzenie będzie uzależnione od wielu czynników, takich jak wykształcenie i doświadczenie zawodowe. Będzie mieściło się w zakresie oficjalnej skali wynagrodzeń ESA na poziomie A2-A4, co oznacza nawet ponad 8 tys. EUR na miesiąc. ESA jest organizacją międzynarodową, a astronauci mają status urzędników międzynarodowych i dlatego są zwolnieni z odprowadzania podatku dochodowego.

Aplikować na stanowisko astronauty można będzie od 31 marca. Oferta ukaże się pod linkiem https://www.esa.int/About_Us/Careers_at_ESA, gdzie zostaną podane wszystkie informacje w zakresie wymaganych dokumentów.

„Osoby, które ukończyły 50 rok życia, zapraszamy do wysyłania aplikacji na inne stanowiska w ESA” – zachęciła dr. Fogtman.

Z Paryża Katarzyna Stańko(PAP)

Możliwość komentowania Specjalistka ds. przygotowań astronautów do misji: szukamy też 50-latków; zarobki ponad 8 tys. euro została wyłączona

Focus na hybrydowe chmury

Z czym mierzą się przedsiębiorcy w 2021 roku w kontekście przechowywania danych? Budowanie biznesu w oparciu o chmurę to obecnie najwyższy priorytet dla firm, a 2021 rok to czas wdrażania…

Z czym mierzą się przedsiębiorcy w 2021 roku w kontekście przechowywania danych? Budowanie biznesu w oparciu o chmurę to obecnie najwyższy priorytet dla firm, a 2021 rok to czas wdrażania hybrydowego modelu przechowywania danych. Takie rozwiązanie daje możliwość posługiwania się najnowszymi technologiami, pomaga zrewolucjonizować dotychczasowe modele biznesowe, co finalnie przełoży się na lepsze wyniki finansowe przedsiębiorstwa. Czym jest chmura hybrydowa?

Możliwość komentowania Focus na hybrydowe chmury została wyłączona

Ponad 11 mln zł na projekt badań aerozoli, chmur oraz gazów śladowych

Prowadzony przez kilka uczelni i instytutów projekt ACTRIS, którego celem jest rozbudowa infrastruktury badawczej do badania aerozoli, chmur i gazów śladowych, otrzymał dofinansowanie przekraczające 11 mln zł. Pieniądze pochodzą z…

Prowadzony przez kilka uczelni i instytutów projekt ACTRIS, którego celem jest rozbudowa infrastruktury badawczej do badania aerozoli, chmur i gazów śladowych, otrzymał dofinansowanie przekraczające 11 mln zł. Pieniądze pochodzą z Programu Operacyjnego Inteligentny Rozwój 2014–2020.

Liderem projekt „ACTRIS – Infrastruktura do badania aerozoli, chmur oraz gazów śladowych” jest Uniwersytet Wrocławski, a w skład konsorcjum realizującego to przedsięwzięcie wchodzą Instytut Geofizyki PAN (lider konsorcjum ACTRIS-PL), Instytut Podstaw Inżynierii Środowiska PAN, Instytut Meteorologii i Gospodarki Wodnej PIB, Uniwersytet Warszawski, Uniwersytet Śląski oraz Uniwersytet Przyrodniczy w Poznaniu. Przedsięwzięcie wpisane jest na Polską Mapę Drogową Infrastruktury Badawczej – podał Uniwersytet Wrocławski.

Jak wskazała wrocławska uczelnia, celem projektu jest rozbudowa infrastruktury badawczej do badania aerozoli, chmur i gazów śladowych oraz zacieśnienie współpracy z ogólnoeuropejską siecią infrastruktury badawczej Actris.

W ramach projektu kupiona zostanie aparatura pozwalająca na badanie aerozolu atmosferycznego i jego wpływu na zmiany klimatu, m.in. lidar, fotometr, nefelometr czy spektrometry cząstek działające w czasie rzeczywistym. Doposażone i rozbudowane zostaną centra badawcze we Wrocławiu, Rzecinie, Raciborzu, Sosnowcu, Zabrzu i Strzyżowie.

Uniwersytet Wrocławski ma być przy tym ośrodkiem, w którym będą przechowywane dane sieci Actris-Polska.

Actris to ogólnoeuropejska infrastruktura służąca badaniom aerozoli, chmur i gazów śladowych. Actris Polska skupia się na pomiarach aerozoli, które są słabo poznanym czynnikiem klimatotwórczym i jednym ze składników smogu, a także na badaniu chmur i interakcji aerozoli z chmurami – podał z kolei w komunikacie Uniwersytet Śląski. Uczelnia ta w ramach przedsięwzięcia kupi lidar (skaner laserowy wykorzystywany m.in. do pomiarów określających pionowe profile atmosfery). W aparaturę tę wyposażone zostanie laboratorium mobilne (samochód).

Projekt uzyskał dofinansowanie przekraczające 11 mln zł z Programu Operacyjnego Inteligentny Rozwój 2014–2020. Całkowity budżet przedsięwzięcia to ponad 14 mln zł.

PAP – Nauka w Polsce, Piotr Doczekalski

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Ponad 11 mln zł na projekt badań aerozoli, chmur oraz gazów śladowych została wyłączona

Kraków/ Studenci chcą pomóc rozwiązać problem kosmicznych śmieci

Studenci AGH w Krakowie przeprowadzą eksperymenty związane z wyłapywaniem kosmicznych śmieci z orbity okołoziemskiej. Doświadczenie będzie polegać na opracowaniu algorytmu analizującego ruch i sposób przemieszczania się tego typu obiektów. Projekt…

Studenci AGH w Krakowie przeprowadzą eksperymenty związane z wyłapywaniem kosmicznych śmieci z orbity okołoziemskiej. Doświadczenie będzie polegać na opracowaniu algorytmu analizującego ruch i sposób przemieszczania się tego typu obiektów.

Projekt Black Spheres studenci zrealizują w ramach wygranego przez nich konkursu „Drop Your Thesis!”, organizowanego przez Europejską Agencję Kosmiczną – podała w poniedziałek AGH.

Studenci Michał Błażejczyk, Kamil Switek, Kacper Synowiec oraz Kamil Maraj przeprowadzą eksperyment w marcu na wieży zrzutowej Uniwersytetu w Bremie.

Problem śmieci kosmicznych staje się coraz poważniejszy ze względu na wzrastającą liczbę wysyłanych na orbitę okołoziemską obiektów, które mogą zderzyć się z działającymi satelitami. W wyniku takiej kolizji powstaje chmura tysięcy nowych śmieci kosmicznych i szansa na kolejne zderzenia staje się o wiele większa.

Wyłapywanie śmieci kosmicznych jest wyzwaniem ze względu na niewielkie rozmiary obiektów, wysokie prędkości i duże rozproszenie. Potencjalnie najskuteczniejszym sposobem jest złapanie obiektu za pomocą ramienia robotycznego. Pozwala ono na przechwycenie uszkodzonego satelity bez wyrządzenia szkód i przeprowadzanie operacji naprawczych, a co za tym idzie – odzyskanie kosztownych elementów.

W eksperymencie, który przeprowadzą studenci, rolę uszkodzonego satelity spełni wydrukowana na drukarce 3D kula o średnicy 88 milimetrów i wadze 250 gram, wykonana ze specjalnej żywicy oraz zawierająca w sobie mechanizm z odważnikiem, lub w innej konfiguracji masę na sprężynie. W każdej z pięciu serii doświadczenia zostaną wypuszczone dwie kule, a ich ruch będzie obserwowany za pomocą sześciu kamer rozmieszczonych wewnątrz kapsuły. Wieża zrzutowa w Bremie pozwala na osiągnięcie warunków mikrograwitacji na ok. 9 sekund. Kapsuła, w której będą znajdować się kule, zostaje wystrzelona na 130 metrów i od momentu wystrzału przyspieszenie wewnątrz kapsuły będzie zerowe, ponieważ jej ruch kompensuje grawitację.

Projekt studentów AGH skupia się na obserwacji uszkodzonego satelity i automatycznym przewidywaniu jego pozycji i orientacji. Celem jest m.in. przetestowanie metody przewidywania ruchu w mikrograwitacji. Eksperymenty pozwolą na zebranie danych dotyczących ruchu obiektów ze zmiennym rozkładem masy.

„Mamy nadzieję, że uzyskane podczas eksperymentów wyniki pomogą w rozwiązaniu pilnego i narastającego problemu, jakim są kosmiczne śmieci. To kolejna ciekawa inicjatywa z obszaru przemysłu kosmicznego, w który chcielibyśmy się zaangażować, szczególnie jako Europejski Uniwersytety Kosmiczny, którym AGH jest od zeszłego roku” – powiedział opiekun projektu Black Spheres dr inż. Paweł Zagórski, cytowany w informacji uczelni.

Konkurs dla studentów „Drop Your Thesis” jest organizowany corocznie przez Europejską Agencję Kosmiczną. W ramach konkursu zwycięskie zespoły realizują swoje projekty w profesjonalnych obiektach, których na co dzień używają naukowcy ESA.(PAP)

Możliwość komentowania Kraków/ Studenci chcą pomóc rozwiązać problem kosmicznych śmieci została wyłączona

Sztuczna inteligencja wesprze w diagnozie schizofrenii, a może i autyzmu?

Język, którego używają osoby ze schizofrenią i osoby ze spektrum autyzmu, w pewien sposób różni się od języka innych osób. Naukowcy na przykładzie języka polskiego pokazują, że sztuczna inteligencja może…

Język, którego używają osoby ze schizofrenią i osoby ze spektrum autyzmu, w pewien sposób różni się od języka innych osób. Naukowcy na przykładzie języka polskiego pokazują, że sztuczna inteligencja może wspomóc psychiatrów i psychologów w rozpoznawaniu objawów schizofrenii, a kiedyś – może i autyzmu.

Badacze wzięli na warsztat wypowiedzi pochodzące ze standardowych wywiadów klinicznych (badań diagnostycznych) dorosłych osób ze schizofrenią oraz dzieci ze spektrum autyzmu. W przypadku schizofrenii algorytm uzyskiwał wysoką skuteczność – prawie 90 proc. (a więc mylił się raz na 10 ocen). A w przypadku autyzmu – wypadł słabiej – jego skuteczność wynosiła ok 65 proc. (trafnie rozpoznawał więc dwie na trzy osoby).

Wyniki badań na ten temat ukazały się w „Cognitive Computation” (https://doi.org/10.1007/s12559-021-09834-9). Autorami są małżonkowie dr Aleksander Wawer z Instytutu Podstaw Informatyki PAN i dr Justyna Sarzyńska-Wawer z Instytutu Psychologii PAN, a także dr Izabela Chojnicka z Wydziału Psychologii UW i dr hab. Łukasz Okruszek z IP PAN.

„Naszym narzędziem mogą się zainteresować psychiatrzy czy psychologowie kliniczni. Pomóc im może w diagnozie albo w analizie postępów terapii – zwłaszcza osób ze schizofrenią” – komentuje dr Justyna Sarzyńska-Wawer. A dr Aleksander Wawer dodaje, że takie badania prowadzono już wcześniej dla innych języków – choćby angielskiego, ale jeszcze nie było badane to na języku polskim.

Badacze tłumaczą, że algorytm szkolony był na tekstach zebranych przez psychiatrę podczas badań dotyczących poznania społecznego osób ze schizofrenią. Osoby te m.in. ustnie odpowiadały na pytania ogólne (o siebie i najbliższych), a także abstrakcyjne (np. dlaczego ludzie chorują, a dlaczego wierzą w Boga). Wypowiedzi te później spisano. W taki sam sposób zebrane były dane kontrolne – wypowiedzi innych osób z podobnych grup demograficznych.

W przypadku zaś badania autyzmu, algorytm uczył się na tekstach spisanych z częściowo ustrukturyzowanych wystandaryzowanych badań z udziałem dzieci, adolescentów i osób dorosłych.

„Na tych danych staraliśmy się nauczyć modele sztucznej inteligencji rozpoznawania, które z wypowiedzi to wypowiedzi osób z diagnozą” – mówi dr Aleksander Wawer.

A dr Sarzyńska-Wawer tłumaczy: „W przypadku badania dotyczącego schizofrenii nie były to osoby w aktywnej fazie psychozy. A różnice między osobami zdrowymi a zdiagnozowanymi były trudne do wychwycenia +gołym okiem+. Doświadczony psychiatra, którego poprosiliśmy, żeby na podstawie tych samych tekstów oceniał, czy to schizofrenia, czy nie, radził sobie gorzej niż algorytm”.

To, że język osób ze schizofrenią lub osób ze spektrum autyzmu różni się od języka innych osób wiadomo było od dawna. Naukowcy od wielu lat wyodrębniali cechy języka w autyzmie i schizofrenii. Wcześniejsze badania pokazały np., że osoby ze spektrum autyzmu używają mniej wyrazów nacechowanych emocjonalnie. Jest też różnica jeśli chodzi o stopień abstrakcyjności wypowiedzi. „Z kolei z innych badań wiadomo, że u osób ze schizofrenią jest więcej wypowiedzi o charakterze afektywnym, ale głównie określeń o negatywnym wydźwięku” – mówi psycholog.

Proces diagnostyczny obu tych jednostek bazuje jednak na subiektywnych wskaźnikach behawioralnych. „A my pokazujemy, że proces ten można zautomatyzować, zobiektywizować i usprawnić” – mówi dr Wawer. I dodaje, że akurat w psychiatrii nie ma tak wielu obiektywnych narzędzi jak w innych obszarach nauki, jak choćby badania krwi czy skan mózgu, które by powiedziały z dużą pewnością, że ktoś cierpi na daną chorobę lub zaburzenie, albo nie. „Duża jest więc tu rola psychiatry i psychologa, ich doświadczenie. A przecież zaburzeń, które mogą być do siebie podobne jest dużo. Dodatkowe narzędzie wspomagające diagnostykę może się więc tu przydać” – uważają rozmówcy PAP.

Naukowcy mają nadzieję, że kiedyś tego typu narzędzie mogłoby być stosowane zdalnie, w badaniach przesiewowych. Algorytm pomagałby więc psychiatrom i psychologom klinicznym – na podstawie przesłanych wypowiedzi pisemnych – wybrać osoby, które warto, aby zgłosiły się na dalsze specjalistyczne badania. Dzięki temu można byłoby wcześniej dokonywać diagnozy i zaczynać terapię.

„Nowinką z mojej perspektywy było zastosowanie w tych badaniach metody few-shot – mówi dr Aleksander Wawer. – Sieci neuronowe zwykle wymagają do treningu ogromnych baz. I tak np. żeby nauczyć algorytm rozpoznawania znaków drogowych, potrzeba milionów zdjęć. A my nie mamy milionów przypadków spisanych wypowiedzi osób ze zdiagnozowaną schizofrenią. Mieliśmy do dyspozycji tylko 50 takich tekstów. Wyzwaniem było więc zastosowanie takich metod trenowania sztucznej inteligencji, które wymagają niewielkiej bazy danych. To było unikalne z punktu widzenia informatycznego” – mówi.

PAP zapytała naukowców, czy nie boją się, że narzędzie to może zostać wykorzystane do analizy tekstów osób, które wcale by sobie diagnozy nie życzyły (choćby wypowiedzi osób publicznych). Dr Sarzyńska-Wawer zaznacza, że narzędzie nie zastąpi w diagnozie specjalisty. „Algorytm wykrywa tylko przejawy, które mogą być oznaką schizofrenii. Ale te przejawy wcale nie są równoznaczne z diagnozą” – zwraca uwagę. A dr Wawer dodaje: „Na razie braliśmy pod uwagę dane z wywiadów klinicznych. Jeszcze kawałek drogi, żeby brać pod uwagę dowolny tekst”.

Naukowcy zapowiadają, że jeśli chodzi o wsparcie w diagnozie schizofrenii, to ich narzędzie ma na tyle wysoką skuteczność, że chcieliby wkrótce udostępnić je psychiatrom. (PAP)

Autorka: Ludwika Tomala

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Sztuczna inteligencja wesprze w diagnozie schizofrenii, a może i autyzmu? została wyłączona

Polacy opracowali dokładne mapy poczerwienienia w Obłokach Magellana

Unikatowe, najdokładniejsze dotąd mapy poczerwienienia międzygwiazdowego w Obłokach Magellana opracowali astronomowie Obserwatorium Astronomicznego UW w ramach przeglądu nieba OGLE. Obłoki stanowią „laboratorium” do badań galaktyk, a uzyskane mapy będą doskonałym…

Unikatowe, najdokładniejsze dotąd mapy poczerwienienia międzygwiazdowego w Obłokach Magellana opracowali astronomowie Obserwatorium Astronomicznego UW w ramach przeglądu nieba OGLE. Obłoki stanowią „laboratorium” do badań galaktyk, a uzyskane mapy będą doskonałym narzędziem do kolejnych badań kosmologicznych.

Mały i Wielki Obłok Magellana to dwie pobliskie galaktyki, będące satelitami naszej Galaktyki – Drogi Mlecznej. Ze względu na ich bliskość i wzajemne oddziaływanie są one parą najczęściej badanych galaktyk we Wszechświecie i stanowią swego rodzaju laboratorium do badań struktury, ewolucji i oddziaływań galaktyk. Obłoki Magellana są również idealnym środowiskiem do badań populacji gwiazdowych oraz rozkładu materii międzygwiazdowej. Co więcej, używa się ich do kalibracji kosmicznej skali odległości, będącej podstawą badań kosmologicznych – wyjaśniają specjaliści na stronie Uniwersytet Warszawski.

Większość opisanych wyżej badań wymaga uwzględnienia wpływu poczerwienienia międzygwiazdowego na obserwacje astronomiczne. Poczerwienienie to efekt pochłaniania światła obiektu przez pył znajdujący się między obserwatorem a badanym obiektem. W efekcie obiekt ten wydaje się ciemniejszy i bardziej czerwony niż jest w rzeczywistości. Ma to bezpośredni wpływ na wyznaczanie odległości do obiektów. Bez uwzględnienia wpływu pyłu są one zawyżone. Dlatego, aby móc badać populacje gwiazdowe, potrzebujemy dokładnych map poczerwienienia w Obłokach Magellana.

Dotychczasowe mapy poczerwienienia w Obłokach Magellana obejmowały jedynie centralne obszary obu galaktyk i były obarczone błędem wynikającym z problemów z ich kalibracją.

Jednak dzięki wieloletnim obserwacjom projektu OGLE, prowadzonego w Obserwatorium Astronomicznym Uniwersytetu Warszawskiego, zespół astronomów prowadzonych przez dr Dorotę Skowron i dr. Jana Skowrona, był w stanie stworzyć pierwsze w historii dokładne mapy poczerwienienia, obejmujące cały obszar obu galaktyk.

„Wykorzystano do tego gwiazdy typu Red Clump – czerwone olbrzymy, które są na etapie spalania helu w jądrze, dzięki czemu mają dobrze określoną jasność rzeczywistą, a co za tym idzie również kolor. Następnie, poprzez porównanie oczekiwanego koloru gwiazd z kolorem obserwowanym, można wyznaczyć ich poczerwienienie” – czytamy w komunikacie UW.

Powstałe w ten sposób szczegółowe mapy poczerwienienia są narzędziem do analizy populacji gwiazdowych i badań struktury Obłoków Magellana.

Wyniki badania opublikowano w piśmie The Astrophysical Journal Supplement Series: https://iopscience.iop.org/article/10.3847/1538-4365/abcb81

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Polacy opracowali dokładne mapy poczerwienienia w Obłokach Magellana została wyłączona

Kraków/ Na Uniwersytecie Rolniczym powstała modułowa uprawa hydroponiczna

Naukowcy z Uniwersytetu Rolniczego w Krakowie stworzyli modułową uprawę hydroponiczną z systemem kontroli warunków uprawy. Według nich to pierwszy w Polsce tego rodzaju proekologiczny i ekonomiczny kontener uprawowy. „To bardzo…

Naukowcy z Uniwersytetu Rolniczego w Krakowie stworzyli modułową uprawę hydroponiczną z systemem kontroli warunków uprawy. Według nich to pierwszy w Polsce tego rodzaju proekologiczny i ekonomiczny kontener uprawowy.

„To bardzo innowacyjny projekt, który powstał dzięki połączeniu pasji, wiedzy, kreatywności i doświadczenia naukowców z zakresu rolnictwa, ogrodnictwa i inżynierii mechanicznej i stanowi spełnienie wizji i pozytywnej ambicji inwestora” – powiedział kierownik Katedry Gleboznawstwa i Agrofizyki dr hab. inż. Tomasz Zaleski. Badacze opracowali i zbudowali kontener na zamówienie prywatnej firmy.

Jak dodał naukowiec, kontener uprawowy został zbudowany na bazie morskiego kontenera chłodniczego z automatyczną kontrolą temperatury atmosfery, dzięki czemu jest przystosowany do uprawy w niemal każdych warunkach klimatycznych. Naukowiec ocenił, że to pierwsze takie rozwiązanie w Polsce.

Mieszcząca się w 12-metrowym kontenerze morskim uprawa niskich warzyw liściastych i ziół znajduje się jeszcze w Uniwersytecie Rolniczym, ale może być prowadzona w niemal w każdym miejscu na Ziemi, przez cały rok, zużywając przy tym mniej wody w porównaniu do tradycyjnego szklarniowego lub gruntowego systemu uprawy. Lampy LED – jedyne źródło światła, o odpowiednio dobranym promieniowaniu, decydują o wielkości i jakości plonów oraz tempie wzrostu rośliny.

Naukowcy zamierzają udoskonalać projekt, który wcześniej zyskał dofinansowanie ze środków unijnych w ramach programu „Bon na Innowacje”.

Twórcami kontenera z modułową uprawą hydroponiczną są dr hab. inż. Tomasz Zaleski, dr inż. Anna Kołton i dr hab. inż. Jarosław Knaga.

PAP – Nauka w Polsce, Beata Kołodziej

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Kraków/ Na Uniwersytecie Rolniczym powstała modułowa uprawa hydroponiczna została wyłączona

Algorytm rozpoznaje Alzheimera

Oparty o sztuczną inteligencję algorytm stworzony przez IBM po analizie pisma ręcznego jest w stanie określić kto w przyszłości zapadnie na chorobę Alzheimera. Skuteczność takiej “diagnozy” to 75 proc. A…

Oparty o sztuczną inteligencję algorytm stworzony przez IBM po analizie pisma ręcznego jest w stanie określić kto w przyszłości zapadnie na chorobę Alzheimera.

Skuteczność takiej “diagnozy” to 75 proc. A biorąc pod uwagę fakt, że pada ona na kilka lat przed wystąpieniem pierwszych symptomów choroby rozpoznawanych przez dzisiejsze metody, eksperci już mówią o powstaniu narzędzia, które będzie ogromnym wsparciem dla lekarzy.

Algorytm nie tyle analizował krój pisma ile badał błędy i złożoność opisu. Kilkaset osób zostało poproszonych o opisanie tego co dzieje się na zwykłym, przedstawiającym domową scenę, rysunku. Algorytm analizował nie tylko CO znalazło się w opisie ale także JAK opis sformułowano. Szukał drobnych błędów, złego użycie dużych liter i opisu składającego się z równoważników zdań (zamiast pełnych zdań), czyli w skrócie telegraficznego języka.

Elif Eyigoz et al., The Lancet 2020

Osoby opisujące w ten sposób scenę przedstawioną na rysunku, to osoby u których rozpoczęły się już zmiany chorobowe w mózgu. Na razie „na zewnątrz” trudno je jednak zauważyć. Dokładność tej metody diagnozy – jak napisano w publikacji z czasopisma The Lancet – wynosi 75 proc.

Naukowcy twierdzą, że choroby neurologiczne można znacząco spowolnić, pod warunkiem, że diagnoza zapadnie odpowiednio wcześnie. Wiele wskazuje na to, że to algorytmy będą tą pierwszą linią diagnostyczną w takich przypadkach, gdyż zauważają one zmiany, które są nieuchwytne przez inne metody wykorzystywane dzisiaj w medycynie. Ponadto ich ogromną zaletą jest to, że są nieinwazyjne, tanie, dostępne i nie wymagają zaawansowanej technologii w miejscu prowadzenia badania. Wiele z tych badań czy analiz można przeprowadzić dzięki narzędziom chmurowym.

Inne badania koncentrują się na analizie mowy. I znowu, nie wymagają specjalistycznego sprzętu. Wystarczy mikrofon w telefonie komórkowym i odpowiednia aplikacja. Niektóre choroby neurologiczne – zanim pojawią się ich pierwsze symptomy – mogą zostać zauważone po zmianie sposobu mówienia. Pojawiają się problemy z określeniem ilości przedmiotów, chorzy zaczynają nieco wolniej mówić i robią w środku zdań niespodziewane przerwy. Często też używają coraz mniej określeń abstrakcyjnych. Co ogromnie ważne, te zmiany nie są związane z językiem w jakim człowiek się posługuje, są uniwersalne. Jak takie badanie wygląda w praktyce? Badany dostaje SMSem (albo w specjalnej aplikacji) obrazek, nagrywa swoimi słowami jego opis, a nagranie jest analizowane przez algorytm AI. Takie badania prowadzi się na Uniwersytecie Kalifornijskim w San Francisco. Z wstępnych wyników można wyciągnąć wniosek, że niektóre choroby neurologiczne da się w ten sposób przewidzieć z nawet 10cio letnim wyprzedzeniem.

Zresztą, wykorzystywanie algorytmów AI w medycynie nie ogranicza się tylko do rozpoznawania chorób neurologicznych. W poniższym filmie pokazuję jak wykorzystuje się je do identyfikacji ognisk nowotworowych:

 

Możliwość komentowania Algorytm rozpoznaje Alzheimera została wyłączona

NCBR podpisało porozumienie z Narodowym Funduszem Badań Ukrainy

Organizacja wspólnych konkursów bilateralnych, wymiana wiedzy i najlepszych praktyk – to założenia podpisanego porozumienia o współpracy Narodowego Centrum Badań i Rozwoju (NCBR) z Narodowym Funduszem Badań Ukrainy. NCBR poinformowało o…

Organizacja wspólnych konkursów bilateralnych, wymiana wiedzy i najlepszych praktyk – to założenia podpisanego porozumienia o współpracy Narodowego Centrum Badań i Rozwoju (NCBR) z Narodowym Funduszem Badań Ukrainy. NCBR poinformowało o sygnowaniu dokumentu w piątek. 

Porozumienie będzie obowiązywać przez 5 lat. Współpraca może być podjęta m.in. w zakresie badań jądrowych, nowych materiałów, technologii IT, fizyki i astronomii, inżynierii, biotechnologii czy badań środowiskowych.

„Polskie innowacje już od lat wychodzą za granicę dzięki wsparciu NCBR. W naszym portfolio mamy obecnie ponad 100 inicjatyw międzynarodowych. Cieszę się, że od dziś w gronie naszych najważniejszych zagranicznych partnerów jest także Narodowy Fundusz Badań Ukrainy” – mówi cytowany w komunikacie dyrektor polskiej agencji dr inż. Wojciech Kamieniecki. W jego ocenie jest to szansa dla polskich jednostek na nawiązanie nowych badawczych kontaktów.

„Dla obu instytucji to także możliwość wspólnego udziału chociażby w takich projektach jak Twinning i TAIEX, czyli programach pomocowych adresowanych do państw sąsiadujących z UE” – podkreślił.

W ramach porozumienia możliwa będzie organizacja wspólnych konkursów bilateralnych, wymiana wiedzy i najlepszych praktyk oraz promocja udziału polskich i ukraińskich ekspertów w procesie oceny wniosków w konkursach obu instytucji.

Narodowy Fundusz Badań Ukrainy (NRFU) to państwowa agencja rządowa, której głównym celem jest wsparcie realizacji badań podstawowych i prac rozwojowych w priorytetowych dziedzinach nauki i technologii. NRFU jest odpowiednikiem NCBR na Ukrainie.

„Nie mamy wątpliwości, że nasza współpraca będzie sprzyjać owocnej wymianie wiedzy i dobrych praktyk między czołowymi organizacjami i instytucjami naukowymi Ukrainy i Polski, zacieśnianiu relacji między naszymi krajami, a także wzajemnej integracji krajowych przestrzeni badawczych” – mówi cytowany w komunikacie dyrektor NRFU prof. Leonid Jatsenko.

NCBR poinformowało również, że 2021 rok przynosi nowe wyzwania dla NCBR w zakresie współpracy międzynarodowej. Agencja podkreśliła, że aby skuteczniej wspierać naukowców i innowatorów na arenie międzynarodowej, a zwłaszcza realizować projekty w ramach programu Horyzont Europa, NCBR podjęło już szereg działań m.in. powołało Biuro Współpracy Międzynarodowej, połączyło siły z Krajowym Punktem Kontaktowym i uruchomiło biuro w Brukseli.(PAP)

Autor: Szymon Zdziebłowski

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania NCBR podpisało porozumienie z Narodowym Funduszem Badań Ukrainy została wyłączona

Naukowcy zbadają wpływ izolacji na człowieka podczas symulowanej misji kosmicznej

Różne aspekty wpływu izolacji na zdrowie człowieka, m.in. na sprawność fizyczną i układ nerwowy, zbadają naukowcy uczestniczący w symulowanej załogowej misji kosmicznej, odbywającej się w bazie LunAres w Pile. Odbywa…

Różne aspekty wpływu izolacji na zdrowie człowieka, m.in. na sprawność fizyczną i układ nerwowy, zbadają naukowcy uczestniczący w symulowanej załogowej misji kosmicznej, odbywającej się w bazie LunAres w Pile. Odbywa się ona pod patronatem rektora Politechniki Śląskiej i Ministerstwa Zdrowia. 

Jak przekonują naukowcy, ich badania – skupiające się na analizie dostosowania się psychiki do przymusowego zamknięcia – mają szczególne znaczenie w kontekście pandemii COVID-19. W symulowanej misji bierze udział międzynarodowy zespół pięciorga tzw. analogowych (stacjonarnych) astronautów, którzy będą zamknięci przez dwa tygodnie na małej przestrzeni i badani pod kątem zmian układzie nerwowym i narządzie ruchu.

Podczas wtorkowej konferencji prasowej rektor Politechniki Śląskiej prof. Arkadiusz Mężyk zwrócił uwagę, że badania dotyczące misji kosmicznych są prowadzone bardzo szeroko i wykraczają daleko poza samą technologię budowy rakiet – dotyczą też zdrowia fizycznego psychicznego, przystosowania się do wyjątkowych warunków, a także socjologii.

„Wszyscy odczuwamy skutki pandemii, od marca 2020 r. żyjemy w izolacji i odczuwamy na własnej skórze jak brak kontaktów społecznych, życie w ograniczonej przestrzeni wpływa na naszą psychikę, na nasze funkcjonowanie” – zaznaczył. W obecnej misji naukowców z PŚ interesują problemy z dziedziny inżynierii biomedycznej oraz rozwiązań infrastrukturalnych – dostosowania małych przestrzeni do funkcjonowania ludzi, naukowcy przeprowadza także np. testy technologii odzyskiwania zużytej wody.

„Badania izolacyjne mające na celu symulację warunków lotów na inne ciała niebieskie, w tym Marsa i Księżyc, wydawały się niezwykle oderwane od rzeczywistości jeszcze rok temu. Obecnie, wskutek pandemii, niemal każdy rozumie, jak istotne jest dogłębne zbadanie psychologii izolacji, zarówno wybranej z wolnej woli, jak i przymusowej” – ocenił naczelny lekarz załogi dr n. med. Aleksander Waśniowski.

Habitat LunAres to znajdująca się w Pile placówka badawcza służąca do symulacji załogowych misji kosmicznych, zwanych misjami analogowymi. Jest to jedyny tego typu obiekt w Europie. Całkowicie odizolowana od środowiska zewnętrznego składa się z siedmiu modułów przeznaczonych do różnych czynności i codziennego życia, a także z 250 km kw. do „spacerów kosmicznych”.

W przedsięwzięciu biorą udział przedstawiciele PŚ. Naukowcy z Wydziału Inżynierii Biomedycznej tej uczelni przeprowadzą badania w zakresie biomechaniki narządu ruchu, sprawdzając m.in. wpływ izolacji na sprawność fizyczną. Studentka Wydziału Architektury przeprowadzi prace poświęcone sprawdzeniu rozwiązań zastosowanych w stacji kosmicznej pod kątem ich użyteczności oraz możliwości zaspokojenia potrzeb jej mieszkańców – członków misji.

Szef ekspedycji – dyrektor LunAres Space mgr inż. Leszek Orzechowski wyjaśnił, że obecna misja, która nosi nazwę „Panda” (Pandemic Analog Mission) jest pierwszą z serii, które potrwają przez kilka miesięcy. Wyraził przekonanie, że badania – zwłaszcza neurologiczne – mogą przydać się zwłaszcza w obecnej sytuacji pandemii. Osoby w izolacji będą badane np. pod kątem zmian w hipokampie, który odpowiada m.in. za orientację w przestrzeni i pamięć.

„Te małe zmiany mogą odpowiadać temu, co niektórzy z nas doświadczają podczas przymusowej kwarantanny związanej z obecną lub jakąkolwiek pandemią w przyszłości” – powiedział Orzechowski. Podczas misji zostanie przeprowadzonych także wiele eksperymentów fizjologicznych czy psychologicznych.

Dr hab. inż. Robert Michnik z Wydziału Inżynierii Biomedycznej PŚ powiedział, że naukowcy chcą zbadać zmiany w funkcjonowaniu narządu ruchu. Jak przypomniał, w realnej misji kosmicznej największy wpływ na to ma brak lub zmniejszona grawitacja, która prowadzi m.in. do ubytku tkanki mięśniowej. W przypadku misji analogowej takim czynnikiem jest ograniczenie aktywności, związane z małą przestrzenią – wyjaśnił.

Przedmiotem badań będzie też oddziaływanie czynników psychologicznych i socjologicznych, wynikających z izolacji, a także to, jak na ciało działają obciążania związane z używaniem skafandrów kosmicznych – chodzi ocenę zdolności utrzymywania równowagi i postawy ciała. Zakładając, że izolacja – także w okresie pandemii – skutkuje obniżeniem sprawności fizycznej, naukowcy chcą w przyszłości opracować program ćwiczeń, który będzie ograniczał te negatywne zmiany.(PAP)

autor: Krzysztof Konopka

Możliwość komentowania Naukowcy zbadają wpływ izolacji na człowieka podczas symulowanej misji kosmicznej została wyłączona

Mniej zagadkowe początki „pyłowych gigantów”

Już w młodym Wszechświecie powstały tysiące ogromnych galaktyk, bogatych w gwiazdy i pył. Dla astronomów ich badania były prawdziwym wyzwaniem. Naukowcy m.in. z NCBJ badając 300 odległych, zapylonych galaktyk, wykrytych…

Już w młodym Wszechświecie powstały tysiące ogromnych galaktyk, bogatych w gwiazdy i pył. Dla astronomów ich badania były prawdziwym wyzwaniem. Naukowcy m.in. z NCBJ badając 300 odległych, zapylonych galaktyk, wykrytych za pomocą urządzenia ALMA rzucili nowe światło na procesy fizyczne związane z wytwarzaniem pyłu, metali i gwiazd w ewolucji galaktyk.

Dwa miliardy lat po Wielkim Wybuchu Wszechświat był wciąż bardzo młody. Jednak już powstały w nim tysiące ogromnych galaktyk, bogatych w gwiazdy i pył. Międzynarodowe badanie prowadzone równocześnie przez Wyższą Międzynarodową Szkołę Badań Zaawansowanych (SISSA) w Trieście oraz Narodowe Centrum Badań Jądrowych (Katarzyna Małek i William Pearson) z udziałem międzynarodowego zespołu naukowców wyjaśnia teraz, jak to było możliwe – informuje NCBJ w prasowym komunikacie.

Naukowcy połączyli metody obserwacyjne i teoretyczne, aby zidentyfikować procesy fizyczne leżące u podstaw ich ewolucji i po raz pierwszy znaleźli dowody na szybki wzrost zawartości pyłu w tych galaktykach spowodowany wysokim stężeniem metali w odległym Wszechświecie. Badanie, opublikowane w czasopiśmie Astronomy & Astrophysics (https://www.aanda.org/articles/aa/abs/2020/12/aa38405-20/aa38405-20.html oraz https://arxiv.org/abs/2008.09995), przedstawia nowe podejście do badania fazy ewolucyjnej masywnych obiektów.

Odległe galaktyki, istniejące w bardzo wczesnym Wszechświecie, ale już masywne i bardzo aktywnie tworzące nowe gwiazdy stanowią, od momentu ich odkrycia 20 lat temu, prawdziwe wyzwanie dla astronomów. „Z jednej strony są one trudne do wykrycia, ponieważ znajdują się w gęstych obszarach odległego Wszechświata i zawierają cząstki pyłów, które pochłaniają większość światła optycznego emitowanego przez młode gwiazdy – wyjaśnia dr Drako Donevski, stypendysta SISSA i główny autor badania. – Z drugiej strony wiele z tych pyłowych ‚olbrzymów’ powstało w czasach, gdy Wszechświat był bardzo młody – miał mniej niż 1 miliard lat – i nadal pozostaje zagadką pytanie, jak tak duża ilość pyłu mogła zostać wyprodukowana tak wcześnie we Wszechświecie”.

Badanie tych egzotycznych obiektów jest teraz możliwe dzięki Atacama Large Millimeter / submillimeter Array (ALMA). Interferometr składający się z 66 teleskopów umieszczony jest na pustyni Atakama w północnym Chile i jest w stanie wykryć światło podczerwone, które przenika przez pyłowe chmury, ujawniając obecność nowo tworzących się gwiazd. Jednak pochodzenie dużej ilości pyłu we wczesnym czasie kosmicznym wciąż pozostaje otwartą kwestią dla astronomów.

„Przez wiele lat naukowcy sądzili, że powstawanie pyłu kosmicznego jest spowodowane wyłącznie eksplozjami supernowych. Jednak ostatnie prace teoretyczne sugerują, że zawartość pyłu może również wzrastać w wyniku zderzeń cząstek zimnego, bogatego w metale gazu, który wypełnia galaktyki” – wyjaśnia naukowiec, cytowany w prasowym komunikacie. Międzynarodowy zespół uczonych z instytucji w Europie, USA, Kanadzie i RPA, kierowany przez dra Donevskiego, połączył metody obserwacyjne i teoretyczne, aby zbadać 300 odległych, zapylonych galaktyk w nadziei, że pomoże to odkryć pochodzenie tych „gigantów”.

„Wyznaczyliśmy właściwości fizyczne naszych galaktyk, stosując specjalną technikę modelowania ich szerokopasmowych widm energetycznych – uzupełnia dr hab. Katarzyna Małek, adiunkt w Zakładzie Astrofizyki Narodowego Centrum Badań Jądrowych, cytowana w informacji prasowej. – Jest to istotne źródło informacji o naturze galaktyk, ponieważ wiele złożonych procesów fizycznych, które w nich zachodzą, pozostawia swój ślad w ich widmie. Widmo energetyczne, czyli zależność wypromieniowywanej energii od długości fali, to swoiste DNA galaktyki. Modelowanie widm energetycznych pomaga nam oszacować takie wielkości fizyczne, jak masa pyłu lub masa gwiazd w galaktyce. Dzięki analizie widm szerokopasmowych udało nam się zidentyfikować dwie różne populacje galaktyk w naszej próbce: typowe galaktyki aktywne gwiazdotwórczo – tak zwane galaktyki ciągu głównego, i ekstremalne obiekty, w których zachodzą wyjątkowo intensywne procesy gwiazdotwórcze (ang. starburst galaxies). Taka ekstremalna galaktyka tworzy rocznie gwiazdy o łącznej masie nawet 10-100 mas Słońca”.

„Znaleźliśmy ogromną ilość masy pyłu w większości naszych galaktyk – uzupełnia dr Donevski. – Nasze szacunki pokazały, że wybuchy supernowych nie mogą być odpowiedzialne za to wszystko, a część musiała powstać w wyniku zderzeń cząstek w środowisku bogatym w gazowe metale wokół masywnych gwiazd, jak wcześniej przewidywały to modele teoretyczne. To pierwszy przypadek, kiedy dane obserwacyjne potwierdzają istnienie obu mechanizmów produkcji”.

Naukowcy przyjrzeli się również zmianom w czasie stosunku masy pyłu do masy gwiazd, aby zbadać, jak skutecznie galaktyki tworzą i niszczą pył podczas swojej ewolucji. „To pozwoliło nam zidentyfikować cykl życia pyłu w dwóch różnych populacjach galaktyk: normalnych oraz bardziej ekstremalnych, szybko ewoluujących galaktykach gwiazdotwórczych – powiedziała Lara Pantoni, doktorantka w SISSA, która opracowała model analityczny służący do interpretacji danych i wykazujący ogromny potencjał w opisywaniu różnic w tych dwóch grupach obserwowanych galaktyk. -Co ciekawe, wykazaliśmy również, że bez względu na odległość, masę lub rozmiar gwiazd, zwarte galaktyki gwiazdotwórcze zawsze mają wyższy stosunek masy pyłu do masy gwiazdy niż zwykłe galaktyki”.

Aby w pełni ocenić wyniki obserwacji, zespół astronomów skonfrontował także swoje dane z najnowszymi modelami i symulacjami galaktyk. Wykorzystano symulację kosmologiczną SIMBA, nowy zestaw, który symuluje powstawanie i ewolucję milionów galaktyk od początku Wszechświata do chwili obecnej, śledząc wszystkie ich właściwości fizyczne, w tym masę pyłu. „Do tej pory modele teoretyczne miały problemy z jednoczesnym dopasowaniem zawartości pyłu w galaktykach, jak i właściwości gwiazd. Jednak nasz nowy pakiet symulacji kosmologicznych SIMBA był w stanie odtworzyć większość zaobserwowanych danych” – wyjaśnia Desika Narayanan, profesor astronomii na Uniwersytecie Florydy i członek instytutu DAWN w Kopenhadze, cytowana w komunikacie udostępnionym przez NCBJ.

„Z naszych badań wynika, że produkcja pyłu w ‚Gigantach’ jest zdominowana przez bardzo szybki wzrost ilości cząstek w wyniku ich zderzeń z gazem – podsumowuje dr Donevski. – Stanowi to pierwszy dowód na poparcie tezy, że powstawanie pyłu zachodzi zarówno podczas śmierci gwiazd, jak i w przestrzeni między tymi masywnymi gwiazdami, jak zakładają badania teoretyczne. Co więcej, nasza praca oferuje nowe, mieszane podejście do badania ewolucji masywnych obiektów w odległym Wszechświecie, które będą testowane za pomocą przyszłych teleskopów kosmicznych, takich jak Kosmiczny Teleskop Jamesa Webba”.

PAP – Nauka w Polsce

Możliwość komentowania Mniej zagadkowe początki „pyłowych gigantów” została wyłączona

Rozwiązania przyspieszające proces otrzymywana nowych odmian jęczmienia

Dwa rozwiązania przyspieszające proces otrzymywania nowych odmian jęczmienia opracowali naukowcy z Uniwersytetu Śląskiego. Pomijają one jeden z kluczowych etapów rozmnażania roślin, czyli zapłodnienie i kilkuletni cykl krzyżowań. Ponadto dzięki tym…

Dwa rozwiązania przyspieszające proces otrzymywania nowych odmian jęczmienia opracowali naukowcy z Uniwersytetu Śląskiego. Pomijają one jeden z kluczowych etapów rozmnażania roślin, czyli zapłodnienie i kilkuletni cykl krzyżowań.

Ponadto dzięki tym rozwiązaniom pewne jest produkowanie zielonych roślin niezależnie od genotypu.

Ich współautorka, dr Monika Gajecka z Wydziału Nauk Przyrodniczych UŚ wyjaśniła, że efektem wieloletnich badań jest nowy sposób izolacji mikrospor i inicjacji kultury z wykorzystaniem wcześniejszego stadium rozwoju jęczmienia jarego. Kultura w tym kontekście oznacza sztuczną hodowlę komórek na pożywkach, a mikrospora to zarodnik męski.

Przedmiotem zainteresowań biologów był proces androgenezy, czyli proces rozwoju nowej rośliny z odpowiedzialnego za przemianę pokoleń męskiego gametofitu.

Jak przypomniała Gajecka, w normalnych warunkach, aby doszło do rozmnożenia rośliny konieczny jest proces zapylenia, który w przypadku jęczmienia polega na przenoszeniu ziaren pyłku na słupek. Jej rozwiązanie pomija jednak ten etap.

Badaczom potrzebny był niedojrzały kłos jęczmienia, który został poddany dwóm rodzajom działań. „W pierwszym przypadku ścięte źdźbła są wkładane do lodówki na dwa tygodnie, dzięki czemu ulegają przechłodzeniu. Następnie są blendowane w specjalnym urządzeniu, aby nie uszkodzić mikrospor. W ten sposób powstaje zawiesina tych mikrospor – na tym polega ich izolacja. Następnym krokiem jest inicjacja kultury in vitro, czyli indukowanie rozwoju zarodków jęczmienia przy dostarczaniu odpowiednich składników odżywczych w pożywce” – tłumaczyła Gajecka.

W drugim przypadku działania są nieco inne. „Tutaj ze świeżo ściętego źdźbła jęczmienia wyciągany jest niedojrzały kłos z mikrosporami, które są następnie izolowane i wkładane do odpowiednio przygotowanej pożywki, dostarczającej tylko pewnych składników odżywczych. W tym przypadku nie ma więc fazy przechłodzenia komórek, lecz dochodzi do ich głodzenia” – wyjaśniła badaczka.

Kiełkujące zarodki można obserwować po około sześciu tygodniach. „W obu przypadkach obserwujemy przeprogramowanie, w wyniku czego z mikrospory możemy uzyskać od razu nową roślinę, a nie, jak w przypadku naturalnie zachodzącego procesu, dojrzałe ziarno pyłku” – dodała.

Sposób ten pozwala skrócić otrzymywanie nowych odmian jęczmienia o kilka lat. „W ciągu sześciu tygodni widzimy już rośliny i tak naprawdę w ciągu roku mamy już ziarna, które możemy poddawać selekcji, żeby sprawdzić, czy ta roślina będzie miała konkretne, interesujące nas cechy. Jęczmień to roślina jednoroczna, więc po kolejnym roku mamy wyprodukowaną linię homozygotyczną. Wcześniej – z uwagi na ośmiopokoleniowy cykl krzyżowań – potrzebnych było osiem lat” – podkreśliła Gajecka.

Ponadto naukowcy rozwiązali problem związany z albinizmem wśród roślin, który powoduje, że te białe rośliny – pozbawione chlorofilu – nie są w stanie przeprowadzać fotosyntezy. Opracowany przez nich sposób izolacji i inicjacji kultury in vitro mikrospor umożliwia produkcję roślin zielonych z wszystkich odmian, nawet tych, które wcześniej regenerowały rośliny albinotyczne.

„Istotną rolę odgrywają w tym procesie plastydy. Inicjowaliśmy kulturę in vitro w określonych momentach rozwoju roślin. Gdy plastydy zdążyły już różnicować się w amyloplasty, regenerowały głównie albinotyczne rośliny. Jeśli jednak jeszcze do tego nie doszło, wtedy uzyskiwaliśmy rośliny zielone. Gdy odkryliśmy tę kluczową zależność, wystarczyło już tylko wskazać odpowiedni moment inicjacji kultury in vitro” – powiedziała Gajecka.

Biolog wyraziła przekonanie, że ich innowacyjne rozwiązanie jest ważne dla hodowli roślin, ponieważ skraca czas potrzebny na wprowadzenie nowych odmian zbóż, a także zapewnia, że możliwe jest wyprodukowanie zielonych roślin niezależnie od genotypu. „Dajemy szybki i pewny efekt” – podsumowała.

Autorami tych dwóch opisywanych patentów są członkowie Zespołu Genetyki i Genomiki Funkcjonalnej Roślin na Wydziale Nauk Przyrodniczych UŚ: dr Monika Gajecka, prof. dr hab. Iwona Szarejko, dr Beata Chmielewska, mgr Janusz Jelonek i Justyna Zbieszczyk.

PAP – Nauka w Polsce, Agnieszka Kliks-Pudlik

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Rozwiązania przyspieszające proces otrzymywana nowych odmian jęczmienia została wyłączona

Nowy dwuwymiarowy nadprzewodnik topologiczny

Udało się wytworzyć nowy dwuwymiarowy nadprzewodnik cechujący się nietrywialnymi właściwościami topologicznymi. W badaniach – opublikowanych w Nature – uczestniczyli fińscy naukowcy z uniwersytetów w Aalto i Helsinkach oraz dr Szczepan…

Udało się wytworzyć nowy dwuwymiarowy nadprzewodnik cechujący się nietrywialnymi właściwościami topologicznymi. W badaniach – opublikowanych w Nature – uczestniczyli fińscy naukowcy z uniwersytetów w Aalto i Helsinkach oraz dr Szczepan Głodzik z UMCS.

Praca w „Nature” (https://www.nature.com/articles/s41586-020-2989-y) łączy ze sobą dwa przełomy: wytworzenie heterostruktury złożonej z dwuwymiarowego ferromagnetyka oraz efektywne stworzenie dwuwymiarowego nadprzewodnika topologicznego – informuje Uniwersytet Mari Curie-Skłodowskiej w Lublinie w przesłanym PAP komunikacie.

Badacze z Aalto University w Finlandii jako specjaliści w dziedzinie wytwarzania nanostruktur z dokładnością do pojedynczych atomów i charakteryzowania cienkich warstw materiałów, wytworzyli dwuwymiarowe, magnetyczne wyspy bromku chromu. Podłożem, na którym je umieszczono była powierzchnia nadprzewodnika – diselenku niobu. Oba materiały należą do grupy tzw. materiałów van der Waalsa, z których stosunkowo prosto można otrzymywać jednoatomowe warstwy (analogicznie do grafenu).

Nadprzewodnictwo i magnetyzm to zaprzysiężeni wrogowie, ale też niezbędne składniki nadprzewodnictwa topologicznego. Do stabilizacji tej ulotnej fazy materii konieczny jest jeszcze jeden komponent – sprzężenie spinowo-orbitalne, czyli oddziaływanie obecne między innymi na powierzchniach materiałów (także na powierzchni NbSe2), które „nachyla” spiny elektronów, w zależności od kierunku ich pędu. W obecności tych trzech składników i odpowiedniego oddziaływania między nimi, grupa z Finlandii, korzystając ze skaningowej mikroskopii tunelowej, zaobserwowała na krawędziach magnetycznych wysp tzw. chiralne mody Majorany. Są to kwazicząstki (czyli kolektywne wzbudzenia elektronowe, zachowujące się w pewien określony sposób) o zerowej energii.

„Materiały topologiczne są aktualnie przedmiotem olbrzymiego zainteresowania zarówno wiodących ośrodków naukowych na świecie jak też firm komercyjnych (np. Microsoft, Google). Ogromna popularność kwazicząstek Majorany i pościg za eksperymentalnym wykazaniem ich obecności, powodowana jest pomysłem na wytworzenie komputera kwantowego, którego podstawowymi elementami byłyby kubity ‚chronione’ przez topologię układu” – skomentowano w komunikacie.

Powyższa praca ma jednak większe znaczenie w kontekście badań podstawowych. Relatywnie prosty przepis na wytworzenie nowej fazy materii, jaką jest topologiczne nadprzewodnictwo, otwiera możliwość dalszego poznawania jej egzotycznych właściwości. Oprócz jednowymiarowych, chiralnych modów Majorany na brzegach materiałów realizujących tę fazę, badania teoretyczne wskazują na obecność stanów związanych Majorany, zlokalizowanych na defektach oraz w rdzeniach wirów pojawiających się w nadprzewodnikach topologicznych.

Zadaniem dr. Głodzika z UMCS, w tym projekcie, było opracowanie modelu teoretycznego, odzwierciedlającego układ badany w eksperymencie i wykonanie obliczeń numerycznych, zdolnych wykazać czy rzeczywiście mamy do czynienia z topologicznym nadprzewodnictwem.

Wyniki obliczeń dr. Głodzika okazały się być zgodne z wynikami pomiarów metodą skaningowej mikroskopii tunelowej i jakościowo reprodukowały wszystkie własności chiralnych modów Majorany.

Tego rodzaju heterostruktury mogą być w przyszłości wykorzystane do opracowania architektury układów scalonych nowej generacji komputerów.

PAP – Nauka w Polce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Nowy dwuwymiarowy nadprzewodnik topologiczny została wyłączona

Naukowcy UJ pracują nad tomografem, który dokładnie wykryje nowotwory

Nad tomografem pozwalającym na zobrazowanie całego ciała, który będzie w stanie wykryć jednocześnie nowotwory w całym organizmie, a nawet stwierdzić stopień ich złośliwości, pracują naukowcy z Uniwersytetu Jagiellońskiego w Krakowie….

Nad tomografem pozwalającym na zobrazowanie całego ciała, który będzie w stanie wykryć jednocześnie nowotwory w całym organizmie, a nawet stwierdzić stopień ich złośliwości, pracują naukowcy z Uniwersytetu Jagiellońskiego w Krakowie.

„Dążymy do tego, aby lekarz miał jak najwięcej informacji bez konieczności wykonywania operacji. Teraz, aby dowiedzieć się czy w danym miejscu są tkanki nowotworowe, trzeba wykonać biopsję, potem badania histopatologiczne” – powiedział prof. Paweł Moskal, który wraz z dr hab. Ewą Stępień pracuje nad nowym rozwiązaniem.

W nagraniu internetowym, opublikowanym przez UJ, profesor poinformował, że przygotowanie nowej metody, nowego urządzenia, jest celem na najbliższych kilka lat.

Zgodnie z zapowiedziami, dzięki nowemu rozwiązaniu lekarz będzie mógł na filmie zobaczyć, jak substancja podana pacjentowi jest przyjmowana przez ciało, jak jest metabolizowana. Teraz lekarze oglądają na zdjęciach pojedyncze części ciała, ze zmianami nowotworowymi.

Naukowcy, którzy dążą do stworzenia innowacyjnej technologii, pracują na Wydziale Fizyki, Astronomii i Informatyki Stosowanej UJ. (PAP)

autor: Beata Kołodziej

źródło:

www.naukawpolsce.pap.pl

1 komentarz do Naukowcy UJ pracują nad tomografem, który dokładnie wykryje nowotwory

Studencki satelita PW-Sat2 kończy misję; jego następca PW-Sat3 się do niej szykuje

Polski studencki satelita PW-Sat2 przetestował żagiel do deorbitacji, wykonał tysiące zdjęć, zgromadził mnóstwo danych. Na przełomie stycznia i lutego spłonie w atmosferze, kończąc misję. W 2023 roku na orbicie zastąpi…

Polski studencki satelita PW-Sat2 przetestował żagiel do deorbitacji, wykonał tysiące zdjęć, zgromadził mnóstwo danych. Na przełomie stycznia i lutego spłonie w atmosferze, kończąc misję. W 2023 roku na orbicie zastąpi go PW-Sat3, którego zadaniem będą testy napędu odrzutowego.

„Jesteśmy z tej misji niesamowicie zadowoleni, mimo pewnych przeszkód i problemów, które po drodze się pojawiły” – mówi PAP Dominik Roszkowski, wicekoordynator kończącego się powoli projektu PW-Sat2.

Satelita studentów Politechniki Warszawskiej wystartował z Kalifornii (USA) na początku grudnia 2018 roku. Na orbitę wyniosła go rakieta Falcon 9 należąca do SpaceX. Głównym zadaniem satelity było testowanie technologii deorbitacji przy użyciu otwieranego żagla. Chodziło o poszukanie sposobu, który pozwoli na szybsze usunięcie nieczynnego już satelity z orbity i zmniejszy na niej liczbę tzw. kosmicznych śmieci.

Start poszedł jak z płatka, bo sygnał z PW-Sata2 został odebrany zaledwie kilka godzin po starcie. Jednak problemy pojawiły się w kolejnych dniach. Prawdopodobnie wskutek naprężeń wywołanych dużymi zmianami temperatury po ok. trzech dniach od otwarcia na żaglu pojawiły się rozerwania. Erozja żagla jednak nie postępowała i od tamtego czasu pozostał on w praktycznie niezmienionej kondycji.

„Nasz żagiel wciąż działa i udowadnia swoją skuteczność, pomimo tego, że około 30-40 proc. jego powierzchni jest uszkodzone niemal od początku misji. Satelita i tak deorbituje szybciej, niż gdyby tego żagla nie było. Pierwotnie planowaliśmy, że będzie deorbitował około 1-1,5 roku, teraz mamy już niewiele ponad 2 lata, więc różnica, mimo straty powierzchni żagla, nie jest drastyczna, to raptem kilka dodatkowych miesięcy” – wyjaśnia Roszkowski.

„Z punktu widzenia technologii, materiałów, danych, które otwarcie udostępniliśmy, PW-Sat2 na pewno posłużył wielu firmom jako inspiracja, czy jako punkt odniesienia w tworzeniu swoich systemów deorbitacji nie tylko satelitów, ale też np. górnych stopni rakiet nośnych, które muszą jak najszybciej się deorbitować” – podsumowuje Roszkowski i dodaje, że rozwiązanie z wykorzystaniem żagla można podłączyć do dowolnego satelity tego typu i powinno ono działać.

Są też inne aspekty tej misji, które przekroczyły oczekiwania jej twórców. Była ona planowana tylko do momentu otwarcia żagla, ale okazało się, że z satelitą wciąż da się utrzymać codzienną łączność. Dzięki temu studenci wykonali ponad 1500 zdjęć, przeprowadzali eksperymenty związane z pomiarami promieniowania kosmicznego, udało im się wgrać aktualizację oprogramowania komputera pokładowego, który wciąż świetnie działa. Część zebranych danych już przeanalizowano. Inne dopiero będą analizowane i publikowane.

PW-Sat2 to również – jak podkreśla Dominik Roszkowski – ogromny sukces edukacyjny. Kilkadziesiąt osób pracujących przy satelicie zebrało wiedzę i doświadczenie, które umożliwiło im pracę w sektorze kosmicznym – zarówno w firmach polskich, jak i zagranicznych, ale również np. w Europejskiej Agencji Kosmicznej.

Twórcy PW-Sat2 obliczają, że satelita spłonie w atmosferze na przełomie stycznia i lutego. Jednak dokładną datę będzie można wyznaczyć zaledwie kilka dni przed końcem misji.

Za kilka lat – w 2023 roku – na orbicie ma się znaleźć kolejny satelita studentów Politechniki Warszawskiej PW-Sat3. „Naszym głównym celem jest stworzenie napędu odrzutowego dla satelity, nad którym pracujemy, korzystając ze wsparcia Zakładu Silników Lotniczych na Politechnice Warszawskiej. Napęd ma posłużyć do wykonania szeregu manewrów orbitalnych” – opisuje w rozmowie z PAP Marcin Pulik, koordynator projektu PW-Sat3.

Tego typu napędy – mówi – są już komercjalizowane i stosowane przez niektóre firmy, ale rynek jeszcze nie jest przesycony tego typu rozwiązaniami i wciąż rozwijane są nowe dotyczące takich silników wykorzystywanych w przestrzeni kosmicznej.

Prace nad satelitą trwają już od ponad dwóch lat. Mimo pandemii przebiegają sprawnie i bez poślizgów w terminach, choć w dużej mierze przeniosły się do domów studentów. Obecnie wykonywany jest pierwszy model silnika, na którym będzie można sprawdzić – na razie w warunkach ziemskich – czy wszystko działa tak, jak zaplanowano.

Przygotowywany przez studentów napęd odrzutowy zostanie uruchomiony po odłączeniu się satelity od rakiety. Misja związana ze wspomnianymi manewrami satelity potrwa około 3-4 miesiące. „Później PW-Sat3 pozostanie jednak na orbicie i będziemy wykonywali na nim różne inne eksperymenty. Część z nich będzie związana z misją komputera pokładowego. Dodatkowo tworzymy własny algorytm sterowania położeniem satelity” – wyjaśnia Pulik.

Na razie nie wiadomo, kto wyniesie PW-Sat3 w kosmos. „Jesteśmy w trakcie ustalania najlepszej oferty. Ostateczna decyzja zostanie podjęta najprawdopodobniej w przyszłym roku. Firmy proponują oferty różniące się znacznie ceną i zakresem usług. Szukamy takiej propozycji, która pozwoli na bezpieczne dostarczenie naszego eksperymentu na orbitę, umożliwiając wcześniejsze zatankowanie napędu przed umieszczeniem satelity w urządzeniu wynoszącym” – podkreśla koordynator projektu.

Koszt wysłania PW-Sat2 na orbitę to 135 tys. euro, a całego projektu (łącznie z wysłaniem) około 250 tys. euro. W przypadku PW-Sat3 koszt całej misji – łącznie z wyniesieniem – wyniesie ponad 350 tys. euro choćby dlatego, że będzie to satelita nieco większy od poprzednika.

Zespół uzyskał już finansowanie z programu „Najlepsi z najlepszych” resortu nauki i stara się o grant z kolejnego ministerialnego programu. Poza tym finansowo pomaga studentom m.in. Politechnika Warszawska.

PAP – Nauka w Polsce, Ewelina Krajczyńska

Możliwość komentowania Studencki satelita PW-Sat2 kończy misję; jego następca PW-Sat3 się do niej szykuje została wyłączona

Type on the field below and hit Enter/Return to search

WP2Social Auto Publish Powered By : XYZScripts.com
Skip to content