Nauka To Lubię

Oficjalna strona Tomasza Rożka

Kategoria: Technologie

Nanotechnologia na giga problem – nanorolki przeciw zanieczyszczeniom

Ze względu na działalność człowieka, a szczególnie przemysł, wciąż jako ludzkość mierzymy się z ogromnym problemem zanieczyszczenia zasobów naturalnych. Czy nanotechnologia stanie się odpowiedzią na współczesne wyzwanie walki z zanieczyszczeniami?…

Ze względu na działalność człowieka, a szczególnie przemysł, wciąż jako ludzkość mierzymy się z ogromnym problemem zanieczyszczenia zasobów naturalnych. Czy nanotechnologia stanie się odpowiedzią na współczesne wyzwanie walki z zanieczyszczeniami? Na to pytanie odpowiedzią są odkrycia naukowców z Instytutu Chemii Fizycznej PAN, którzy stworzyli nanorolki.

Wesprzyj zrzutkę Nauka. To Lubię

Powietrze i woda są nam niezbędne do życia, ale stają się coraz bardziej skażone. Dużą w tym rolę odgrywają szkodliwe substancje chemiczne, które są trudne do zneutralizowania. Dlatego też naukowcy z całego świata pracują nad wynalezieniem metod pozwalających odwrócić niszczące działania człowieka. Naukowcy z Instytutu Chemii Fizycznej PAN poinformowali na swojej stronie o wytworzeniu materiału zdolnego do unieszkodliwiania toksycznych związków.

Zespół badaczy pod kierunkiem prof. Juana Carlosa Colmenaresa postanowił wykorzystać w tym celu potencjał drzemiący w nanotechnologii. Materiały w skali nano charakteryzują się własnościami, które sprawiają, że są to wprost wymarzone związki do neutralizowania czy pochłaniania innych substancji. Naukowcy wyprodukowali kompozyt na bazie nanomateriałów do walki z szkodliwymi substancjami chemicznymi. Swoje odkrycie opisali na łamach czasopisma naukowego Chemical Engineering Journal (Elsevier).

Nanotechnologia - nanorollki

Źródło: IChF PAN, fot: Grzegorz Krzyżewski

Nanotechnologia – tania i dobra

To, co odróżnia nanomateriały od ich objętościowych odpowiedników, to duży stosunek powierzchni do objętości. To oznacza, że nanomateriały mają bardzo aktywną powierzchnię. Potencjalnie mogą znaleźć zastosowanie na przykład do diagnostyki albo leczenia w ludzkim ciele. Niestety, często nanomateriały są też szkodliwe dla organizmu, a ich niewielki rozmiar może powodować problemy z kontrolowaniem ich drogi w ciele. Patrząc jednak na wciąż rosnącą liczbę odmian takich materiałów, można się spodziewać, że coraz więcej z nich nie będzie sprawiała nam żadnego problemu.

Grupa badawcza zaproponowała połączenie dwutlenku tytanu (TiO2 P-25), który wykazuje dużą stabilność chemiczną, oraz zredukowanego tlenku grafitu (rGO). TiO2 jest bardzo dobrze znanym fotokatalizatorem. Absorbuje on padające promieniowanie, głównie z zakresu UV, które dociera do nas wraz z promieniami słońca. Następnie powstające elektrony i dziury łączą się z tlenem i wodorem z powietrza tworząc wysoce reaktywne cząsteczki, rodniki lub utleniacze. Rozkładają one wiele z drobnoustrojów, zanieczyszczeń organicznych i chemicznych. Dodatkową zaletą jest fakt, że TiO2 jest opłacalny w produkcji, nietoksyczny i nie ulega degradacji pod wpływem czynników atmosferycznych.

Nanomateriały w walce z zanieczyszczeniami

Nanocząstki TiO2 zostały zmodyfikowane przez badaczy. Za pomocą ultradźwięków zwinęli je w rulon i w ten sposób powstały nanorolki. Materiał dzięki temu zyskał lepsze właściwości fotokatalityczne i skuteczniejszy rozkład szkodliwych substancji chemicznych. Skuteczniej też wyłapuje szkodliwe cząsteczki. Wyjątkowe jest właśnie to podwójne działanie kompozytu. Najpierw rozkłada toksyczne związki na mniej szkodliwe cząsteczki, a potem pochłania produkty tej reakcji. Maksymalna ilość substancji, jaką może adsorbować wytworzony materiał przekroczyła 600 mg na każdy gram materiału.

Nanotechnologia – zastosowania nowego kompozytu

„Nasz kompozyt wykazuje wysoką skuteczność unieszkodliwiania toksycznych związków chemicznych, wliczając w to nawet środki bojowe tj. gaz musztardowy. Wykazaliśmy, że materiał ten jest wysoce skuteczny do usuwania zanieczyszczeń środowiskowych, w szczególności do neutralizacji związków organicznych, a także może być wykorzystany jako katalizator do zastosowania w przetwarzaniu biomasy.” – zauważa pierwszy autor pracy, dr Dimitrios A. Giannakoudakis w komunikacie prasowym.

 

Przeczytaj też: Czy szczepienie dzieci przeciw Covid-19 jest bezpieczne?

Źrdódło: www.naukawpolsce.pap.pl 

Możliwość komentowania Nanotechnologia na giga problem – nanorolki przeciw zanieczyszczeniom została wyłączona

Patostreamy – szkodliwe zjawisko w sieci

Problem związany ze szkodliwymi materiałami publikowanymi w sieci istnieje nie od dziś, jednak wraz z rozwojem technologii, jego skala rośnie. Jednym z poważniejszych zagrożeń w internecie są patostreamy. Co to…

Problem związany ze szkodliwymi materiałami publikowanymi w sieci istnieje nie od dziś, jednak wraz z rozwojem technologii, jego skala rośnie. Jednym z poważniejszych zagrożeń w internecie są patostreamy. Co to takiego? Dlaczego uznane są za niebezpieczne?

Zagrożenia w internecie

Szkodliwe treści to te, które wywołują u odbiorcy negatywne emocje i destrukcyjnie wpływają na rozwój zarówno emocjonalny, jak i poznawczy. Eksperci klasyfikują je w różny sposób. Gdy przeprowadza się badania na temat negatywnych treści w internecie, pytani najczęściej mówią o materiałach pokazujących przemoc oraz takich, które dyskryminują i nawołują do dyskryminacji. Niektórzy wspominają jeszcze o treściach promujących zażywanie narkotyków czy ogólniej ryzykowne zachowania.

Wiele materiałów, klasyfikowanych jako szkodliwe, balansuje na granicy prawa. Takim zjawiskiem są patostreamy. Prezentowane w nich treści ukazują bardzo skrajne środowisko. Są atrakcyjne dla młodzieży, a przez większość dorosłych nie do zaakceptowania.

Czym są patostreamy?

Platformy internetowe poza publikacją gotowych filmów, pozwalają również na prezentowanie treści w czasie rzeczywistym. Na tej funkcji bazują patostreamy. Klasyczny streaming wykorzystywany jest podczas konferencji, szkoleń oraz relacjonowania wydarzeń czy przebiegu gry. Patostreamy na żywo pokazują libacje alkoholowe lub przemoc. W trakcie można usłyszeć wulgaryzmy, wyzwiska i poniżające słowa. Widzowie są także świadkami niszczenia mienia, przemocy psychicznej i fizycznej oraz brutalności. 

Zapisy transmisji często są archiwizowane i publikowane w krótszych fragmentach. Przez to problem związany z patostreamami zwiększa się i nie ogranicza wyłącznie do relacji na żywo.

Kto ogląda patostreamy?

Marginalne zachowanie, pokazywane w patostreamach, wzbudza zainteresowanie przede wszystkim młodzieży. 37% dzieci w Polsce ogląda patostreamerów. 38% z nich uważa, że wulgarne, pełne przemocy treści pokazują prawdziwe życie i ukazują jak powinno się rozwiązywać problemy. Niemal co piąty młody oglądający twierdzi, że patostreamerzy mu imponują. Mówimy o ludziach, którzy biją, obrażają, nawołują do przemocy i często sami ją stosują, zresztą nierzadko pod wpływem alkoholu lub środków odurzających. 

Powyższe dane pochodzą z badań wykonanych przez Fundację Dajemy Dzieciom Siłę. Wynika z tych też, że większym problemem niż agresja wobec innych, jest znieczulica i brak współczucia. Przemoc dostępna w internecie może silnie wpływać na samopoczucie dziecka powodując lęk, odrazę czy złe samopoczucie. Sceny przemocy mogą zaburzać naukę prawidłowego funkcjonowania w grupie i rozwiązywania konfliktów.

Patostreamerzy stali się dla dzieci idolami. Są tematem ich rozmów i żartów. Dlaczego nastolatkowie ich oglądają? Jako główny powód młodzi widzowie podają ciekawość. Inni patostreamy włączają z nudów lub chęci bycia na czasie. 

Kto ogląda patostreamy

Sposób na życie

Platformy, na których ukazują się filmy, z reguły nie pozwalają na zarabianie na wątpliwych treściach. Dlaczego więc patostreamerzy wciąż publikują kolejne „produkcje”? Transmisje na żywo są dla nich opłacalne pod kątem finansowym.

Patostreamerzy utrzymują się z darowizn. Nawet kilka złotych, wpłaconych dla żartu, w skali widzów streamingu, pozwala kontrowersyjnym twórcom liczyć zysk nie w dziesiątkach, ale setkach złotych za jedną transmisję. Ponadto patostreamerzy szukają sponsorów i biorą udział w biletowanych wydarzeniach, w których występują w roli celebrytów.

Często też określają też kwoty, za które podejmą się wykonania wcześniej ustalonego wyzwania. Najczęściej zadanie wiąże się z przemocą lub wulgarnym zachowaniem.

Dlaczego patostreamy są niebezpieczne?

Twórcy patostreamów zachowują się w sposób powszechnie nieakceptowalny. Są wulgarni i nie reagują na przemoc. Transmisje są najpopularniejsze wśród młodzieży, dlatego zjawisko to stało się tak niepokojące. Młodzi widzowie są wyjątkowo podatni na prezentowane treści i wypaczone wzorce.

Ci, którzy nie podchodzą wystarczająco krytycznie do patostreamów, stają się znieczuleni na krzywdę, podejmują ryzykowne działania i przyjmują agresywną postawę wobec innych. Młodzież, podatna na szkodliwe treści oglądane w internecie, poprzez takie transmisje otrzymuje zakrzywiony obraz relacji społecznych.

Jak ochronić dziecko przed zagrożeniem?

Przy powszechnym dostępie do internetu trudno jest uchronić najmłodszych przed wszystkimi zagrożeniami. Spotykają się z nimi w różnych miejscach. Często trafiają na nie przypadkowo lub widzą je na platformach ogólnodostępnych, takich jak Facebook czy YouTube. Badania pokazują, że ponad 80% nastolatków (13-15 lat) słyszało o patostreamach. Co możesz zrobić w takiej sytuacji?

Porozmawiaj z dzieckiem o patostreamerach i wytłumacz mu, dlaczego prezentowane przez nich treści są nieodpowiednie. Towarzysz mu w wirtualnym świecie i dopasuj treści do wieku swojej pociechy. Ustalcie też wspólne zasady korzystania z internetu.

Możliwość komentowania Patostreamy – szkodliwe zjawisko w sieci została wyłączona

Program Kosmiczny w prekonsultacjach społecznych – Polska

Do Krajowego Programu Kosmicznego na lata 2021-2026 można zgłaszać uwagi tylko do 16 sierpnia, opublikowanego przez Ministerstwo Rozwoju Pracy i Technologii – poinformowała Polska Agencja Kosmiczna (POLSA). Agencja przypomina że,…

Do Krajowego Programu Kosmicznego na lata 2021-2026 można zgłaszać uwagi tylko do 16 sierpnia, opublikowanego przez Ministerstwo Rozwoju Pracy i Technologii – poinformowała Polska Agencja Kosmiczna (POLSA).

Agencja przypomina że, obowiązek przygotowania Krajowego Programu Kosmicznego wynika z Polskiej Strategii Kosmicznej (PSK) przyjętej przez rząd w 2017 r. Cel Programu określa zbudowanie systemu narzędzi wsparcia doradczego, finansowego i edukacyjnego dla sektora kosmicznego i instytucji realizujących oraz wspierających polską politykę kosmiczną. W projekcie wyróżnia się cztery priorytety.

Pierwszy, to zbudowanie zdolności konstruowania i wynoszenia obiektów kosmicznych. Dotyczy to samodzielnej budowy niewielkich satelitów, jak i wytwarzania komponentów do dużych misji międzynarodowych.

Priorytet drugi to budowa Systemu Satelitarnej Obserwacji Ziemi MikroGlob. System będzie składać się z satelitów i naziemnej stacji kontroli misji. Zapewnienie autonomicznej zdolności do dostarczania zobrazowań satelitarnych dla sektora bezpieczeństwa i obronności, oraz na potrzeby administracji publicznej jest celem projektu.

Trzeci priorytet to budowa Narodowego Systemu Informacji Satelitarnej, NSIS. Jak podkreśla POLSA, obecnie Polska ma dostęp do danych z unijnego systemu satelitarnego Copernicus, niezbędne jednak staje się zapewnienie możliwości wykorzystania danych również z MikroGlob i z satelitów komercyjnych.

Czwarty, ostatni priorytet to rozbudowa Narodowego Systemu Bezpieczeństwa Kosmicznego. Będzie on wykorzystywany do ostrzegania przed zagrożeniami związanymi z możliwymi zderzeniami obiektów kosmicznych, spadku na Ziemię szczątków statków kosmicznych lub ciał niebieskich oraz  przed gwałtownym wzrostem aktywności Słońca.

źródło:

https://naukawpolsce.pap.pl/

Możliwość komentowania Program Kosmiczny w prekonsultacjach społecznych – Polska została wyłączona

Czy laserem i barwnikiem da się wykryć szkodliwe zmiany DNA?

Czy da się wykryć zmiany w strukturze DNA, które mogą być przyczyną chorób genetycznych? Fizycy z UW wykorzystali do tego barwnik organiczny, laser oraz efekty oddziaływania światła z materią. Wyniki…

Czy da się wykryć zmiany w strukturze DNA, które mogą być przyczyną chorób genetycznych?

Fizycy z UW wykorzystali do tego barwnik organiczny, laser oraz efekty oddziaływania światła z materią. Wyniki ich prac mogą znaleźć zastosowanie w diagnostyce genetycznej lub diagnostyce chorób otępiennych.

 Badania z zakresu optyki laserowej prowadzone są w Laboratorium Procesów Ultraszybkich (LPU), które działa na Wydziale Fizyki Uniwersytetu Warszawskiego. Naukowcy głównie skupiają się na  m.in. na rozwijaniu czułych metod wykorzystujących barwniki organiczne i lasery.

Barwniki pobudzane światłem laserowym pozwalają badać różne struktury materiałów biologicznych, takich jak DNA lub białka. Wyniki tych prac mogą znaleźć zastosowanie w diagnostyce genetycznej lub diagnostyce chorób otępiennych. W przyszłości mogą służyć do wczesnego wykrywania tych chorób – wyjaśnia Uniwersytet Warszawski na stronie internetowej.

Doświadczenie przeprowadzone i opisane w „The Journal of Physical Chemistry Letters” polegało na wykorzystaniu metody zwanej laserowaniem. Technika optyczna polega na optycznej  zmianie w strukturze DNA już na poziomie molekularnym.

„Próbki DNA o określonej strukturze można zsyntezować w warunkach laboratoryjnych. Następnie można je rozpuścić w wodzie i w wyniku zmieszania DNA z barwnikiem organicznym Tioflawiną T badać strukturę DNA. Barwnik Tioflawina T ma szczególne znaczenie, ponieważ jest akceptowalnym przez środowisko medyczne znacznikiem wchodzącym w reakcję z chorobotwórczymi białkami i DNA. (…) Nici DNA oplatają Tioflawinę T i poprzez zmianę konfiguracji geometrycznej barwnika intensywność świecenia daje nam odpowiedź, czy łączy się z helisą DNA, czy też z fragmentem, który może brać udział w generowaniu chorób. Ta intensywność świecenia wywodzi się ze wzmocnionej emisji spontanicznej, która jest podstawą do zjawiska zwanego laserowaniem”

─ tłumaczy dr inż. Piotr Hańczyc z Wydziału Fizyki UW.

Naukowiec dodaje, że różnica między zwykłą fluorescencją a zjawiskiem wzmocnionej emisji spontanicznej polega na dużej zmienności intensywności światła emitowanego przez Tioflawinę T związaną z DNA.

„W eksperymencie najbardziej interesujący jest moment, w którym intensywność świecenia próbki rośnie skokowo. Kontrolując moc lasera świecącego na próbkę sprawdzamy, w którym momencie nastąpi skok intensywności świecenia pochodzący od Tioflawiny T, która oddziałuje z DNA. Nadchodzi wtedy moment tzw. progu generacji wzmocnienia emisji, w którym pojawia się bardzo intensywne świecenie. To właśnie ten próg generacji wzmocnienia emisji w Tioflawinie T jest mocno sprzęgnięty z konkretną strukturą DNA. Próg jest dla nas informacją na temat struktury, z którą barwnik oddziałuje. Dowiadujemy się, czy barwnik łączy się z nicią DNA o prawidłowej budowie, czy też z miejscem potencjalnie chorobotwórczym”

─ tłumaczy dr inż. Piotr Hańczyc.

Naukowcy z UW są również zaangażowani w prace w międzynarodowym konsorcjum pod kierunkiem University of Oxford. Zadaniem naukowców z UW jest opracowanie wczesnych metod wykrywania białek związanych z chorobą Parkinsona. Natomiast konsorcjum pracuje nad szczepionką, która mogłaby zablokować rozwój choroby Parkinsona zanim pojawią się efekty symptomatyczne.

źródło:

PAP – Nauka w Polsce

Możliwość komentowania Czy laserem i barwnikiem da się wykryć szkodliwe zmiany DNA? została wyłączona

Co to są Bitcoiny i o co w nich chodzi? [Materiał dla zielonych]

Bitcoiny dla większości osób kojarzą się z pewną formą nowoczesnego pieniądza, na której można dużo zarobić. Na tym kończy się jednak najczęściej nasza wiedza. Z tego artykułu dowiesz się co…

Bitcoiny dla większości osób kojarzą się z pewną formą nowoczesnego pieniądza, na której można dużo zarobić. Na tym kończy się jednak najczęściej nasza wiedza. Z tego artykułu dowiesz się co to są Bitcoiny i jak one w ogóle działają, a temat przybliża Piotr Rysztak.

AUTOREM MATERIAŁU JEST PIOTR RYSZTAK, AUTOR KANAŁU: Piotr Rysztak – Wszystko to Ekonomia

Jak to się zaczęło – geneza Bitcoina i pierwotne założenia

Zrozumienie Bitcoina rozpoczynam od jego genezy i przyjrzenia się jego pierwotnym założeniom oraz celom. Bitcoin powstał po kryzysie finansowym w 2008 roku. Wymyślił je anonimowy twórca, który kryje się pod pseudonimem Satosi Nakamoto. Do dzisiaj nie wiadomo czy jest to jedna osoba, grupa, czy jakaś organizacja. W 2008 roku Satoshi Nakamoto opublikował w Internecie manifest zatytułowany „Bitcoin: A Peer-to-Peer Electronic Cash System”, w którym przedstawił koncepcyjne i techniczne szczegóły systemu płatności, który pozwoliłby osobom fizycznym na wysyłanie i otrzymywanie płatności bez angażowania jakichkolwiek pośredniczących instytucji finansowych.

Wesprzyj zrzutkę Nauka. To Lubię

We wstępie tego manifestu czytamy wyraźnie, że głównym problemem, jaki dostrzega Nakamoto jest odwracalność transakcji i idący za tym koszt mediacyjny, który trzeba ponieść opłacając zaufaną osobę trzecią (np. bank). Nieodwracalne transakcje oznaczają brak sporu do rozstrzygnięcia, a skoro nie ma sporu, to nie ma związanego z nimi kosztu. To powinno według jego teorii umożliwić tanie przeprowadzanie wielu małych transakcji.

Jeśli wiesz co nieco na temat BITCOINów, to na pewno dostrzegasz, że z pierwotnych założeń i celów nie zostało już wiele, a ten projekt od dawna zaczął żyć własnym życiem. Jest to projekt open source, w którym każdy ma dostęp do jego kodu i społeczność programistów może go (teoretycznie) zmienić w przyszłości. Ewolucja jest czymś dobrym, a zostawienie tego projektu w rękach społeczności być może przekształci go w coś, o czym Nakamoto nawet nie śnił.

Jak działają Bitcoiny – podstawowe informacje

Wiemy już, jakie założenia i cele miał Nakamoto, teraz czas na kilka słów na temat tego, jak Bitcoin właściwie działa? Wbrew pozorom nie jest to żadna wysoce wyrafinowana technologia, lecz raczej sprytne i kreatywne wykorzystanie istniejących rozwiązań, które przełożyło się na rewolucyjny wynalazek.

Sieć Bitcoina można porównać do księgi z wyciągiem wszystkich historycznych transakcji, które się dotychczas odbyły. Każda transakcja pomiędzy portfelami, na których znajdują się Bitcoiny jest publiczna i zapisana w tej księdze. Taka księga jest przechowywana na wielu komputerach i każdy z nich przechowuje wszystkie historyczne informacje. Nie ma głównego serwera, który mógłby stać się celem fizycznego ataku w celu zniszczenia sieci i jest to główna zaleta Bitcoina.

Ale takie rozwiązanie ma też swoją cenę. Jest nią ograniczenie rozmiaru tej księgi, żeby nie rozrosła się za bardzo, a jej przechowywanie nie wymagało ogromnych ilości danych, co jednak ogranicza liczbę możliwych do zapisania na każdej pojedynczej „stronie” transakcji.

Bitcoiny co to jest

Wspomniana księga nazywana jest łańcuchem bloków, ponieważ Bitcoin zapisując kolejne strony swojej księgi nie tworzy ich w oderwaniu od tego, co zostało zapisane wcześniej. Aby dodać nowy fragment, musi on pozostawać w zgodzie ze wszystkim poprzednimi. Tak powstaje łańcuch powiązanych ze sobą wcześniej stron (z angielskiego block chain).

Z kolei, żeby uniknąć oszustw podczas dokonywania transakcji, powstał mechanizm zwany dowodem pracy (proof of work).

Żeby dodać nowy blok do sieci Bitcoin wymagane jest wykonanie pracy, która polega na rozwiązaniu łamigłówki matematycznej. Tysiące komputerów na świecie w każdej chwili pracuje nad jej rozwiązaniem, osoby nadzorujące ten proces nazywane są potocznie Górnikami Bitcoina. Pierwszy Górnik, któremu uda się rozwiązać to zadanie dostaje nagrodę w postaci nowych Bitcoinów i opłaty zaproponowanej przez użytkowników, aby to ich transakcja była zapisana w nowym bloku.

Duża trudność w rozwiązaniu tego zadania matematycznego sprawia, że nie opłaca się próbować oszukać, ponieważ sprawdzenie poprawności danych jest bardzo proste, a jak oszukamy to nasza praca włożona w rozwiązanie łamigłówki pójdzie na marne.

Tak oto z grubsza wyglądają zasady działania sieci Bitcoin i wykonywania w nich transakcji.

Kopanie Bitcoinów

Sercem całego systemu jest proces potwierdzania transakcji pomiędzy portfelami, wspomniany już wcześniej proof of work (dowód pracy). To na nim opiera się funkcjonowanie sieci Bitcoina. Nakamoto przy tworzeniu tego mechanizmu wykazał się sporą kreatywnością i jest to naprawdę ciekawe i innowacyjne rozwiązanie.

Tak jak wcześniej było wspomniane, Górnicy w zamian za zatwierdzanie transakcji dostają w nagrodę nowe Bitcoiny. Tutaj warto zaznaczyć, że ostateczna podaż Bitcoina jest ograniczona do około 21 mln sztuk. Liczba Bitcoinów, jakie dostają w nagrodę górnicy maleje o połowę, co 210 tys. wykopanych bloków.

Aktualnie jest to 6,25 BTC za blok – to zjawisko nazywane jest Halvingiem i występuje co około 4 lata.

Jest to przybliżony czas, ponieważ jest on powiązany z trudnością wykopywania kolejnych bloków. Algorytm jest zaprojektowany tak, aby co 10 minut udało się znaleźć rozwiązanie dla wspomnianej zagadki matematycznej. Jeżeli moc obliczeniowa się zwiększa, to czas się skraca, więc trudność zagadki będzie rosła, żeby osiągnąć 10 minut i odwrotnie. Jeżeli moc obliczeniowa spada, to trudność też spada, aby ostatecznie nowy blok powstał po 10 minutach. Zatem średnio co 10 minut zostaje zatwierdzony nowy blok, czyli do naszej księgi dopisywana jest kolejna kartka z historią nowych transakcji.

Co to jest zagadka matematyczna?

Dobrze jest wyjaśnić, czym jest ta zagadka matematyczna, bo na niej opiera się cała magia.

Zagadka matematyczna to wykorzystanie zestawu funkcji kryptograficznych znanych jako SHA-256. To bardzo popularna funkcja, która pomaga zabezpieczać wiele cennych informacji przesyłanych w sieci. Zamienia ona dowolny tekst na losowy ciąg znaków poprzez nieodwracalne działania, a powstały hash, bo tak się nazywa wynik tej operacji, jest zawsze o tej samej długości.

Generalnie minimalna zmiana w szyfrowanej wiadomości skutkuje diametralnie różnym wynikiem. Ta właściwość została wykorzystana w kopaniu Bitcoina. Zagadka polega na znalezieniu takiej zmiennej, aby po dodaniu jej do informacji o transakcjach, jakie chcemy w nowym bloku zamieścić i dodaniu hasha poprzedniego bloku powstał nowy hash, którego początkowe znaki zaczynają się od konkretnej liczby zer. Z racji tego, że funkcja hashująca daje losowe wyniki, nie można przewidzieć jaką zmienną dać, aby osiągnąć zamierzoną ilość zer w wyniku, a więc jedyna metoda, to metoda prób i błędów.

Bitcoiny co to

Właśnie stąd bierze się trudność kopania Bitcoinów – im więcej zer chcemy, aby pojawiło się na początku naszego hasha, tym więcej kombinacji musimy przeliczyć, aby odnaleźć satysfakcjonujący nas wynik. Aktualnie są to naprawdę gigantyczne ilości obliczeń. Pierwszy górnik, który znajdzie odpowiedni hash wygrywa nagrodę za dopisanie kolejnego bloku. Tak powstały nowy hash plus kolejne transakcje oczekujące na zatwierdzenie służą jako podstawa do tworzenia kolejnego bloku.

Tak powstaje nasz łańcuch połączonych bloków z zapisanymi transakcjami.  Górnik za to, że to on pierwszy dodał poprawny nowy blok dostaje nagrodę w postaci nowo wyemitowanych Bitcoinów, a także opłat jakie zaproponowali użytkownicy, aby to ich transakcje zapisał w nowo kopanym bloku. Oczywiście górnicy w pierwszej kolejności wybierają te z najwyższymi opłatami.

Dwie pizze za miliard złotych – co dalej z Bitcoinem?

Takie rewolucyjne podejście do finansów na samym początku było ciekawostką informatyczną, a pierwsze transakcje traktowano jako testy. Niech świadczy o tym transakcja, w której w 2010 roku za dwie pizze zapłacono 10 tysięcy BTC, które dzisiaj warte są ponad 1 mld złotych. Dopiero z czasem i po serii rzeczywistych potwierdzień o pozytywnym funkcjonowaniu tego mechanizmu, Bitcoiny zbierały rzeszę zwolenników, którzy uwierzyli, że Bitcoin ma realne szanse zmienić układ sił w światowych finansach. Bitcoin od momentu swojego powstania przeszedł bardzo daleką drogę i nikt nie jest w stanie stwierdzić, dokąd ona dokładnie prowadzi.

Jest to rozwiązanie rewolucyjne, ale z uwagi na to, że Bitcoin to młode rozwiązanie oraz Nakamoto nie przewidział wielu wąskich gardeł swojego rozwiązania, które dopiero po czasie i odpowiedniej skali dają o sobie znać, nie wiadomo, co w przyszłości stanie się z Bitcoinem. Choć Bitcoin ma wiele zalet, jednak w praktyce okazuje się, że nie jest wolny od wad.

Jeśli chcesz dowiedzieć się więcej o zagrożeniach z jakimi musi się zmierzyć ta techonoliga, obejrzyj film „BITCOIN vs reguła dziesiątego”, w którym Piotr Rysztak postarał się zgłębić temat fundamentów Bitcoina.

Możliwość komentowania Co to są Bitcoiny i o co w nich chodzi? [Materiał dla zielonych] została wyłączona

Politechnika Gdańska będzie mierzyć zanieczyszczenie światłem

Sukces gdańskiej uczelni technicznej, która jako pierwsza w Polsce dołączyła do międzynarodowej sieci pomiaru jasności nieba Globe at Night – Sky Brightness Monitoring Network. Sieć składa się z 64 czujników…

Sukces gdańskiej uczelni technicznej, która jako pierwsza w Polsce dołączyła do międzynarodowej sieci pomiaru jasności nieba Globe at Night – Sky Brightness Monitoring Network. Sieć składa się z 64 czujników do długoterminowego monitoringu, które umieszczone zostały w 19 krajach.

Wesprzyj zrzutkę Nauka. To Lubię

Globe at Night to międzynarodowa kampania, która opiera się na nauce obywatelskiej (citizen science). Celem przedsięwzięcia jest uświadamianie ludzi, czym jest jest zanieczyszczenie światłem oraz jaki ma ono wpływ na człowieka i środowisko naturalne.

W akcji mogą brać udział amatorzy, którzy prowadzą badania jasności otoczenia nocą z pomocą smartfonów. W efekcie od 2006 roku ochotnicy wykonali 185 tys. pomiarów na terenie 180 krajów.

Elementem kampanii informacyjnej jest sieć Globe at Night – Sky Brightness Monitoring Network (GaN-MN), która opiera się na pomiarach dokonywanych z pomocą profesjonalnych czujników.

Politechnika Gdańska dołącza do projektu

Teraz, w dużej mierze dzięki zaangażowaniu grupy badawczej ILLUME działającej w ramach Centrum EkoTech, do przedsięwzięcia, jako pierwsza placówka naukowa w Polsce, dołączyła Politechnika Gdańska. Czujnik, który będzie dokonywał pomiarów zamontowano na dachu jednego z wysokich budynków uczelni. Pomiar jasności nieba będzie wykonywany non stop na terenie kampusu uczelni, a dzięki połączeniu z siecią dostęp do danych będzie możliwy ze wszystkich czujników umieszczonych w różnych krajach.

Pomysł po stronie PG zainicjowała i wczesne rozmowy prowadziła dr inż. arch. Karolina Zielińska-Dąbkowska z Wydziału Architektury, natomiast dr inż. Katarzyna Bobkowska z Wydziału Inżynierii Lądowej i Środowiska nadzorowała dalsze prace związane m.in. z uruchomieniem czujnika i dołączeniem do sieci.

Politechnika Gdańska prowadzi także badania zmian jasności nieba w ramach grantu: „Innowacyjna metoda monitorowania zanieczyszczenia światłem sztucznym w środowisku naturalnym i zurbanizowanym z wykorzystaniem bezzałogowych platform latających (dronów)” finansowanego w ramach programu Argentum Triggering Research Grants, pod kierownictwem dr inż. Katarzyny Bobkowskiej.

Więcej informacji na stronie:

https://pg.edu.pl/aktualnosci/2021-07/politechnika-gdanska-dolaczyla-do-miedzynarodowej-sieci-pomiaru-jasnosci-nieba

http://globeatnight-network.org/index.html

Źródło: naukawpolsce.pap.pl

Możliwość komentowania Politechnika Gdańska będzie mierzyć zanieczyszczenie światłem została wyłączona

Mikroroboty z oleju, wody i detergentu, które pobierają energię z różnic temperatury

Naukowcy z europejskich ośrodków naukowych, w tym z Polski, opracowali wspólnie pływające mikroroboty, które pobierają energię z różnic temperatury. Udało się to stworzyć po tym, jak zmieszano kropelki oleju z…

Naukowcy z europejskich ośrodków naukowych, w tym z Polski, opracowali wspólnie pływające mikroroboty, które pobierają energię z różnic temperatury. Udało się to stworzyć po tym, jak zmieszano kropelki oleju z wodą i detergentem. Odkrycie może znaleźć zastosowanie m.in. w badaniach nad bakteriami.

Nowa praca opublikowana na łamach „Nature Physics” pokazuje, że mikroskopijne nieskomplikowane roboty można stworzyć wyjątkowo prosto.

Niewielkie, pływające urządzenia, które powstały na skutek połączenia kropelek oleju, wody oraz substancji, która przypomina detergent pobierają energię po to, by następnie móc się nią naładować.

Wesprzyj zrzutkę Nauka. To Lubię

Jak działają mikroroboty?

Przebywając w niskiej temperaturze ten nietypowy robot emituje z siebie struktury przypominające wici. Dzięki tarciu między nimi i otoczeniem, powstaje ruch. Jednak po podgrzaniu, wici się chowają i kumulują energię cieplną, która z kolei pozwala im na działanie po ochłodzeniu.

Okazuje się, że proces ładowania przez roboty może odbywać się wielokrotnie i za jednym cyklem mikrorobot jest w stanie pływać przez 12 minut.

„Badania biologiczne pokazują, że aby stworzyć nawet najprostszą sztuczną komórkę, potrzeba ponad 470 genów. Jednak dzięki naszej międzynarodowej współpracy pokazaliśmy, że przy użyciu kilku niedrogich składników możemy uzyskać rodzaj materii, która zmienia kształt i porusza się, jak żywy organizm” – mówi Stoyan Smoukov z Queen Mary University of London.

Roboty pomogą w badaniach nad żywymi komórkami różnego typu.

„Przede wszystkim proponujemy bardzo prosty do wytworzenia i kontroli układ, który posiada wiele cech naturalnych mikroorganizmów, a więc kropelki zdolne do poruszania się bez udziału zewnętrznych sił. Mikroskopijne pływaki (takie jak bakterie, plemniki, orzęski etc.) są bardzo skomplikowane, bo ich ruch jest wynikiem procesów biochemicznych wewnątrz komórek, które trudno kontrolować. Dlatego dokładne zrozumienie fizycznych mechanizmów rządzących ich ruchem jest wyzwaniem – niełatwo 'odfiltrować’ tę złożoność biologiczną” – mówi dr Maciej Lisicki z Wydziału Fizyki Uniwersytetu Warszawskiego, współtwórca wynalazku.

„Z drugiej strony, naukowcy na całym świecie pracują nad rozmaitymi sztucznymi pływakami wykorzystującymi różne strategie, żeby ’naśladować’ żywe organizmy. Idea ta polega na zaproponowaniu mikropływaka, który pobierać będzie energię ze swojego lokalnego otoczenia i przekształcać ją w energię kinetyczną swojego ruchu. W przypadku naszych kropelek jest to energia termiczna otoczenia” – tłumaczy.

Oszczędna produkcja

Do wyprodukowania mikrorobotów nie potrzeba dużych nakładów finansowych. okazuje się, że te roboty z powodzeniem można wykonać przy pomocy najtańszego sprzętu laboratoryjnego lub nawet we własnym domu. Co ważne, tłuszczowo-wodne twory pod kątrm toksykologicznym nie stanowią zagrożenia dla żywych organizmów.

„Nasze kropelki są biokompatybilne, więc potencjalnie mogą zostać wykorzystane do badania dynamiki wielu poruszających się pływaków w mieszaninie żywych organizmów i 'sztucznych’ pływających kropelek. Byłoby to ważne narzędzie do zrozumienia, w jaki sposób pływaki zachowują się w zatłoczonym środowisku i jak w takiej sytuacji na siebie wpływają” – wyjaśnia dr Lisicki.

Więcej informacji na stronach:https://www.alphagalileo.org/en-gb/Item-Display/ItemId/210600 https://www.fuw.edu.pl/informacja-prasowa/news7080.html https://www.nature.com/articles/s41567-021-01291-3

Źródło: naukawpolsce.pap.pl

Możliwość komentowania Mikroroboty z oleju, wody i detergentu, które pobierają energię z różnic temperatury została wyłączona

Sieć 5G – czy jest się czego bać?

Wokół technologii 5G w ostatnich latach narosło mnóstwo mitów i zrobiło się niezłe zamieszanie. Czas, aby uporządkować wiedzę, dlatego w tym materiale opowiem, jak działa i czym jest sieć 5G…

Wokół technologii 5G w ostatnich latach narosło mnóstwo mitów i zrobiło się niezłe zamieszanie. Czas, aby uporządkować wiedzę, dlatego w tym materiale opowiem, jak działa i czym jest sieć 5G oraz czy powinniśmy się jej obawiać?

Niniejszy tekst włączam w niedawno powstały cykl pod nazwą „Nauka. Sprawdzam TO”, w którym rozprawiam się z naukowymi mitami.

Na początek krótka definicja. Co to jest 5G? Jest to sieć bardziej pojemna, czyli umożliwiająca przesyłanie większej ilości informacji. To standard telefonii, który sukcesywnie jest wprowadzany w wielu krajach świata. Bez niego nasze miasta nie będą SMART. Zgodnie z unijnymi regulacjami w każdym kraju członkowskim do końca 2020 roku musiało być przynajmniej jedno miasto w całości pokryte siecią komórkową nowej generacji, czyli siecią komórkową 5G.

Co daje 5G?

Nie tylko duże miasto może w godzinach szczytu totalnie się zakorkować. To samo dotyczy sieci telefonicznej. Łączność mobilna piątej generacji, czyli 5G, może przesyłać dane 1000-krotnie szybciej niż sieci, które działają dzisiaj. Bez nowego standardu bardzo trudno sobie wyobrazić powszechność takich urządzeń jak autonomiczne samochody, dostarczające nam produkty drony, Internet Rzeczy, elektronika ubieralna czy coraz powszechniej pojawiające się urządzenia robotyczne. W końcu chcemy, przynajmniej większość z nas chce, mieć możliwość oglądania telewizji w standardzie 4K na urządzeniach mobilnych czy streamingowania filmów wysokiej jakości i przesyłania zdjęć.Wesprzyj zrzutkę Nauka. To Lubię

Zgodnie z wyliczeniami na jednym kilometrze kwadratowym w sieci 5G będzie mogło pracować kilkaset tysięcy różnych urządzeń. Za trzy lata w sieci połączonych będzie prawie 30 miliardów różnych urządzeń elektronicznych. Szacuje się, że ponad 80 proc. całego ruchu w sieci będzie pochodziło z przesyłania, oglądania materiałów wideo, w tym materiałów 4K. Do roku 2025 polscy operatorzy będą musieli zwiększyć pojemność sieci siedmiokrotnie. I w ogóle nie chodzi o dzwonienie, tylko o przesyłanie danych. Świat idzie w kierunku powszechnej wymiany informacji o wszystkim przez każde urządzenie. Doskonałym tego przykładem są chociażby autonomiczne samochody.

Co z infrastrukturą technologii 5G?

Po to, by mógł zadziałać nowy standard sieci, najpierw trzeba wyznaczyć dla niego nowe częstotliwości. Najprościej mówiąc – fale, które będą ten zwiększony ruch przenosiły, nie mogą być tymi samymi falami, które dzisiaj są w telefonii już wykorzystywane. Widmo fal elektromagnetycznych jest szerokie, więc można by pomyśleć, że wybranie nowych częstotliwości nie powinno stanowić żadnego problemu. Ale niestety nie jest to takie proste. Do niedawna jedna z częstotliwości, konkretnie 700 MHz, na której ma działać 5G w Polsce, ale także w pozostałych państwach Europy w Afryce i na Bliskim Wschodzie, w Rosji była używana przez telewizję naziemną oraz wojsko. W tej sprawie udało już się z Rosjanami częściowo porozumieć.

Ogromnym wyzwaniem jest wybudowanie nowej infrastruktury. W gęsto zabudowanym terenie miejskim anteny systemu 5G dla wyższych częstotliwości, a wyższa częstotliwość to mniejszy zasięg fal, będą musiały być rozlokowane co kilkaset metrów. Dla najwyższych częstotliwości, 26 GHz, zasięg wynosi kilka metrów. Większe zagęszczenie anten nie będzie jednak oznaczało, że co kilkanaście metrów będą budowane maszty. Nadajniki i odbiorniki będą mogły być instalowane, na przykład w latarniach ulicznych. Pokrycie całego kraju będzie zapewniała sieci 5G częstotliwości 700 MHz, ale tam, gdzie jest szczególnie dużo ludzi, na przykład na stadionach czy w centrach handlowych, będzie dodatkowe pokrycie siecią wyższych częstotliwości.

Maszty 5G

I tutaj pojawia się kolejne wyzwanie. Gęściej budowane anteny oznaczają, że przekroczone zostaną polskie normy promieniowania elektromagnetycznego. Polskie normy są na tle europejskim wyjątkowo restrykcyjne. Niektóre kraje Europy dopuszczają nawet 100-krotnie wyższe natężenie promieniowania niż u nas. Nie zmienia to jednak faktu, że więcej anten, nowe częstotliwości i przekraczane normy wzbudzają lęk przed nową siecią. Czy jest się czego bać? Czy strach przed 5G jest uzasadniony?

Nie taki diabeł straszny… Czy sieć 5G jest niebezpieczna?

Kilka miesięcy temu zrobiłem materiał o tym, że nie każde promieniowanie powoduje nowotwory. Sieć 5G jest rozwinięciem technologii, a więc wcześniejszych sieci 2G, 3G, 4G, a nie jest nową technologią. To oznacza, że badania wpływu fal elektromagnetycznych z zakresu mikrofal, bo na nich działają telefony komórkowe, są prowadzone już od kilkudziesięciu lat. Regularnie pojawiają się też duże prace przeglądowe. Na stronach Światowej Organizacji Zdrowia znajdziecie podsumowanie tych badań i wnioski, że badania nie wykazały statystycznego związku między falami elektromagnetycznymi, wykorzystywanymi w telekomunikacji a zapadalnością na jakiejkolwiek choroby.

Czy to oznacza, że fale elektromagnetyczne są bezpieczne? Na tak zadane pytanie nie da się udzielić poprawnej odpowiedzi. Wiele zjawisk fizycznych, a już szczególnie tych związanych ze światem ożywionym, nie jest zerojedynkowych, a do ich zrozumienia wykorzystujemy statystykę. Czy szczepionki są bezpieczne czy nie? Statystycznie tak, co nie znaczy, że nie ma osób, które po szczepieniu nie miały odczynów poszczepiennych. Z 5G jest podobnie.

Fale elektromagnetyczne mają wpływ na nasz organizm. Przy bardzo dużych dawkach ten wpływ jest negatywny, ale nie ma dawki, która byłaby granicą, za którą możemy powiedzieć, że teraz już kompletnie nic nam nie grozi. Z tych badań statystycznych wynika, że korzystanie z sieci 5G będzie bezpieczne, bo mikrofale, na których ten system się opiera są badane od wielu, wielu lat, a częstotliwości, które 5G będzie wykorzystywało dzisiaj też są w eterze. Tyle tylko, że służą innym technologiom.

Co daje 5G

Czy to wszystko to zwyczajny spisek?

Nie tylko w przypadku 5G, ale także w wielu innych technologiach, pojawia się argument, że nie ma co wierzyć w badania naukowe i w to co mówią naukowcy, bo wszyscy oni chodzą na pasku biznesu i są po prostu skorumpowani. Wybaczcie, ale tego argumentu kompletnie nie kupuję. Nie wierzę w globalny spisek fizyków, fizyków medycznych, onkologów czy inżynierów. Podczas ostatniego Międzynarodowego Kongresu BIO M, na którym spotykają się najlepsi światowi eksperci zajmujący się bioelektromagnetyzmem, powtórzono, że nic nie wskazuje na to, by fale elektromagnetyczne wykorzystywane w telekomunikacji, były dla ludzi szkodliwe.

Warto przy okazji pamiętać, że przez to, że sieć 5G będzie wymagała większej liczby mniejszych anten, ich moc będzie mniejsza niż anten wykorzystywanych w sieci 3G czy 4G, które działają już dzisiaj. Warto też pamiętać, że generalnie moc anten i samych telefonów dzisiaj jest wielokrotnie mniejsza niż telefonów pierwszej czy drugiej generacji. Moce promieniowania wykorzystywane w technologii 5G będą dużo mniejsze i stąd ich wpływ na zdrowie powinien też być mniejszy.

Linki do badań, które wykorzystałem podczas tworzenia materiału:

https://academic.oup.com/jnci/article…

http://interphone.iarc.fr/interphone_…

https://www.gov.pl/web/5g/pole-elektr…

http://ptze.pl/elektrofakty

https://www.ncbi.nlm.nih.gov/pubmed/2…

https://www.itu.int/dms_pubrec/itu-r/…

Możliwość komentowania Sieć 5G – czy jest się czego bać? została wyłączona

Żelazna Kopuła – co to jest i jak działa izraelska obrona przeciwrakietowa?

W ostatnich dniach w mediach było sporo filmów i zdjęć z Izraela, które wyglądały niczym kadry z filmów science-fiction. Mam na myśli rakiety odpalane jedna za drugą i strącane przez…

W ostatnich dniach w mediach było sporo filmów i zdjęć z Izraela, które wyglądały niczym kadry z filmów science-fiction. Mam na myśli rakiety odpalane jedna za drugą i strącane przez – nazwijmy to antyrakiety. Całość wyglądała tak, jak gdyby nad miastami było jakieś pole siłowe. Dzisiaj chcę o nim opowiedzieć.

Słowo wstępu 

Dwie sprawy na początek. W tym filmie chcę opowiedzieć o technologii. Nie chcę wchodzić w sprawy konfliktu izraelsko-palestyńskiego. Sprawa jest znacznie bardziej złożona niż wydaje się większości komentujących ją w Internecie. Ze swojej strony jak zawsze polecam podcast Dariusza Rosiaka, Raport o Stanie Świata, w którym eksperci regularnie wyjaśniają zawiłości tej – w zasadzie – wojny. Ja w tym materiale się tego nie podejmuję.

I sprawa druga, bardzo serdecznie dziękuję osobom które wspierają różne działania Nauka To Lubię poprzez zrzutkę. Dzięki Wam mogę rozwijać kolejne projekty.

Wesprzyj zrzutkę Nauka. To Lubię

W wielu filmach science-fiction pojawiają się pola siłowe. W sumie – przynajmniej w języku polskim – pole siłowe to zagadnienie, które pochodzi z chemii obliczeniowej i jest ono związane z energią potencjalną układu atomów albo cząstek, ale zazwyczaj kojarzymy je raczej z fizyką. To bariera, jakaś powierzchnia, która chroni, choć czasami ukrywa statki kosmiczne czy całe miasta. Jak gdyby oddziela świat zewnętrzny od wewnętrznego. Każdy kto chce te chronione miejsca zaatakować, a w niektórych przypadkach nawet się do nich przedostać zostaje zniszczony. W świecie realnym, w zasadzie pole siłowe to jakaś przestrzeń, w którym działa dowolna siła, ale nieczęsto to przypomina barierę nie do przebicia. Takim wyjątkiem może – w pewnym sensie – jest horyzont zdarzeń wokół czarnej dziury? Tylko tutaj to raczej obszar z którego nie da się wydostać na zewnątrz, a nie obszar do którego nie da się dostać z zewnątrz. No ale to jest zupełnie inny temat. Ale… to nie znaczy, że nie potrafimy chronić obiektów przed wtargnięciem z zewnątrz.

Skuteczność tarczy antyrakietowej

Kilka lat temu byłem na granicy między Koreą Północną a Południową. To jeden z najbardziej naszpikowanych bronią kawałków naszej planety, który dla niepoznaki nazywa się strefą zdemilitaryzowaną. Są tam urządzenia robotyczne, które otwierają ogień do każdego poruszającego się w konkretnym kierunku obiektu. Coś w stylu bariery czy pola siłowego. Technicznie rzecz biorąc, wybudowanie urządzenia, które – wyposażone w moduł rozpoznawania obrazu – niszczyłoby konkretny samochód, albo zabijałoby konkretnego człowieka, gdy ten przekroczy jakoś ustaloną granicę, nie jest żadnym problemem. Korzystając z podobnych, a czasami identycznych technologii, można wybudować całą tarczę, albo wręcz kopułę, która chroni obszar pod sobą przed konkretnymi zagrożeniami. W przypadku Izraela tym zagrożeniem jest ostrzał rakietowy. A ten system nazywa się żelazna kopuła. Z ang. Iron Dome. W jednym z artykułów na ten temat przeczytałem, że pierwotnie miała się nazywać złotą kopułą, ale ostatecznie uznano że ta nazwa jest zbyt pretensjonalna.

Jak działa tarcza Izraela

Źródło: PAP/EPA, Fot: Ilia Yefimovich

Prace nad własnym systemem obrony przeciwrakietowej w Izraelu rozpoczęto jakieś 15 lat temu, kiedy podczas tzw. II wojny libańskiej na Izrael spadło kilka tysięcy pocisków rakietowych. System został zaprojektowany tak, by niszczył rakiety skierowane na cele cywilne. To system krótkiego zasięgu ziemia-powietrze. Składa się z radaru oraz wyrzutni pocisków przechwytujących Tamir. Rakiety systemu potrafią śledzić cele, a tymi celami mogą być nie tylko rakiety czy pociski moździerzowe, ale także samoloty, helikoptery czy drony. W praktyce najczęściej system przechwytuje i niszczy rakiety. Jego skuteczność w warunkach bojowych przekracza 90 proc. W ostatnich dniach, w kierunku Izraela w ciągu trochę ponad doby wystrzelono 1000 rakiet. Tylko kilkanaście dosięgnęło celu.

Jak działa tarcza Izraela?

Wspominałem, że system składa się z radaru i wyrzutni. W rzeczywistości jest to bardziej skomplikowane. Jest radar wykrywający i śledzący cele. Jest system zarządzania walką jest system kontroli uzbrojenia oraz automatyczna wyrzutnia rakiet. Bateria systemu to cztery kontenery, z których każdy zawiera 20 rakiet. System wyrzutni nie wymaga obsługi, działa automatycznie. System kontroli uzbrojenia – tzw. BMC – jest mózgiem Żelaznej Kopuły. To tutaj podejmowana jest decyzja, czy strzelać, czy nie. Np. wtedy gdy system wyliczy, że rakieta spadnie na teren niezamieszkały albo do morza, nie niszczy jej. System działa niezależnie od pory dnia czy nocy i co ważne, niezależnie od pogody.

Co ważne, izraelskie rakiety Tamir nie trafiają w cel czyli nadlatującą rakietę. One wybuchają w jej pobliżu, a ich odłamki niszczą wszystko wokoło. Co ważne, rakiety Tamir są manewrujące, mogą więc podążać za calem.

Tarcza Izraela

Źródło: PAP/EPA, Fot: ABIR SULTAN

Jedna bateria rakiet Tamir to koszt około 50 mln dolarów. Jedna rakieta to około 100 tys. dolarów. To dość mało jak na tak zaawansowany system. Dla porównania, jedna rakieta amerykańskiego systemu przechwytującego Patriot kosztuje 3 mln dolarów. Faktem jest, że Patriot ma zasięg ponad dwukrotnie większy, ale jedna rakieta kosztuje 30 razy więcej.

Odnośnie samych rakiet. Tamir ma wysokość około 3 metrów, waży 90 kg i ma kaliber 155 mm. Ich zasięg wynosi 40 kilometrów, a każda bateria chroni teren o powierzchni 150-160 km kwadratowych. Radar baterii jest w stanie śledzić do 1100 celów powietrznych równocześnie, o ile nie znajdują się one dalej niż 70 km od radaru. Radar śledzi rakietę w zasadzie od momentu jej startu. Szybki komputer wylicza trajektorię setek obiektów równocześnie, a na te, które stanowią zagrożenie dla cywilów wypuszcza Tamiry. Od momentu wykrycia, przez śledzenie, wyliczenie i unieszkodliwienie… to wszystko trwa kilka, kilkanaście sekund.

Żelazna Kopuła i co dalej?

Po to, by tarcza Żelazna Kopuła chroniła cały teren Izraela, potrzeba 13 baterii rakiet Tamir. Dzisiaj Izrael ma takich baterii 10, są rozmieszczone w różnych częściach kraju i są mobilne. Żelazna Kopuła jest systemem zaprojektowanym do ochrony celów cywilnych przed nawet dużą ilością, ale prostych rakiet. Ten system nie poradzi sobie z rakietami latającymi nisko czy z rakietami manewrującymi, stąd – cały czas mówię o celach cywilnych, bo do ochrony celów wojskowych Izrael ma inne systemy przeciwrakietowe – od kilku lat trwają prace nad systemem laserowym nazwanym roboczo Light Blade, czyli świetlne ostrze albo Iron Beam czyli żelazny promień. Tak jak Żelazna Kopuła powstała w trzy lata, tak system laserowy okazał się znacznie trudniejszy do budowy. 

Kłopotem jest synchronizacja źródeł światła laserowego, odpowiednie źródła energii po to, by system mógł strzelać raz za razem no i pogoda. Światło laserowe w atmosferze pełnej chmur czy ogólnie wilgoci jest mocno rozpraszane. Receptą jest podwyższenie mocy laserów, no ale to wymaga większego zasilania i koło się zamyka. Kiedy powstanie pełna laserowa kopuła – nie wiadomo, ale będzie na pewno jeszcze bliżej filmów science-fiction niż to, co widzimy dzisiaj.

Możliwość komentowania Żelazna Kopuła – co to jest i jak działa izraelska obrona przeciwrakietowa? została wyłączona

Czy komputer może odczytać nasze myśli? Pionierskie badania naukowców ze Stanford University

Naukowcy ze Stanford University wszczepili do mózgu sparaliżowanemu mężczyźnie elektrody, które przenoszą to, co wyobraża sobie w głowie, jako tekst na ekranie. Efekty pionierskich prac, które usprawniają komunikację opublikowane zostały…

Naukowcy ze Stanford University wszczepili do mózgu sparaliżowanemu mężczyźnie elektrody, które przenoszą to, co wyobraża sobie w głowie, jako tekst na ekranie. Efekty pionierskich prac, które usprawniają komunikację opublikowane zostały w „Nature”.

Naukowcy ze Stanford University, dzięki wszczepieniu 65-letniemu mężczyźnie, sparaliżowanemu od szyi w dół, tuż pod powierzchnię mózgu dwóch siatek małych elektrod, zdołali stworzyć interfejs mózg-komputer. 

Jak działają elektrody?

Elektrody mają za zadanie odczytywanie aktywności elektrycznej w tej części mózgu, która odpowiedzialna jest za kontrolowanie ruchów dłoni i palców. Do tego wystarczające jest badanie aktywności kilkuset neuronów. Sparaliżowany mężczyzna wyobraził sobie, że pisze odręczne listy, a następnie naukowcy za pomocą algorytmu ustalili wzorce neuronowe, które pasowały do każdej wyobrażonej litery i przekształcili te wzorce w tekst na ekranie.

Eksperyment pokazał, że sparaliżowany mężczyzna tylko z pomocą aktywności mózgu był w stanie napisać 90 znaków, czyli 15 słów na minutę. Dla porównania – to prawie tyle samo, ile wynosi średnia prędkość pisania na smartfonach przez osoby w podobnym wieku – i dwa razy szybciej niż w przypadku dotychczasowych rozwiązań śledzących ruchy oka.

Dla naukowców zaskoczeniem było, że tak dobrze udało się odczytać sygnały dotyczące nieużywanych od roku 2007 kończyn.

Co dalej?

To jeszcze nie koniec badań. Naukowcy chcą przebadać kolejnych ochotników oraz poddać testom osoby, które nie mówią i straciły zdolność poruszania się. 

Badania naukowców ze Sanford University nad przełożeniem aktywności mózgu na tekst lub mowę dałoby szansę osobom sparaliżowanym na porozumiewanie się za pomocą samych myśli.

źródło:

www.naukawpolsce.pap.pl

Wesprzyj zrzutkę Nauka. To Lubię

Możliwość komentowania Czy komputer może odczytać nasze myśli? Pionierskie badania naukowców ze Stanford University została wyłączona

Utalentowani konstruktorzy w studenckim konkursie KOKOS – znamy laureatów

Przydomowa turbina wiatrowa, wyścigowy bolid czy łódź podwodna to niektóre z nagrodzonych niezwykłych prac laureatów studenckiego konkursu KOKOS. Jego celem jest wyłonienie i nagrodzenie najbardziej utalentowanych młodych konstruktorów, skonfrontowanie ich…

Przydomowa turbina wiatrowa, wyścigowy bolid czy łódź podwodna to niektóre z nagrodzonych niezwykłych prac laureatów studenckiego konkursu KOKOS. Jego celem jest wyłonienie i nagrodzenie najbardziej utalentowanych młodych konstruktorów, skonfrontowanie ich prac z wymagającym światem biznesu oraz pomoc w komercjalizacji projektów oraz pozyskaniu inwestorów. Zobaczcie, czym zaskoczyli jurorów tegoroczni laureaci.

25 kwietnia odbyła się Gala Finałowa Konkursu Konstrukcji Studenckich, podczas której wyłonieni zostali najzdolniejsi konstruktorzy wśród studentów uczelni technicznych w całej Polsce. Zwycięzcy zostali wyłonieni w 6 kategoriach: Vehicle, Ecology, Smart Robots, Life Upgrade, Joker oraz w kategorii specjalnej Railway, której patronem zostało PKP S.A., Główny Partner wydarzenia.

Podczas tegorocznej edycji organizatorzy otrzymali rekordową liczbę zgłoszeń, a wśród finalistów znalazło się aż 39 konstrukcji!

Zobaczcie, kto zwyciężył w poszczególnych kategoriach:

  1. Kategoria Vehicle:

Bolid wyścigowy – eWarta stworzony przez zespół PUT Motorsport z Politechniki Poznańskiej

Bolid e-Warta

Bolid eWarta, czyli pierwsza w historii Zespołu konstrukcja o napędzie elektrycznym, łączy nie tylko najbardziej zaawansowane technologie ze świata Formuły 1, ale także jest wspaniałym nawiązaniem do nowego początku. Mianowicie, została zbudowana na bazie pierwszego bolidu PUT Motorsport, który na wszystkich rundach, w których wystartował, został okrzyknięty najlepszym debiutem w historii Formuły Student. Z tak niezawodną konstrukcją, nawet pandemia nie mogła pokrzyżować planów wybitnych konstruktorów z Wielkopolski.

  1. Kategoria Ecology:

GUST wykonany przez Studenckie Koło Naukowe Energetyków z Politechniki Łódzkiej

GUST - przydomowa elektrownia wiatrowa

GUST to prototyp przydomowej turbiny wiatrowej. Ma on za zadanie pokryć przynajmniej częściowo codzienne zapotrzebowanie gospodarstwa domowego na energię elektryczną, jak również przyczynić się do redukcji kosztów i zwiększenia oszczędności. Użycie małej, przydomowej turbiny wiatrowej zaprojektowanej i skonstruowanej przez zespół GUST zredukuje wciąż rosnące koszty związane z zakupem energii elektrycznej od dostawców. Ponadto przyczyni się do ograniczenia zużycia prądu z centralnej sieci, co pośrednio wpłynie na ograniczenie spalania nieekologicznych paliw kopalnych w elektrowniach. Dzięki zastosowaniu przydomowych turbin wiatrowych, indywidualni konsumenci będą bardziej niezależni od centralnej sieci poprzez produkcję energii z wiatru na własny użytek.

  1. Kategoria Smart Robots

Kalman – Autonomiczny Łazik Planetarny zespołu AGH Space Systems z Akademii Górniczo-Hutniczej w Krakowie

Kalman łazik

Łazik planetarny Kalman to projekt rozwijany od 2017 roku. Jego celem od samego początku jest stworzenie w pełni funkcjonalnego, mobilnego robota zdolnego do symulowania misji kolonizacyjnej na Marsie lub Księżycu i testowania nowych rozwiązań technicznych. Oznacza to konieczność stworzenia mobilnej, autonomicznej platformy, zdolnej do wykonywania szerokiej gamy zadań w trudnym terenie, przy jak najmniejszej ingerencji ze strony operatorów. Konstrukcja taka ma charakteryzować się maksymalną autonomią działań, szczególnie w zakresie poruszania się i znajdowania określonych struktur oraz przedmiotów. Dodatkowo, Kalman posiada możliwość przeprowadzania określonych rodzajów badań za pomocą modułu laboratoryjnego – w szczególności wykrywania śladów życia w pozyskanych próbkach gleby.

  1. Kategoria Life Upgrade:

AlterARM, konstrukcja zespołu Jawornicka Dynamics z Politechniki Poznańskiej

Alter Arm

AlterARM to projekt, który wiąże się z implementacją protezy całej górnej kończyny człowieka, wykonany ze skalowalnych modułów wykonanych prawie w całości techniką druku 3D, by można było dostosować ją w prosty sposób do niepełnosprawności docelowego użytkownika. Konstrukcja cechuje się stosunkowo niskim kosztem oraz szybkością wykonania, a dodatkowo posiada również szereg funkcjonalności znajdujących duże zastosowanie w robotyce dzięki wszystkim niezbędnym mechanizmom zintegrowanym wewnątrz ramienia.

  1. Kategoria Joker:

Łódź podwodna OKOŃ V2 wykonana przez OKOŃ Team z Politechniki Warszawskiej

Łódź podwodna Okoń

Projekt został zrealizowany z myślą o międzynarodowych zawodach, do badań naukowych związanych z autonomią i procesami zachodzącymi pod powierzchnią wody, a także do prowadzenia wielopłaszczyznowej współpracy z zewnętrznymi firmami – plany komercjalizacji, wykonywanie testów wodoodpornych urządzeń, próby szczelności i wytrzymałości w środowisku wyjątkowo niekorzystnym dla urządzeń elektronicznych.

  1. Kategoria Railway:

ROSTANICE, projekt którego autorami są Martyna Majer, Milena Szymczak, Magdalena Golina, Mateusz Otto i Agnieszka Strap z Politechniki Wrocławskiej

Dworzec kolejowy dla pociągów magnetycznych Rostanice

Projekt Rostanice przedstawia koncepcję dworca kolejowego dla pociągów magnetycznych. Projektowany dworzec zlokalizowany jest w Złotym Stoku w starej kopalni złota. Miejscowość ta leży przy granicy polsko-czeskiej. Projektowany dworzec wykorzystuje nieużywane już tunele starej kopalni, co minimalizuje ingerencję w strukturę góry. W Złotym Stoku funkcjonował kiedyś transport kolejowy połączony z kopalnią złota. Budynek dworca, który obsługiwał pasażerów stoi do dzisiaj, niestety infrastruktura nie przetrwała z powodu powodzi w 1997 r. Projektowany dworzec prezentuje zupełnie nowe podejście do tego typu obiektów. Zastosowany układ peronów jest niekonwencjonalny, gdyż znajdują się one jeden nad drugim, a główna komunikacja odbywa się pionowo. Takie rozplanowanie pozwala na bardziej intuicyjne poruszanie się użytkowników po obiekcie, wykorzystując tym samym potencjał góry. Co istotne, projektowany dworzec uwzględnia jego stopniową rozbudowę. W pierwszym etapie powstaje jeden peron, który znajduje się najniżej. W miarę rozwoju kolejnictwa i zaniku transportu drogowego będzie rozbudowywany o kolejne perony, które będą piętrzyć się ku górze.

Już od kilku lat Konkurs Konstrukcji Studenckich wydarzenie, które przyciąga młodych konstruktorów. Studenci mają okazję skonfrontować swoje pomysły z wymagającym światem biznesu i nawiązać znajomości, które mogą wpłynąć na dalszy rozwój ich projektów. Realizowalny przez Niezależne Zrzeszenie Studentów projekt spełnia rolę integracji środowiska akademickiego i biznesowego.

Konkurs KOKOS

Szczegółowe informacje na temat Konkursu Konstrukcji Studenckich znajdziecie na stronie internetowej: https://kokos.nzs.org.pl/oraz social mediach: fanpage KOKOS na Facebooku oraz  kokos.nzs na Instagramie.

Wesprzyj zrzutkę Nauka. To Lubię

 

Możliwość komentowania Utalentowani konstruktorzy w studenckim konkursie KOKOS – znamy laureatów została wyłączona

Stanisław Lem zostanie wyróżniony w kosmosie w czasie misji kapsuły SpaceX Crew Dragon

Jeden z członków misji  SpaceX Crew Dragon, która w piątek leci w kosmos, wyróżni w kosmosie  Stanisława Lema w setną rocznice jego urodzin. Misja kosmiczna będzie trwała ponad pół roku….

Jeden z członków misji  SpaceX Crew Dragon, która w piątek leci w kosmos, wyróżni w kosmosie  Stanisława Lema w setną rocznice jego urodzin. Misja kosmiczna będzie trwała ponad pół roku.

Informację o planach upamiętnienia polskiego twórcy science fiction przekazała Polska Fundacja Fantastyki Naukowej, która jest inicjatorem przedsięwzięcia.

Według Szymona Kloski z Krakowskiego Biura Festiwalowego, Stanisław Lem zostanie uhonorowany w kosmosie prawdopodobnie na jesień, pod koniec misji.  Jeszcze nie wiemy w jaki dokładnie sposób, ale przygotowania trwają.

Załoga liczy czterech uczestników misji kapsuły SpaceX Crew Dragon na Międzynarodową Stację Kosmiczną, która rozpocznie się w piątek. Thomas Pesquet, członek załogi (specjalista misji)  – to właśnie on, zgodnie z zapowiedziami, uhonoruje rok Lema.

Pesquet jest astronautą Europejskiej Agencji Kosmicznej, pozostali trzej uczestnicy pracują dla amerykańskiej agencji NASA: Shane Kombrough (dowódca misji), Megan McArthur (pilot) i Akihiko Hoshide (specjalista misji). Badania mają pomóc w jeszcze szerszym poznaniu wszechświata.

Misja kosmiczna SpaceX Crew Dragon rozpocznie się w piątek. Będzie można ją zobaczyć  na stronie internetowej NASA oraz na kanale YouTube:

To już duga misja kapsuły SpaceX Crew Dragon. Pierwsza odbyła się rok temu.

Lem tak ponad 50 lat temu  wyobrażał sobie podróże kosmiczne:

„Kiedy już pilot ułożył się na fotelu, miał po obu bokach cztery rękojeści główne reaktora i sterowniczych dysz odchylających, trzy awaryjne, sześć dźwigni małego pilotażu, pokrętła rozruchu i biegu jałowego oraz regulator mocy, ciągu, przedmuchu dysz, a nad samą podłogą — wielkie szprychowe kółko aparatury klimatyzacyjnej, tlenowej, rączkę instalacji przeciwpożarowej, wyrzutni reaktora (gdyby rozpoczęła się w nim reakcja łańcuchowa nie kontrolowana), linkę z pętlą, przymocowaną do wierzchu szafki z termosami i jedzeniem, pod stopami zaś — wymoszczone miękko i opatrzone strzemiennymi pętlicami pedały hamownic i bezpiecznik wyrzutowy, którego naciśnięcie (pierwej trzeba było nogą rozbić jego kołpak i pchnąć go do przodu) wyrzucało pęcherz razem z fotelem i pilotem oraz wylatującymi za nim strunami spadochronu pierścienno–wstęgowego.” („Opowieści o pilocie Pirxie”)

źródło:

naukawpolsce.pap.pl

Wesprzyj zrzutkę Nauka. To Lubię

Możliwość komentowania Stanisław Lem zostanie wyróżniony w kosmosie w czasie misji kapsuły SpaceX Crew Dragon została wyłączona

Polscy astronomowie w wielkiej europejskiej sieci obserwacyjnej OPTICON-RadioNet Pilot

Z polskim udziałem wystartowała największa europejska sieć koordynująca badania astronomiczne – OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego. Do tej…

Z polskim udziałem wystartowała największa europejska sieć koordynująca badania astronomiczne – OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego.

Do tej pory w Europie działały dwie główne sieci koordynujące współpracę instrumentów naziemnych. Jedna miała związek z obserwacjami astronomicznymi w zakresie widzialnym (OPTICON), a druga w zakresie radiowym (RadioNet). Taka sytuacja trwała przez ponad 20 lat. Teraz zdecydowano o połączeniu sił obu tych grup.

Wraz z rozwojem wiedzy astronomicznej naukowcy potrzebują coraz bardziej zaawansowanych instrumentów, a także takich, które będą się wzajemne uzupełniać. Coraz częściej obserwacje astronomiczne wymagają połączenia analiz na różnych długościach fali elektromagnetycznej. Duży nacisk kładzie się na ujednolicenie metod i narzędzi obserwacyjnych oraz poszerzenie dostępu do wielu różnych instrumentów astronomicznych.

Nowa sieć ORP ma zapewnić europejskim naukowcom dostęp do teleskopów z szerokiego zakresu oraz wesprzeć rozwój młodych badaczy. Projekt dysponuje finansowaniem w wysokości 15 milionów euro w ramach programu Horyzont 2020 realizowanego przez Europejską.

Projekt jest kierowany przez francuski CNRS, brytyjski Uniwersytet Cambridge i niemiecki Instytut Radioastronomii im. Maxa Plancka. Łącznie współpraca obejmuje 37 instytucji naukowych z 15 krajów europejskich, Australii i RPA. Z Polski udział wezmą Uniwersytet Mikołaja Kopernika w Toruniu oraz Uniwersytet Warszawski.

Prace naukowe na UMK będą koordynowane przez dr hab. Agnieszkę Słowikowską, zastępcę dyrektora Instytutu Astronomii UMK ds. Infrastruktury Badawczej. Co więcej, Polka została wybrana na przewodniczącą zespołu koordynującego ORP (Chair of the ORP Board), w skład którego wchodzi 37 reprezentantów wszystkich instytucji zaangażowanych w działalność sieci. Ze strony UMK w ramach nowej sieci dostępny będzie największy polski 32-metrowy radioteleskop oraz największy na terenie naszego kraju teleskop optyczny ze zwierciadłem o średnicy 90 cm.

Z kolei udziałem naukowców z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego będzie koordynował prof. dr hab. Łukasz Wyrzykowski, którego zespół już od 2013 roku brał udział w pracach sieci OPTICON. Na bazie zdobytego doświadczenia zespół opracował system internetowy do obsługi wielu teleskopów i wysyłania zamówień na systematyczne obserwacje tych samych obiektów w celu badania ich zmienności. Astronomowie z Warszawy będą odpowiadać za koordynację działania małych i średnich teleskopów naziemnych. Ich celem naukowym będzie monitorowanie zmienności czasowej interesujących obiektów. Sieć składa się z około 100 teleskopów, w tym około 50 robotycznych, rozproszonych po całym świecie. W jej skład wchodzi m.in. Północna Stacja Obserwacyjna UW w Ostrowiku z 60 cm teleskopem optycznym. (PAP)

Możliwość komentowania Polscy astronomowie w wielkiej europejskiej sieci obserwacyjnej OPTICON-RadioNet Pilot została wyłączona

Wiązania wodorowe pomagają w przenoszeniu elektronów

Międzynarodowy zespół kierowany przez Polaka zaobserwował po raz pierwszy, że przeniesienie elektronów dalekiego zasięgu w obrębie cząsteczki chemicznej, może zachodzić poprzez wiązania wodorowe bez tzw. przeskakiwania (ang. hopping). Odkrycie to…

Międzynarodowy zespół kierowany przez Polaka zaobserwował po raz pierwszy, że przeniesienie elektronów dalekiego zasięgu w obrębie cząsteczki chemicznej, może zachodzić poprzez wiązania wodorowe bez tzw. przeskakiwania (ang. hopping). Odkrycie to opublikowane w PNAS może nie tylko pomóc lepiej zrozumieć pracę białek, ale i projektować nowe materiały. 

Aby istniało życie, konieczne są procesy przekazywania energii i elektronów w ramach cząsteczek chemicznych i pomiędzy nimi. Podczas przeniesienia elektronów – a więc cząstek niosących ujemny ładunek elektryczny – przeskakują one z jednego miejsca w cząsteczce chemicznej w inne. Przeniesienie elektronów to choćby podstawa fotosyntezy, w której foton – cząstka światła – wzbudza cząsteczkę chlorofilu i wybija z niej elektron, który ucieka wtedy w inne miejsce. Zgromadzona w tym procesie energia w finale napędza pracę komórki. Proces przeniesienia elektronu jest też niezbędny do reperacji uszkodzonego DNA czy do pracy niektórych enzymów. Ma też jednak znaczenie w inżynierii – choćby w budowie ogniw fotowoltaicznych i technologiach fotonicznych.

Chemicy od dawna wiedzieli, że elektron może przeskakiwać na niewielkie odległości. Były też już jednak znane procesy przeskakiwania (ang. hopping) elektronów na większą odległość (to tzw. przeniesienie elektronów dalekiego zasięgu – ang. long-range electron transfer). Dotąd obserwowano tylko takie sytuacje, w których elektron skakał na sporą odległość, ale pod warunkiem, że miał na swojej drodze „schodki”, miejsca w cząsteczce, po których mógł po drodze kolejno przeskakiwać, aby w rezultacie przebyć dłuższą trasę.

Teraz zespół naukowców pod kierunkiem prof. Daniela Gryko z Instytutu Chemii Organicznej PAN pokazał nowy sposób takiego przenoszenia elektronów poprzez tunelowanie (ang. tunneling) – tzn. bez tradycyjnych „schodków”.

„W naszych badaniach po raz pierwszy udało się udowodnić, że proces przeniesienia elektronów może zachodzić pomiędzy przeciwległymi i położonymi daleko od siebie fragmentami, pod warunkiem, że w cząsteczce istnieje sieć wewnętrznych wiązań wodorowych” – streszcza w rozmowie z PAP prof. Daniel Gryko. To kierownik zespołu, którego badania ukazały się w prestiżowym czasopiśmie PNAS.

W badaniach brali udział badacze z IChO PAN: Rafał Orłowski (pierwszy autor pracy), prof. Agnieszka Szumna i dr Olga Staszewska-Krajewska, ale również badacze z Kalifornii (zespoły kierowane przez prof. Harrego Graya oraz przez prof. Valentine Vulleva) .

Pokazanie tego procesu było bardzo trudne – naukowcy musieli zaprojektować i wytworzyć cząsteczkę, w której dojdzie do takiego przeniesienia elektronów. Badania zajęły im trzy lata, ale trud ten się opłacił. W cząsteczce tej elektron przenosił się z jednego końca cząsteczki na drugi, chociaż byłoby to niemożliwe gdyby kształt cząsteczki był liniowy.

Kluczowe jest to, że cząsteczka zaprojektowana przez naukowców nie była liniowa ale raczej zawinięta w kształt skorpiona. Molekuła ta składająca się z kilku aminokwasów posiada w swojej budowie część bogatą w elektrony (donor), oraz ubogą w elektrony (akceptor). Elektrony z jednego końca cząsteczki miały więc „ochotę” dostać się na drugi jej koniec, ale podróż ładunku wzdłuż całej cząsteczki nie była możliwa. Jedyne, co się mogło tam zadziać, to skok elektronu z „głowy” skorpiona na jego „ogon”. Badacze pokazali, że jest to możliwe – dzięki temu, że podczas skoku elektron mógł skorzystać z obecności wewnątrzcząsteczkowych wiązań wodorowych, które się znalazły na jego trasie – a więc sił, które spinały ogon i głowę skorpiona. Nowatorskim pomysłem było takie dobranie donora i akceptora aby tworzyły wiązania wodorowe.

„Spodziewamy się, że inne zespoły wykorzystają ten model i naszą wiedzę, by zaprojektować swoje cząsteczki do innych celów – nie tylko chodzi o biologię molekularną, ale i o chemię materiałową” – mówi prof. Gryko. Ma nadzieję, że nowa wiedza o przenoszeniu elektronów w cząsteczkach pomoże nie tylko lepiej zrozumieć działanie białek, ale również pomoże w opracowaniu nowych rozwiązań szczególnie powiązanych z ogniwami słonecznymi.

„W naszych badaniach pokazujemy, że krótkie peptydy, zawierające zaledwie cztery reszty aminokwasowe, zapewniają sieć wiązań wodorowych, która może pośredniczyć w przenoszeniu elektronów z niezwykle wysoką wydajnością. Praca ta nie tylko zmienia spojrzenie na projektowanie cząsteczek, w których zachodzi przeniesienie elektronu, ale także sugeruje motywy strukturalne pośredniczące w transmisji elektronów w białkach” – podsumowuje prof. Gryko.

PAP – Nauka w Polsce, Ludwika Tomala

Możliwość komentowania Wiązania wodorowe pomagają w przenoszeniu elektronów została wyłączona

Polacy opracowali sieć neuronową wykorzystując „masywne” fotony

Zespół kierowany przez Polaków jako pierwszy na świecie zbudował sieć neuronową (sztuczny neuron) opartą o „masywne” fotony – cząstki światła zachowujące się tak, jakby miały masę (tzw. polarytony). Badacze mają…

Zespół kierowany przez Polaków jako pierwszy na świecie zbudował sieć neuronową (sztuczny neuron) opartą o „masywne” fotony – cząstki światła zachowujące się tak, jakby miały masę (tzw. polarytony). Badacze mają nadzieję, że wykorzystanie światła w obliczeniach sztucznej inteligencji jest szansą na duże oszczędności energii. 

Sztuczne sieci neuronowe używane są dziś w coraz większej liczbie zastosowań: w rozpoznawaniu mowy i głosu, obrazów, w tłumaczeniu tekstów, w sterowaniu pojazdami autonomicznymi. „Ilość danych, które chcemy przetwarzać, rośnie, a moc obliczeniowa potrzebna sieciom neuronowym jest bardzo duża i osiąga już limity. Poza tym do przetwarzania tych danych potrzebna jest ogromna ilość energii. Warto zastanowić się więc nad nowymi technologiami” – mówi w rozmowie z PAP prof. Michał Matuszewski z Instytutu Fizyki PAN.

Jego zdaniem nadzieją jest tu przechodzenie z urządzeń elektronicznych – działających za sprawą elektronów – do urządzeń, które wykorzystywać będą fotony, a więc cząstki światła. „Fotony są o tyle dobre, że – w przeciwieństwie do elektronów – ich propagacja odbywa się właściwe bez strat energii” – mówi prof. Matuszewski. Zwraca uwagę, że od dawna stosuje się już tę ideę w telekomunikacji – do przesyłania informacji na duże odległości wykorzystywane są przecież światłowody, a nie elektroniczne kable. Światło jednak cały czas nie jest jeszcze stosowane w wykonywaniu obliczeń komputerowych.

 

Rys: Mateusz Król, Wydział Fizyki UW, R. Mirek et al., Nano Letters 2021

Rys: Mateusz Król, Wydział Fizyki UW, R. Mirek et al., Nano Letters 2021

Fotony są o tyle trudne do wykorzystania w obliczeniach, że – w przeciwieństwie do elektronów – nie oddziałują ze sobą. A takie oddziaływania przydają się choćby do wykonywania operacji w tradycyjnych bramkach logicznych. Naukowcy z FUW – jako pierwsi na świecie – zbudowali sieć neuronową, której działanie jest oparte o fotony zachowujące się tak, jakby miały masę (kwazicząstki – tzw. polarytony). Badania ukazały się w czasopiśmie naukowym „Nano Letters” (https://dx.doi.org/10.1021/acs.nanolett.0c04696 ).

„My w swoich badaniach proponujemy rozwiązanie, które jest hybrydą elektroniki i fotoniki. Sieci neuronowe, które zaprojektowaliśmy, mają niskie zużycie energii, ale pozwalają wykonywać operacje z dużą skutecznością” – mówi prof. Michał Matuszewski.

W badaniach Polaków fotony więzione są w tzw. mikrownękach optycznych – wpuszcza się je pomiędzy dwa supergładkie lustra. „W takich warunkach można sprawić, że zachowują się jak cząstki z bardzo małą masą. Dołożenie do tego elektronów powoduje, że one mogą ze sobą oddziaływać. Fotony takie nazywamy polarytonami. Mamy więc tam silne oddziaływanie światła z materią” – mówi współautorka pracy dr hab. Barbara Piętka.

„Światło to wykorzystaliśmy do nauki rozpoznawania wzorców” – mówi PAP Michał Matuszewski. I opisuje, że sieć optyczną nauczono rozpoznawania odręcznie pisanych cyfr (tzw. baza MNIST) ze skutecznością 96 proc. A to znaczy, że sztuczny neuron myli odręcznie napisane cyfry tylko raz na 25 prób. A podczas wykonywania jednej operacji zużywa bardzo mało energii – zaledwie 16 pikodżuli.

„To na razie prototyp. Zrealizowaliśmy sztuczny neuron, a konkretnie 1 bramkę logiczną XOR, która wykonuje operacje w sposób sekwencyjny – jedna po drugiej” – mówi prof. Matuszewski.

Schemat ideowy zastosowania kondensatów polarytonów ekscytonowych jako elementu nieliniowej bramki optycznej XOR. Binarna sieć neuromorficzna została zrealizowana z bramek XOR i zastosowana do rozpoznawania odręcznie pisanych cyfr ze zbioru danych MNIST. Rys: Mateusz Król, Wydział Fizyki UW, R. Mirek et al., Nano Letters 2021

Rys: Schemat ideowy zastosowania kondensatów polarytonów ekscytonowych jako elementu nieliniowej bramki optycznej XOR. Binarna sieć neuromorficzna została zrealizowana z bramek XOR i zastosowana do rozpoznawania odręcznie pisanych cyfr ze zbioru danych MNIST. Rys: Mateusz Król, Wydział Fizyki UW, R. Mirek et al., Nano Letters 2021 

Pierwszy autor publikacji Rafał Mirek dodaje, że bramka XOR jest bramką wykonującą operacje logiczne. Jest ona jednak o tyle szczególna, że to bramka nieliniowa. „Na układzie, w którym wykonaliśmy naszą bramkę, możemy zrealizować dowolną inną bramkę logiczną i wykonywać przeróżne operacje logiczne” – zwraca uwagę.

A kolejny autor pracy, Andrzej Opala dodaje: „Światło i materię mieszamy po to, żeby oddziaływania, które powstają w układzie, miały charakter nieliniowy. Nieliniowość ta jest niezbędna do efektywnej realizacji sztucznego neuronu”.

Prof. Barbara Piętka uszczegóławia, że polarytony mają – w odróżnieniu od zwykłych fotonów – bardzo małą (ale niezerową) masę. Przez to następuje tam przejście do tzw. kondensatu Bosego-Einsteina. „Mówi się, że kondensat Bosego-Einsteina to piąty stan materii: po ciele stałym, cieczy, gazie czy plazmie. To układ, w którym cząstki – a dokładniej bozony, wykazują nowe własności kwantowe. Przejście do tego stanu jest silnie nieliniowe” – opowiada.

Na razie eksperymenty zespołu wykonywane są w temperaturach ciekłego helu. „Pracujemy już nad układami działającymi w temperaturze pokojowej. Jesteśmy przekonani, że to da się zrobić. A jest to ważny warunek, żeby rozwiązanie mogło znaleźć praktyczne zastosowanie w technologii” – mówi jeden z autorów badania, dr inż. Krzysztof Tyszka.

Naukowiec zapytany jak sobie wyobraża – w odległej przyszłości – praktyczne zastosowania fotonicznych sieci neuronowych, odpowiada: „na końcu drogi chcielibyśmy, stworzyć scalony układ fotoniczno-elektroniczny, który można byłoby np. wykorzystać jako układ sterowania samochodu autonomicznego. Takie układy mogłyby przetwarzać informacje o warunkach na drodze znacznie efektywniej niż dotychczas – przy niskim zużyciu energii, bez potrzeby łączenia się z Internetem”.

PAP – Nauka w Polsce, Ludwika Tomala

Możliwość komentowania Polacy opracowali sieć neuronową wykorzystując „masywne” fotony została wyłączona

Nagroda Jamesa Dysona w Polsce. Młody wynalazco – zgłoś swój pomysł do konkursu!

152 000 zł to wygrana na poziomie międzynarodowym, na którą mogą liczyć młodzi naukowcy w konkursie o Nagrodę Jamesa Dysona. Wymagania są proste – wystarczy zaprojektować coś, co rozwiąże jakiś…

152 000 zł to wygrana na poziomie międzynarodowym, na którą mogą liczyć młodzi naukowcy w konkursie o Nagrodę Jamesa Dysona. Wymagania są proste – wystarczy zaprojektować coś, co rozwiąże jakiś współczesny problem. W 2021 roku konkurs po raz pierwszy odbywa się w Polsce, a ja mam przyjemność być jednym z członków jury, które wybierze krajowych laureatów.

Nagroda Jamesa Dysona to jedno z wielu zainicjowanych przez sir Jamesa Dysona działań, które mają pokazać, że wynalazcy i inżynierzy mogą zmieniać świat. Instytut Inżynierii i Technologii Dyson, Fundacja Jamesa Dysona oraz Nagroda Jamesa Dysona zapraszają młodych inżynierów do tego, by wykorzystywali swoją wiedzę w praktyce i wynajdowali nowe sposoby na poprawienie jakości naszego życia dzięki technologii.

W tym roku po raz pierwszy polscy naukowcy mogą starać się o nagrody, a ja, razem z Doktorem Tomaszem Łuczyńskim i Przemysławem Pająkiem, będę miał przyjemność wyłonić zwycięzców na poziomie krajowym.

Sky is the limit

Pojęcie „rozwiązania jakiegoś problemu” jest dosyć ogólnikowe i bardzo pojemne, ale to celowe działanie organizatorów, którzy chcą zachęcić studentów, by zmierzyli się z istotnymi współcześnie problemami. To daje młodym naukowcom ogromne pole do popisu i w zasadzie nieograniczone możliwości. Z resztą, zobaczcie, co w poprzednich latach mieli do zaoferowania laureaci konkursu i jak bardzo kreatywne podejście prezentują naukowcy młodego pokolenia.
W 2020 roku Główną Międzynarodową Nagrodę zdobyła 23-letnia Judit Giró Benet, która przygotowała projekt The Blue Box, czyli urządzenie do samodzielnej diagnostyki raka piersi, wykorzystujące algorytm sztucznej inteligencji do analizy próbki moczu. Zostało ono opracowane jako mniej inwazyjna i łatwiej dostępna alternatywa dla konwencjonalnych mammograficznych badań przesiewowych, z których kobiety coraz częściej rezygnują.

W 2017 roku jury nagrodziło pomysł na kolorowe mydło w sztyfcie SoaPen, które ma zachęcać dzieci do dokładnego mycia rąk. Z kolei w 2011 roku w Singapurze Esther Wang stworzyła urządzenie, które ma za zadanie wspierać komunikację między personelem szpitala a dziećmi, którym wyjaśniane są procedury medyczne.

Warto dodać, że wspomniane wyżej projekty przyniosły rozgłos ich twórcom i wykorzystywane są na szeroką skalę – urządzenie do komunikacji z dziećmi znalazło zastosowanie w 44 szpitalach w łącznie 23 krajach, a twórczynie kolorowego mydła po wprowadzeniu swojego produktu na rynek znalazły się na prestiżowej liście 30 Under 30 czasopisma Forbes.

Zasady konkursu

Zachęcam młodych naukowców, inżynierów do tego, aby nie bali się zaprezentować swoich wynalazków. W grę wchodzą nie tylko nagrody pieniężne, ale przede wszystkim poczucie, że można rozwiązać jakiś ważny dla ludzkości problem, a to daje zdecydowanie więcej satysfakcji.

Jak wziąć udział w konkursie?

  1. Kreacja. Skonstruuj coś, co rozwiąże jakiś problem. Punktem wyjścia może być coś irytującego, z czym ludzie borykają się na co dzień. Może to być również jakiś globalny problem. Istotą pomysłu jest jego skuteczność. Opisz, jak działa Twój wynalazek i jak, krok po kroku, przebiegał proces jego rozwoju.
  2. Ocena. W pierwszym etapie projekty będą oceniane na poziomie krajowym przez niezależne jury (to właśnie na tym etapie będę mógł oceniać Wasze zgłoszenia!). W każdym kraju, które bierze udział w konkursie zostanie wyłoniony jeden projekt zwycięski i dwa wyróżnione. Spośród zwycięzców krajowych, zespół inżynierów firmy Dyson dokonuje selekcji 20 zgłoszeń, które przejdą do ścisłego finału.
  3. Nagrody. Sir James Dyson osobiście rozpatruje 20 wyselekcjonowanych zgłoszeń, a następnie przyznaje Główną Międzynarodową Nagrodę oraz wyróżnienia na poziomie międzynarodowym, jak również Międzynarodową Nagrodę w kategorii Zrównoważony Rozwój.
      • Autor(ka) projektu, który zwycięży w kategorii międzynarodowej, otrzymuje nagrodę w wysokości 152 000 zł, a jego/jej uczelnia – dodatkowe 25 000 zł.
      • Autor(ka) projektu, który zwycięży w kategorii Zrównoważony Rozwój, otrzymuje nagrodę w wysokości 152 000 zł.
      • Autorzy dwóch projektów wyróżnionych na poziomie międzynarodowym otrzymują po 25 000 zł.
      • Autor(ka) projektu, który zwycięży na poziomie krajowym, otrzyma nagrodę w wysokości 10 000 zł.
      • Dodatkowa nagroda w kategorii Zrównoważony Rozwój.
  4. Terminy. Zgłoszenia możecie wysyłać do godz. 00:00 (czasu pacyficznego) 30 czerwca 2021 roku.

Po dodatkowe informacje organizatorzy zapraszają na oficjalną stronę konkursu, którą znajdziesz pod tym linkiem.

 

nagroda-jamesa-dysona

Możliwość komentowania Nagroda Jamesa Dysona w Polsce. Młody wynalazco – zgłoś swój pomysł do konkursu! została wyłączona

Badanie: bezpieczeństwo i dostępność najważniejsze dla użytkowników chmur

Dostępność oraz bezpieczeństwo – to najważniejsze cechy chmur obliczeniowych, jakie wskazali użytkownicy tej technologii – wynika z badań ankietowych przeprowadzonych na Uniwersytecie Ekonomicznym w Katowicach Badacze z dr. Arturem Strzeleckim…

Dostępność oraz bezpieczeństwo – to najważniejsze cechy chmur obliczeniowych, jakie wskazali użytkownicy tej technologii – wynika z badań ankietowych przeprowadzonych na Uniwersytecie Ekonomicznym w Katowicach

Badacze z dr. Arturem Strzeleckim z UE w Katowicach na czele przeanalizowali ankiety od ponad 250 osób na co dzień pracujących z technologią chmurową. „Zapytaliśmy, jak oceniają oni aktualnie dostępne chmury, z których korzystają najczęściej, czy uważają je za użyteczne, dostępne, jak postrzegają bezpieczeństwo i jak oceniają usługi i jakość tego systemu. Wyniki pokazały, że użytkownicy postrzegają chmury jako bardzo bezpieczne. Wskazują oni również na dostępność, rozumianą jako możliwość skorzystania z tych narzędzi niemal od ręki” – tłumaczył Strzelecki.

Na podstawie wyników badacze następnie stworzyli model równań strukturalnych. „Z naszych wyników z jednej strony mogą skorzystać operatorzy chmur, żeby na tej podstawie ulepszyć pewne rozwiązania, a z drugiej ci profesjonalni użytkownicy, którzy widzą, jakie rozwiązania zostały lepiej ocenione, a jakie mniej” – powiedział.

Artykuł na ten temat pt. „Akceptacja rozwiązań technologii chmurowej wśród użytkowników” został opublikowany w „Sustainability”.

Dr Strzelecki przypomniał, że chmura to określenie dotyczące sprzętu komputerowego, który znajduje się poza miejscem działalności, np. przedsiębiorstwa. „To sprzęt, oprogramowanie, bazy danych, moc obliczeniowa, dostęp przez internet do pewnych rozwiązań. Korzystając z chmury obliczeniowej firmy dzierżawią ten sprzęt, opłacają dostęp i mogą korzystać z tej infrastruktury informatycznej” – mówił.

Jak wyjaśnił, chmury obliczeniowe (ang. cloud computing) podzielić można na trzy typy: sprzęt i infrastruktura (użytkownicy nie muszą posiadać sprzętu np. serwerów, procesorów, dysków twardych itd., mogą wykupić dostęp do nich), narzędzia informatyczne (platforma z gotowymi do użycia narzędziami np. do tworzenia stron czy aplikacji) oraz gotowe usługi informatyczne (nie trzeba ich instalować na komputerze, wystarczy przeglądarka internetowa; to np. popularne wśród użytkowników Google Docs albo Office 365, a także Google Drive, Dropbox czy iCloud).

„Z dwóch pierwszych typów chmur korzystają głównie przedsiębiorstwa albo profesjonaliści, z trzeciego – konsumenci indywidualni” – dodał Strzelecki.

Jego zdaniem technologia chmurowa będzie się dalej rozwijać. „Możliwe, że niebawem nie będziemy mieli zainstalowanego systemu na naszym komputerze, nasz komputer nie będzie miał twardego dysku, bo wystarczy szybkie łącze internetowe i dostęp do chmury właśnie. Z takiego rozwiązania już od kilku lat korzystamy w naszym Centrum Nowych Technologii Informatycznych. Zwykły użytkownik nie zauważy różnicy” – powiedział.

W jego ocenie rozwiązania chmurowe, choć i tak są płatne, to są tańszą opcją dla użytkowników korzystających z tej technologii na co dzień; są też bezpieczne. „W tych centrach danych informacje bezpieczne są na 99,99 proc., nic im się nie stanie, nikt ich nie wykradnie, nie zostaną zniszczone np. przez pożar czy zalanie, bo jest ich kilka kopii. Owszem, zdarzają się ataki hakerskie czy awarie, ale zwykły Kowalski nie ma się czym przejmować. Bo on najprawdopodobniej nigdy nie stracił maili na Gmailu, nie zgubiły mu się pliki na Google Drive’ie – chyba że je sobie sam skasował. Dla zwykłego Kowalskiego jest to bezpieczne rozwiązanie do przechowywania danych” – podsumował dr Strzelecki.

PAP – Nauka w Polsce, Agnieszka Kliks-Pudlik

Możliwość komentowania Badanie: bezpieczeństwo i dostępność najważniejsze dla użytkowników chmur została wyłączona

Symulatory lotnicze na uczelniach technicznych

Wirtualne loty pozwalają na kształcenie studentów w zakresie podstaw mechaniki lotniczej. Dzięki symulatorom lotniczym absolwenci uczelni technicznych dokładnie wiedzą, jakie przyrządy znajdują się w kabinach rzeczywistych statków powietrznych, jak działają,…

Wirtualne loty pozwalają na kształcenie studentów w zakresie podstaw mechaniki lotniczej. Dzięki symulatorom lotniczym absolwenci uczelni technicznych dokładnie wiedzą, jakie przyrządy znajdują się w kabinach rzeczywistych statków powietrznych, jak działają, jak mogą działać nieprawidłowo i z jakimi innymi systemami współpracują.

Zajęcia to często gry symulacyjne na niezwykłym sprzęcie, który można rozwijać o własną elektronikę i oprogramowanie.

„Działanie większości symulatorów jest oparte o grę komputerową. Na naszych stanowiskach zainstalowane są gry Microsoft Flight Simulator, Falcon BMS czy też Prepar3D – takie, które każdy może pobrać z internetu. Podstawowy sprzęt gracza można rozwinąć o joystick, klawiaturę, albo o autorską elektronikę, która pozwala podłączyć własne urządzenia. Zaawansowani użytkownicy mogą dodać oprogramowanie, które sprawia, że gra staje się bardziej realna i symuluje działanie prawdziwego samolotu” – tłumaczy dr inż. Krzysztof Kaźmierczak, jeden z inicjatorów powstania takiej pracowni w Wojskowej Akademii Technicznej w Warszawie.

Na symulatorze bezzałogowego statku powietrznego można się nauczyć, jak wygląda współpraca pilota z operatorem systemów obserwacyjnych zainstalowanych na dronie. A jeśli ktoś chciałby zobaczyć, jak ląduje się śmigłowcem na pokładzie okrętu – pozwala na to symulator z wirtualną rzeczywistością.

PRACOWNIE ROZWIJANE PRZEZ PASJONATÓW

Jak wylicza naukowiec, na różnych uczelniach rozwijane są pracownie symulatorów, które umożliwiają studentom praktyczne zapoznanie się ze sprzętem lotniczym.

Politechnika Krakowska od kilku lat posiada symulator kokpitu myśliwca F-16 wykonany dzięki zaangażowaniu dra Dariusza Karpisza wraz z zespołem studentów. Politechnika Lubelska rozwija własne rozwiązanie oparte o okulary wirtualnej rzeczywistości.

Laboratorium Symulatorów znajduje się również w Zakładzie Automatyki i Osprzętu Lotniczego przy Wydziale Mechanicznym Energetyki i Lotnictwa Politechniki Warszawskiej, gdzie jednym z najbardziej znanych studentom stanowisk jest symulator polskiego śmigłowca SW4. Na PW również kilkanaście lat temu został zbudowany przez studentów Koła Naukowego symulator lotu szybowca.

Najświeższą informacją w temacie studenckich symulatorów jest „Aviator AGH” – symulator lotniczy samolotu Cessna 172SP budowany przez studentów Akademii Górniczo-Hutniczej.

Część uczelni kupuje urządzenia treningowe bezpośrednio od producentów profesjonalnych symulatorów. Na przykład, komercyjne stanowiska zostały zakupione do Laboratorium Badań Symulatorowych przez Politechnikę Poznańską.

Na koniec rozmówca PAP wspomina o Akademickim Centrum Szkolenia Lotniczego w Lotniczej Akademii Wojskowej w Dęblinie wyposażonym w certyfikowane urządzenia treningowe przeznaczone do szkolenia pilotów.

SZKOŁA MECHANIKÓW LOTNICZYCH

Pracownia Systemów Zobrazowania i Symulatorów WAT znajduje na Wydziale Mechatroniki, Uzbrojenia i Lotnictwa WAT. Studenci uczą się tu na przyrządach identycznych jak te, które są zainstalowane w rzeczywistych statkach powietrznych. Po co, skoro nie jest to „szkoła pilotów”?

„Mogą dzięki temu podjąć pracę mechaników w służbach lotniczych. We współczesnych statkach powietrznych usterki diagnozowane są w trakcie lotu, a komunikaty o nich wyświetlają się na urządzeniach w kabinie. Potem pilot zapisuje w dzienniku pokładowym wszelkie zaobserwowane usterki. Mechanik dokonuje tzw. odbioru oraz samodzielnej diagnozy i naprawy usterek. Wykorzystuje przy tym informacje generowane na przyrządach i wyświetlaczach w kabinie samolotu. Pomaga mu wiedza, którą zaczął zdobywać na symulatorach” – tłumaczy dr inż. Kaźmierczak w filmie nagranym z udziałem studentów. Film „Gdzie nie kończy się pasja, a zaczyna nauka” jest dostępny na kanale YT akademii.

Wyjaśnia, że symulatory to stanowiska, które zastępują fizyczny kontakt ze statkiem powietrznym. Obejrzenie kabiny pilotów nie jest łatwe w warunkach rzeczywistych. Zwiedzić można jedynie samolot stojący na płycie lotniska. Nie widać wówczas, jak działają przyrządy i jakie informacje się na nich wyświetlają.

„Airbus 320 i Boeing 737 to najpopularniejsze statki powietrzne, które nieco różnią się filozofią działania. Boeing 737 NG prezentuje tzw. starą szkołę, gdzie pilot do sterowania używa wolantu, przekazującego sygnały do hydraulicznych urządzeń wykonawczych. W Airbusie 320 mamy elektroniczny system sterowania lotem „Fly by wire”, wykorzystujący szereg czujników i układów elektronicznych oraz w roli sterownika – joystick. Pojawia się tu już zaawansowany system zobrazowania informacji pilotażowych, nawigacyjnych oraz usterek, który jest obsługiwany z komputera w kabinie” – opisuje naukowiec przykładowe symulatory, którymi dysponuje WAT.

Obok symulatorów statków typu General Aviation w pracowni jest także symulator użytkowanego przez Siły Powietrzne „Jastrzębia” F16, stanowiącego efekt prac 7-osobowej grupy w ramach projektu dla młodych naukowców. Ponadto do dyspozycji studentów jest Cessna i inne powszechnie znane samoloty. Niektóre stanowiska można certyfikować na 5 godzin rzeczywistej nauki dla pilotów. Podobne, niekomercyjne stanowiska do nauki, trudno jest znaleźć poza uczelniami.

„Producenci samolotów z reguły od symulatorów badawczych zaczynają prace nad kolejnymi modelami. Nie zajmują się jednak sprzedażą symulatorów lotu. Profesjonalne symulatory do szkolenia pilotów wykonują specjalne firmy. Pełne certyfikowane symulatory lotu mogą kosztować do 10 mln dolarów, przy cenie nowego samolotu 97 mln dolarów” – szacuje naukowiec.

Dlatego pasjonaci muszą raczej liczyć na inicjatywy innych pasjonatów, których niemało wśród naukowców. I tak, w niektórych pracowniach na wydziałach lotniczych najpierw pojawiły się gry, potem dobudowywano do nich sprzęt, następnie płytki elektroniczne, do których można było podłączać przełączniki. A dalej wprowadzano takie aktualizacje tych gier, dzięki którym najwierniej oddają one specyfikę lotu danym typem samolotu. Dzięki temu obecnie sterować samolotem można w domu… lub na zajęciach na uczelni.

PAP – Nauka w Polsce, Karolina Duszczyk

Możliwość komentowania Symulatory lotnicze na uczelniach technicznych została wyłączona

Przełomowe badania polskich matematyków o symetriach wszystkich symetrii

Polskim matematykom udało się rozwiązać ważny problem dotyczący symetrii wszystkich symetrii. Był to nierozwiązany od kilku dekad problem – jedno z największych wyzwań geometrycznej teorii grup.  Wyniki pracy dr. Marka…

Polskim matematykom udało się rozwiązać ważny problem dotyczący symetrii wszystkich symetrii. Był to nierozwiązany od kilku dekad problem – jedno z największych wyzwań geometrycznej teorii grup. 

Wyniki pracy dr. Marka Kaluby (Uniwersytet im. Adama Mickiewicza i Karlsruher Institut fur Technologie), prof. Dawida Kielaka (Uniwersytet Oksfordzki) i prof. Piotra Nowaka (Instytut Matematyczny PAN) ukazały się w jednym z najbardziej prestiżowych pism matematycznych Annals of Mathematics (https://annals.math.princeton.edu/2021/193-2/p03). A w historii tego czasopisma jest tylko kilka prac polskich matematyków.

Prof. Piotr Nowak to jeden z nielicznych w Polsce laureatów ważnego europejskiego grantu ERC (https://naukawpolsce.pap.pl/aktualnosci/news,407601,laureat-grantu-erc-sprawdza-mosty-miedzy-odleglymi-obszarami-matematyki.html). „Kiedy składałem wniosek o grant nie odważyłbym się zaproponować rozwiązania problemu, który właśnie rozwiązaliśmy. Wydawało mi się, że na horyzoncie nikt nie widział wtedy takiej możliwości” – mówi.

Z podobną skromnością do tematu podchodzili dr Kaluba i prof. Kielak, którzy w swoich grantach też zakładali zdobycie innych, nieco mniejszych szczytów. Skoro jednak na swojej drodze naukowcy dostrzegli trasę na szczyt o wiele bardziej interesujący – Mount Everest geometrycznej teorii grup – nie zamierzali go ominąć.

O CO CHODZI W BADANIACH

„Rozwiązaliśmy pewien od dawna otwarty problem, pokazując, że pewna nieskończona rodzina obiektów algebraicznych – grup – ma własność T, a więc, że jest bardzo niekompatybilna z geometrią Euklidesa” – podsumowuje Nowak.

A dr Marek Kaluba dodaje: „Dzięki naszym badaniom zrozumieliśmy pewne geometryczne aspekty grup kodujących symetrie wszystkich symetrii”.

Obiekty z własnością T, których dotyczyły badania, mają bardzo egzotyczne właściwości geometryczne (nie daje się ich zrealizować jako symetrii w geometrii euklidesowej). Wydaje się to oderwane od rzeczywistości? Na pozór tak. Ale wiedza o tej skomplikowanej własności T znalazła już zastosowanie. Pozwala choćby konstruować ekspandery – grafy z dużą ilością połączeń wykorzystywane m.in. w algorytmach streamingujących. A takie algorytmy odpowiadają m.in. za wskazywanie trendów na Twitterze.

„Pytanie czy grupy, które badaliśmy, mają taką własność T, pojawiło się w druku w latach 90. Kiedy byłem doktorantem, to był to problem, o którym słyszałem na co drugim wykładzie i konferencji z teorii grup” – streszcza Piotr Nowak.

A Dawid Kielak dodaje: „Nasz wynik wyjaśnia działanie pewnego algorytmu. To algorytm Product Replacement używany, kiedy chce się losować elementy spośród ogromnych zbiorów np. liczących więcej elementów niż liczba cząsteczek we Wszechświecie. Ten algorytm istnieje od lat 90. i działa dużo lepiej, niż można się było spodziewać. Nasz artykuł tłumaczy, dlaczego on tak dobrze działa” – mówi prof. Kielak.

I dodaje: „informatyka to nowa fizyka. To, co nas otacza, to nie tylko cząsteczki, ale coraz częściej – również algorytmy. Naszym zadaniem jako matematyków będzie więc i to, by zrozumieć algorytmy, pokazywać, dlaczego one działają albo nie; dlaczego są szybkie lub wolne”.

KOMPUTER POMAGA SZUKAĆ DOWODU

Naukowcy w swoim matematycznym dowodzie wspomogli się obliczeniami komputerowymi. Używanie komputerów do dowodzenia twierdzeń w matematyce nie uchodziło dotąd raczej za eleganckie. Społeczność matematyków teoretycznych zwykle kręciła nosem na komputery. Tu jednak tu takie nowoczesne podejście spisało się wyjątkowo dobrze.

„Komputer wykonał tylko żmudną robotę. Ale nie zastąpił logiki. Naszym pomysłem było bowiem to, żeby zastosować redukcję nieskończonego problemu do problemu skończonego” – mówi prof. Kielak.

A dr Marek Kaluba dodaje: „zredukowaliśmy nasz problem do problemu optymalizacyjnego, a następnie użyliśmy do tej optymalizacji standardowych narzędzi – algorytmów, których inżynierowie używają do projektowania elementów konstrukcyjnych”.

Komputer dostał więc zadanie, by znaleźć tzw. macierz spełniającą określone kryteria. Maszyna tworzyła więc rozwiązanie, sprawdzała, jak dobrze ona spełnia ono zadane warunki i stopniowo poprawiała tę macierz, żeby dojść do jak najmniejszego poziomu błędu. Pytanie brzmiało tylko, jak niewielką skalę błędu jest w stanie uzyskać.

Komputer więc optymalizował, a matematycy, nieprzyzwyczajeni do tego, że maszyna wykonuje za nich pracę, co kilka minut chcieli wiedzieć, jaki jest poziom błędu. W pewnym momencie dr Kaluba, żeby koledzy nie zwracali mu ciągle głowy pytaniami, założył nawet konto na Twitterze (https://twitter.com/GimmeDaNumba), które na bieżąco pokazywało im, co wyliczył komputer. „Szkoda, że nasze tweety nie znalazły się w trendach na Twitterze” – mruga okiem prof. Nowak.

Nerwy się opłaciły. Okazało się, że błąd komputera w ostatnim przybliżeniu był bardzo, bardzo niewielki. Obliczenie komputera pozwalało więc – przy użyciu odpowiednich matematycznych argumentów – uzyskać ścisły dowód.

Macierz, którą „wypluł” komputer, miała 4,5 tysiąca kolumn i 4,5 tysięcy wierszy. – „Równie dobrze mogliśmy tej macierzy szukać ręcznie albo mogłaby się nam ona przyśnić, ale to musiałby być długi sen, co najmniej zimowy” – żartuje Dawid Kielak. I dodaje, że skoro komputerów używa się do robienia zakupów, to dlaczego miałyby nie pomagać i matematykom.

Marek Kaluba tłumaczy zaś, że problem, nad którym pracowali, był początkowo zbyt duży, żeby go rozwiązać dysponując nawet superkomputerem. „Wobec tego użyliśmy wewnętrznych symetrii tego problemu, aby ułatwić poszukiwania rozwiązania” – mówi. I tłumaczy, że analogiczne podejście będzie można stosować i w rozwiązywaniu innych problemów z zakresu optymalizacji obiektów, które cechują się geometrycznymi symetriami. „Te symetrie (w algebraicznej formie) będzie można zaobserwować również w problemie optymalizacyjnym i użyć ich do redukcji złożoności” – mówi dr Kaluba. I dodaje: „Chociaż więc zajmujemy się abstrakcyjną matematyką, to chcemy, by nasze oprogramowanie było przydatne również w inżynierskich zastosowaniach”.

PAP – Nauka w Polsce, Ludwika Tomala

Możliwość komentowania Przełomowe badania polskich matematyków o symetriach wszystkich symetrii została wyłączona

Jak rozwijać biznes w rzeczywistości postpandemicznej?

IBM Institute for Business Value we współpracy z Oxford Economics, przeprowadził wywiady z 3000 dyrektorów generalnych z prawie 50 krajów i 26 branż. Następnie przeprowadzono dodatkowo wnikliwe rozmowy z 24…

IBM Institute for Business Value we współpracy z Oxford Economics, przeprowadził wywiady z 3000 dyrektorów generalnych z prawie 50 krajów i 26 branż. Następnie przeprowadzono dodatkowo wnikliwe rozmowy z 24 wybranymi prezesami reprezentującymi 11 branż z 11 krajów. Badania i wywiady miały pokazać sposób myślenia, tematy i wyzwania, z którymi borykają się teraz czołowi liderzy w nowej rzeczywistości związanej z pandemią koronawirusa.

Nie zdarzyło się do tej pory tak, aby zaszła konieczność zreorganizowania życia całej Planety, jednak pandemia pokazała, że wcale nie mamy świata pod ścisłą kontrolą i wiele zmian jest koniecznych. W marcu 2020 roku rozpoczął się bardzo trudny okres dla firm i rządów – czas globalnej kwarantanny, społecznego dystansu i wielkich ograniczeń. Przyszłość zaczęła przybierać ciemne barwy i mnożyć zagrożenia, ale z drugiej strony pozwoliła dostrzec również nowe możliwości.

Postawiono sobie najważniejsze w tym momencie pytanie, co od teraz będzie liczyć się dla klientów, pracowników i inwestorów? Dyrektorzy generalni, z którymi przeprowadzono wywiady przemawiali niemal jednym głosem i podkreślali, że teraz należy skupić się na najmocniejszych stronach działalności przedsiębiorstwa oraz tym, co je wyróżnia i zapewnia największą wartość. Dotyczyć by to miało zarówno produktów i usług zewnętrznych, jak i tych wewnątrz firmy.

Raport podzielony został na 3 rozdziały, które kolejno omawiają zagadnienia związane z nowymi priorytetami dla współczesnych firm, atutami, które zapewniły przedsiębiorstwom przetrwanie w trudnym okresie oraz na czym skupiły się firmy, które najlepiej radziły sobie w rzeczywistości pandemicznej. Zapraszamy do lektury – poniżej, a o tym jak radzą sobie polskie przedsiębiorstwa będzie można posłuchać podczas wirtualnej konferencji Cloud and AI Forum by IBM już 17 marca br, od 10:00 – zapraszamy do rejestracji.

I. Podstawowe priorytety w organizacji przedsiębiorstwa

Po rewolucji, którą przyniósł 2020 rok, prezesi zdecydowanie podkreślają wagę sprawności organizacyjnej. Jako najważniejszą cechę liderów uznają zdolność do szybkiego reagowania na zaistniałą sytuację i dostosowywania się do warunków, jednocześnie bez utraty jakości działania. Dla 56 proc. CEO w ciągu najbliższych 2-3 lat liczyć się będzie elastyczność.

Nie jest zaskoczeniem, że dla 3000 ankietowanych prezesów najważniejszą zewnętrzną siłą, która będzie miała wpływ na ich przedsiębiorstwa w ciągu najbliższych kilku lat jest technologia. Według CEO to właśnie cyfrowa dojrzałość przedsiębiorstwa przekłada się na wyniki finansowe firmy. Rezultaty przeprowadzonego badania na podium plasują takie technologie jak IoT (Internet rzeczy), przetwarzanie danych w chmurze oraz sztuczną inteligencję.

Dyrektorzy generalni zostali poproszeni o wskazanie, którzy z pozostałych członków kadry kierowniczej będą odgrywać kluczową rolę dla ich organizacji w ciągu najbliższych 2-3 lat. Wybór padł na szefów zarządzających obszarami technicznymi (Chief Information Officers [CIO] i Chief Technology Officers [CTO]), a ich wartość oceniono dwukrotnie wyżej niż przykładowo dyrektorów marketingu.

 

II. Pięć czynników, które wyróżniają Outperformers

Mianem „Outperformers” określono tych właścicieli firm, które radzą sobie lepiej na rynku.

Na podstawie badania i przeprowadzonych rozmów wyodrębniono 5 obszarów w organizacji przedsiębiorstwa, które charakteryzują najlepszych graczy na rynku:

  • Najważniejsze jest przywództwo. Badanie pokazało, że bardziej elastyczne struktury (które są mniej biurokratyczne) odnoszą sukces, a osoby, które mają poczucie celu i misji osiągają lepsze wyniki.
  • Technologia, czyli coś więcej niż narzędzie. Bardzo istotna okazała się dojrzałość technologiczna, która gwarantuje wydajność pracy. Organizacje, które zainwestowały w przetwarzanie danych w chmurze lub sztuczną inteligencję, radziły sobie lepiej niż inne firmy podczas okoliczności związanych z pandemią, która wybuchła w 2020 roku.
  • „Hybrydowi” pracownicy. Nie ma wątpliwości, że praca zdalna będzie stałym elementem hybrydowego modelu pracy. Zmieni to kulturę organizacyjną i będzie wymagała nowego podejścia do zarządzania. Około 50 proc. dyrektorów generalnych, którzy wzięli udział w badaniu podkreśla, że praca zdalna będzie w najbliższym czasie wyzwaniem.
  • Dyrektorzy generalni spodziewają się mniejszej liczby partnerstw, ale o wyższym znaczeniu strategicznym. Wychodzą z założenia, że po co robić wszystko samemu, skoro można podjąć współpracę z kimś, kto realizuje dane zadania znacznie lepiej, i razem otwierać nowe możliwości?
  • Cyberbezpieczeństwo. Analiza wywiadów z CEO 3000 firm pokazała, że dyrektorzy zarządzający najlepiej prosperującymi organizacjami przykładają większą wagę do ochrony przed cyberzagrożeniami i ujawnieniem danych. Zdają sobie sprawę, że zaufanie stało się walutą ekosystemów biznesowych.

III. Azymut na klienta, produkt, a może na operacje?

Stosując analizę segmentacyjną opartą na danych, IBV wytypował trzy naturalne grupy, które wyodrębniły się na podstawie odpowiedzi 3000 respondentów: skoncentrowane na kliencie (ok. 50 proc.), zorientowane na produkt (30 proc.) albo na operacje (20 proc.). Udało się wysnuć pewne wnioski na temat różnic w działaniu między najlepiej a gorzej radzącymi sobie firmami.

Z analizy możemy się dowiedzieć m.in., że to, co jest ważne dla jednego kierunku, niekoniecznie takim jest dla innego. Badanie pokazało, że nie można skupiać się wyłącznie na jednym z tych trzech segmentów, zaniedbując jednocześnie pozostałe. Tak firmy działały dawniej, ale współcześnie nie ma miejsca na taki model w znaczących organizacjach. Liderzy firm przekonują, że należy wziąć każdy z tych 3 segmentów pod uwagę, ale jeden z nich traktować priorytetowo.

Ustalenia raportu kończą się przewodnikiem, który wskazuje, w jaki sposób można wykorzystać zawarte w nim ustalenia w pracy swojej organizacji.

Stagnacja i powielanie utartych schematów to droga donikąd. Aby zagwarantować przetrwanie i prosperowanie na szybko zmieniającym się rynku, firmy poniekąd zmuszone są do nieustannych zmian. Co w przyszłości będzie się liczyć dla klientów, pracowników firm i inwestorów? Jakimi cechami powinny charakteryzować się przedsiębiorstwa, aby miały szansę na przetrwanie? Między innimi te pytania postawili sobie organizatorzy Cloud and AI Forum by IBM. Podczas konferencji będzie można posłuchać reprezentantów polskich przedsiebiorstw, innowatorów, ekspertów z branży – serdecznie zapraszamy po garść inspiracji – rejestracja obowiązkowa.

 

Partnerem publikacji jest Cloud and AI Forum by IBM.

Możliwość komentowania Jak rozwijać biznes w rzeczywistości postpandemicznej? została wyłączona

Badacze z UMK kopiują rozwiązania natury, pracując nad membranami do transportu wody

Chemicy z UMK w Toruniu pracują nad membranami, które będą lepiej transportować wodę i zatrzymywać sole i oraz zanieczyszczenia. Punktem wyjścia były badania chrząszcza pustynnego, który potrafi jednocześnie zbierać i…

Chemicy z UMK w Toruniu pracują nad membranami, które będą lepiej transportować wodę i zatrzymywać sole i oraz zanieczyszczenia. Punktem wyjścia były badania chrząszcza pustynnego, który potrafi jednocześnie zbierać i odpychać wodę. Docelowo takie rozwiązanie można wykorzystać do pozyskiwania wody pitnej.

Istniejące w przyrodzie rozwiązania techniczne od dawna inspirują inżynierów. Jednym z najwcześniej zauważonych i najczęściej opisywanych jest kwiat lotosu, który pozostaje czysty, choć wyrasta z bagna (dlatego zarówno Egipcjanie, jak Hindusi czy buddyści znaleźli dla niego w swoich religiach miejsce).

Badając lotos pod mikroskopem naukowcy wyjaśnili, że jego zdolność samooczyszczania wynika ze struktury powierzchni, która jest silnie hydrofobowa, czyli zatrzymuje krople wody na powierzchni. Woda zbiera cząsteczki kurzu i spływając, usuwa je. Oznacza to, że siły adhezji odpowiedzialne za gromadzenie się wody na kwiecie są słabe, ale jednocześnie brud łatwo przyczepia się do kropelek, co skutkuje samooczyszczeniem. Dzięki naśladowaniu lotosu udało się stworzyć samoczyszczące powierzchnie – tynki, dachówki, tekstylia, powłoki malarskie. Inną strukturę mają płatki róży – ich powierzchnia jest hydrofobowa, ale o dużej adhezji (przyczepności) – dlatego kropla wody, która spadnie na płatek, przykleja się i nie spada (efekt płatka róży, petal effect). Żaba, która potrafi chodzić po suficie o chropowatej powierzchni, zainspirowała z kolei pomysłodawców kopert z paskiem samoprzylepnym.

Bardziej złożonym przypadkiem tego typu wydaje się struktura pancerza chrząszcza Stenocara gracilipes, żyjącego na afrykańskiej pustyni Namib. Jest ona jednocześnie hydrofobowa i hydrofilowa. Drobne guzki na pokrywach skrzydeł chrząszcza zbierają mikroskopijne kropelki, podczas gdy odpychające wilgoć obszary poniżej działają jak kanaliki, którymi woda dopływa do otworu gębowego. Dzięki temu chrząszcze mogą przeżyć w tak trudnym środowisku, jakim jest pustynia Namib, należąca do najgorętszych i najbardziej suchych miejsc na świecie. Potrafią wychwytywać wilgoć z niesionych wiatrem kropelek mgły.

„Oglądałam film, jak chrząszcz staje rano na łapkach, gdy jest rosa, i wychwytuje z tej mgiełki wodę” – mówi dr hab. Joanna Kujawa, prof. Uniwersytetu Mikołaja Kopernika (UMK) z Wydziału Chemii, cytowana na internetowej stronie swojej uczelni. – „Dzięki temu, że reszta powierzchni pancerza jest pokryta woskiem, woda spływa, a chrząszcz jest w stanie ją pić i przetrwać w tak trudnych warunkach”.

Naukowcy zaczęli się zastanawiać, jak to rozwiązanie przenieść z natury do laboratorium, bo takie zjawisko jest wykorzystywane w destylacji membranowej. „Tam enzymy nanosi się przez absorpcję, czyli przyleganie powierzchniowe, a nie wiązania chemiczne” – tłumaczy prof. dr hab. Wojciech Kujawski z Wydziału Chemii UMK. – „Jeśli jest to absorpcja fizyczna, to łatwo może nastąpić desorpcja, bo tam oddziałują słabe siły”.

Chodziło o to, żeby wzmocnić membrany, które dzięki połączeniom chemicznym stają się trwalsze. Dobrym pomysłem okazało się wykorzystanie dostępnego w dużych ilościach chitozanu. Chityna, którą łatwo można przekształcić w chitozan, występuje naturalnie m.in. w pancerzach krewetek. Pancerzyków tych „owoców morza” są hałdy i traktowane są jako odpad. Toruńscy naukowcy stwierdzili, że można nie tylko skopiować strukturę pancerza chrząszcza, ale też – zgodnie z zasadami filozofii „zero waste” – wykorzystać zalegający chitozan. Dzięki niemu woda będzie jeszcze łatwiej spływać, spełni on więc tę rolę, którą spełnia wosk u chrząszcza. Chemicy zdecydowali, by chitozan przyłączyć w miejscu hydrofilowych wysepek.

„To wymóg destylacji membranowej, że powierzchnia membrany musi być porowata i hydrofobowa” – wyjaśnia prof. Kujawa. – „Można znaleźć wiele przykładów wykorzystania chitozanu w membranach, ale nikt wcześniej nie przyłączał go chemicznie. Dało nam to duże pole do popisu – jeśli przyłączymy chitozan chemicznie, to pozostanie na swoim miejscu”.

Naukowcy najpierw modyfikowali chitozan, potem przyczepiali go chemicznie do membrany. Teraz natomiast zdecydowali się najpierw zmodyfikować membranę, a dopiero później dołączyć do niej chitozan. Dzięki temu membrana jest bardziej hydrofilowa, można przepuścić przez nią większy strumień wody. „W literaturze nie ma podobnych prac, więc trudno nam porównywać efekty z innymi” – mówi prof. Kujawa. – „Tam, gdzie fizycznie aplikowano chitozan do zmodyfikowanej membrany, też obserwowano poprawę, ale nie w takim stopniu jak u nas. Dzięki temu możemy dostosowywać materiał do procesu, w którym chcemy go wykorzystywać”.

Membrana powstająca w trakcie modyfikacji fizycznej jest tak naprawdę „na raz”. Później chitozan przeważnie jest wymywany. – “Z ciekawości zrobiliśmy próbę stabilności modyfikowanych chemicznie membran do odsalania wody, w dziesięciu długich, kilkudniowych cyklach” – zdradza prof. Kujawa. – „Zaobserwowaliśmy delikatne zmiany, ale nie na tyle znaczące, by nagle wszystko nam się rozpadło”.

Toruńscy chemicy testowali też odporność membran na zarastanie. Badania prowadzili na sokach owocowych. Przez oddziaływania pulpy owocowej z membraną resztki owoców zostawały na jej powierzchni, zatykały pory i nie można było jej dłużej używać. Natomiast na powierzchni, mającej w składzie chitozan o dodatkowych właściwościach bakteriobójczych, występują zupełnie inne oddziaływania, pulpa owocowa nie przywiera, a jeśli już się to zdarzy, można bardzo łatwo ją zmyć strumieniem wody, bez dodatków środków chemicznych.

Swoje koncepcje i prace chemicy z UMK opisali w dwóch publikacjach. Pierwszy – o przyłączaniu zmodyfikowanego chitozanu do membrany – ukazał się w „Desalination”; drugi – o odłączaniu chitozanu do zmodyfikowanej membrany – w „ACS Applied Materials and Interfaces”. Badania są realizowane wespół z partnerem zagranicznym, prof. Samerem Al-Gharabli z Wydziału Farmacji i Inżynierii Chemicznej Niemiecko-Jordańskiego Uniwersytetu w Ammanie (Jordania).

Docelowo naukowcy chcą zrobić takie membrany, które coraz lepiej będą transportować wodę, a jednocześnie zatrzymywać sole i inne zanieczyszczenia. „Oczywiście to wszystko jest związane z brakiem wody pitnej na Ziemi” – tłumaczy prof. Kujawski, cytowany na stronie uczelni. – „W Polsce też będziemy musieli zmierzyć się z tym problemem i to znacznie szybciej, niż sądzą najwięksi pesymiści. Kilka lat temu byłem na seminarium w Jordanii, gdzie usłyszałem, że na problem braku wody należy patrzeć nie przez pryzmat całego kraju, ale poprzez pryzmat bardzo małej jednostki administracyjnej. Jeżeli się zaczyna dzielić kraj na coraz mniejsze kwadraty, to nagle się okazuje, że procent populacji o ograniczonym dostępie do wody gwałtownie rośnie. W Polsce mamy dostęp do wody wzdłuż rzek, ale gdy 20 lat temu byłem w Zakopanem, słyszałem +oszczędzajcie wodę, bo nasze strumienie wysychają+. Tam studnie się zanieczyszczają, źródeł świeżej wody nie ma, więc problem wysychania i obniżania się wód gruntowych zdecydowanie postępuje”.

PAP – Nauka w Polsce, Paweł Wernicki

Możliwość komentowania Badacze z UMK kopiują rozwiązania natury, pracując nad membranami do transportu wody została wyłączona

Przełączniki przyszłości będą reagować na światło

Fotoprzewodnictwo można obserwować na przykładzie węglika krzemu, który wskutek oświetlania laserem zaczyna przewodzić prąd, zaś nieoświetlony jest izolatorem. Zachowuje się więc jak łącznik. W przyszłości takie łączniki mogą znaleźć zastosowanie…

Fotoprzewodnictwo można obserwować na przykładzie węglika krzemu, który wskutek oświetlania laserem zaczyna przewodzić prąd, zaś nieoświetlony jest izolatorem. Zachowuje się więc jak łącznik. W przyszłości takie łączniki mogą znaleźć zastosowanie w rozdzielniach elektrycznych. 

Do zastosowań jednak jeszcze daleko. Naukowcy dopiero symulują komputerowo właściwości półprzewodników, które w przyszłości będzie można wykorzystać do projektowania łączników fotoprzewodzących. Jednak już teraz można spodziewać się, że łączniki te znajdą zastosowanie w różnych układach energoelektronicznych. Pozwolą one odizolować układy sterujące od wykonawczych. Z punktu widzenia użytkowników może to skutkować większym uniezależnieniem od rozmaitych awarii.

Za pomocą symulatora wykonanego w oprogramowaniu MatLab naukowcy z Wydziału Elektroniki Wojskowej Akademii Technicznej (dr inż. Marek Suproniuk, dr inż. Mariusz Wierzbowski i doktorant Piotr Paziewski) modelowali nowy materiał półprzewodnikowy jakim jest węglik krzemu.

Zbadali, jak zmienia się przewodność (konduktywność) węglika krzemu w wyniku oświetlania go światłem laserowym o różnych mocach (o odpowiedniej długości fali). Przedstawiony przez nich model obejmował sześć defektów punktowych, które najczęściej pojawiają się w węgliku krzemu. Defekty są to wtrącenia innych pierwiastków lub niejednorodności w sieci krystalicznej półprzewodnika. Mogą one wpływać na działanie łącznika fotoprzewodzącego.

Wyniki tych symulacji opisało czasopismo „Scientific Reports” https://pubs.acs.org/doi/10.1021/acsami.9b20309

PAP – Nauka w Polsce, Karolina Duszczyk

Możliwość komentowania Przełączniki przyszłości będą reagować na światło została wyłączona

Specjalistka ds. przygotowań astronautów do misji: szukamy też 50-latków; zarobki ponad 8 tys. euro

50 lat – to górna granica dla kandydatów do udziału w misjach kosmicznych. Europejska Agencja Kosmiczna (ESA) rozpocznie 31 marca rekrutację chętnych. Jak powiedziała w rozmowie z PAP dr Anna…

50 lat – to górna granica dla kandydatów do udziału w misjach kosmicznych. Europejska Agencja Kosmiczna (ESA) rozpocznie 31 marca rekrutację chętnych. Jak powiedziała w rozmowie z PAP dr Anna Fogtman, specjalistka od medycznego przygotowywania astronautów do misji kosmicznych w ESA „wiek może być zaletą, a nie wadą”. 

„Osoby starsze mają niższe prawdopodobieństwo wystąpienia problemów zdrowotnych po przyjęciu zwiększonych dawek promieniowania jonizującego, na które narażone będą osoby w przestrzeni kosmicznej” – wyjaśniła dr Fogtman. ESA planuje przyjąć od 4 do 6 osób.

„To, że astronauta musi być osobą wyjątkowo silną fizycznie jest mitem pochodzącym z pionierskich misji kosmicznych. Zachęcamy do wzięcia udziału w rekrutacji na kosmonautów kobiety, a także osoby z niepełnosprawnościami”– mówiła specjalistka – „Pierwsze misje kosmiczne to były loty w nieznane; brali w nich udział przede wszystkim mężczyźni, najczęściej z zapleczem wojskowym. Dzisiaj mamy dużą wiedzę na temat wyzwań, jakie niosą ze sobą loty w kosmos. I takie myślenie nie ma uzasadnienia. Astronautki i astronauci to muszą być ludzie o dobrym stanie zdrowia, ale nie muszą biegać maratonów, posiadać ponadprzeciętnej siły czy wytrzymałości fizycznej” – podkreśliła dr Fogtman.

Aby zostać kosmonautą trzeba jednak mieć ukończone studia z obszaru nauk ścisłych. Preferowane, choć niekonieczne, jest posiadanie certyfikatu pilota testowego.

„W tej kampanii rekrutacyjnej nie faworyzujemy żadnej z grup, lecz kładziemy nacisk na komunikację o rekrutacji z dotychczas niedoreprezentowanymi grupami w gronie astronautek i astronautów, w tym szczególności z kobietami. W poprzedniej kampanii w 2008 r. jedynie 16 proc. zgłoszeń wysyłały kobiety, co skutkowało, tym, że na 6 przyjętych kandydatów wybrano zaledwie jedną kobietę. Kładziemy nacisk na różnorodność i kierujemy nasz przekaz do osób różnego pochodzenia, tożsamości seksualnej, orientacji seksualnej i o różnych przekonaniach. Po raz pierwszy w historii lotów załogowych ESA rekrutuje także osoby z fizyczną niepełnosprawnością” – powiedziała dr Fogtman.

Czy zatem na misję zostanie przyjęta osoba na wózku inwalidzkim? „Każda aplikacja zostanie oceniona indywidualnie. Na tym etapie studium wykonalności lotów w kosmos osób z niepełnosprawnościami dopuszczamy: osoby bez jednej lub dwóch stóp, jednej lub dwóch nóg poniżej kolana, osoby o nierównych kończynach oraz kandydatki i kandydatów o niskim wzroście poniżej 130 cm.”- sprecyzowała specjalistka i zacytowała słowa jednej z astronautek ESA, Samanthy Cristoforetti – „w kosmosie wszyscy jesteśmy niepełnosprawni”.

Astronauci i astronautki zostaną zatrudnieni na standardowych umowach ESA, a ich wynagrodzenie będzie uzależnione od wielu czynników, takich jak wykształcenie i doświadczenie zawodowe. Będzie mieściło się w zakresie oficjalnej skali wynagrodzeń ESA na poziomie A2-A4, co oznacza nawet ponad 8 tys. EUR na miesiąc. ESA jest organizacją międzynarodową, a astronauci mają status urzędników międzynarodowych i dlatego są zwolnieni z odprowadzania podatku dochodowego.

Aplikować na stanowisko astronauty można będzie od 31 marca. Oferta ukaże się pod linkiem https://www.esa.int/About_Us/Careers_at_ESA, gdzie zostaną podane wszystkie informacje w zakresie wymaganych dokumentów.

„Osoby, które ukończyły 50 rok życia, zapraszamy do wysyłania aplikacji na inne stanowiska w ESA” – zachęciła dr. Fogtman.

Z Paryża Katarzyna Stańko(PAP)

Możliwość komentowania Specjalistka ds. przygotowań astronautów do misji: szukamy też 50-latków; zarobki ponad 8 tys. euro została wyłączona

Focus na hybrydowe chmury

Z czym mierzą się przedsiębiorcy w 2021 roku w kontekście przechowywania danych? Budowanie biznesu w oparciu o chmurę to obecnie najwyższy priorytet dla firm, a 2021 rok to czas wdrażania…

Z czym mierzą się przedsiębiorcy w 2021 roku w kontekście przechowywania danych? Budowanie biznesu w oparciu o chmurę to obecnie najwyższy priorytet dla firm, a 2021 rok to czas wdrażania hybrydowego modelu przechowywania danych. Takie rozwiązanie daje możliwość posługiwania się najnowszymi technologiami, pomaga zrewolucjonizować dotychczasowe modele biznesowe, co finalnie przełoży się na lepsze wyniki finansowe przedsiębiorstwa. Czym jest chmura hybrydowa?

Możliwość komentowania Focus na hybrydowe chmury została wyłączona

Ponad 11 mln zł na projekt badań aerozoli, chmur oraz gazów śladowych

Prowadzony przez kilka uczelni i instytutów projekt ACTRIS, którego celem jest rozbudowa infrastruktury badawczej do badania aerozoli, chmur i gazów śladowych, otrzymał dofinansowanie przekraczające 11 mln zł. Pieniądze pochodzą z…

Prowadzony przez kilka uczelni i instytutów projekt ACTRIS, którego celem jest rozbudowa infrastruktury badawczej do badania aerozoli, chmur i gazów śladowych, otrzymał dofinansowanie przekraczające 11 mln zł. Pieniądze pochodzą z Programu Operacyjnego Inteligentny Rozwój 2014–2020.

Liderem projekt „ACTRIS – Infrastruktura do badania aerozoli, chmur oraz gazów śladowych” jest Uniwersytet Wrocławski, a w skład konsorcjum realizującego to przedsięwzięcie wchodzą Instytut Geofizyki PAN (lider konsorcjum ACTRIS-PL), Instytut Podstaw Inżynierii Środowiska PAN, Instytut Meteorologii i Gospodarki Wodnej PIB, Uniwersytet Warszawski, Uniwersytet Śląski oraz Uniwersytet Przyrodniczy w Poznaniu. Przedsięwzięcie wpisane jest na Polską Mapę Drogową Infrastruktury Badawczej – podał Uniwersytet Wrocławski.

Jak wskazała wrocławska uczelnia, celem projektu jest rozbudowa infrastruktury badawczej do badania aerozoli, chmur i gazów śladowych oraz zacieśnienie współpracy z ogólnoeuropejską siecią infrastruktury badawczej Actris.

W ramach projektu kupiona zostanie aparatura pozwalająca na badanie aerozolu atmosferycznego i jego wpływu na zmiany klimatu, m.in. lidar, fotometr, nefelometr czy spektrometry cząstek działające w czasie rzeczywistym. Doposażone i rozbudowane zostaną centra badawcze we Wrocławiu, Rzecinie, Raciborzu, Sosnowcu, Zabrzu i Strzyżowie.

Uniwersytet Wrocławski ma być przy tym ośrodkiem, w którym będą przechowywane dane sieci Actris-Polska.

Actris to ogólnoeuropejska infrastruktura służąca badaniom aerozoli, chmur i gazów śladowych. Actris Polska skupia się na pomiarach aerozoli, które są słabo poznanym czynnikiem klimatotwórczym i jednym ze składników smogu, a także na badaniu chmur i interakcji aerozoli z chmurami – podał z kolei w komunikacie Uniwersytet Śląski. Uczelnia ta w ramach przedsięwzięcia kupi lidar (skaner laserowy wykorzystywany m.in. do pomiarów określających pionowe profile atmosfery). W aparaturę tę wyposażone zostanie laboratorium mobilne (samochód).

Projekt uzyskał dofinansowanie przekraczające 11 mln zł z Programu Operacyjnego Inteligentny Rozwój 2014–2020. Całkowity budżet przedsięwzięcia to ponad 14 mln zł.

PAP – Nauka w Polsce, Piotr Doczekalski

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Ponad 11 mln zł na projekt badań aerozoli, chmur oraz gazów śladowych została wyłączona

Kraków/ Studenci chcą pomóc rozwiązać problem kosmicznych śmieci

Studenci AGH w Krakowie przeprowadzą eksperymenty związane z wyłapywaniem kosmicznych śmieci z orbity okołoziemskiej. Doświadczenie będzie polegać na opracowaniu algorytmu analizującego ruch i sposób przemieszczania się tego typu obiektów. Projekt…

Studenci AGH w Krakowie przeprowadzą eksperymenty związane z wyłapywaniem kosmicznych śmieci z orbity okołoziemskiej. Doświadczenie będzie polegać na opracowaniu algorytmu analizującego ruch i sposób przemieszczania się tego typu obiektów.

Projekt Black Spheres studenci zrealizują w ramach wygranego przez nich konkursu „Drop Your Thesis!”, organizowanego przez Europejską Agencję Kosmiczną – podała w poniedziałek AGH.

Studenci Michał Błażejczyk, Kamil Switek, Kacper Synowiec oraz Kamil Maraj przeprowadzą eksperyment w marcu na wieży zrzutowej Uniwersytetu w Bremie.

Problem śmieci kosmicznych staje się coraz poważniejszy ze względu na wzrastającą liczbę wysyłanych na orbitę okołoziemską obiektów, które mogą zderzyć się z działającymi satelitami. W wyniku takiej kolizji powstaje chmura tysięcy nowych śmieci kosmicznych i szansa na kolejne zderzenia staje się o wiele większa.

Wyłapywanie śmieci kosmicznych jest wyzwaniem ze względu na niewielkie rozmiary obiektów, wysokie prędkości i duże rozproszenie. Potencjalnie najskuteczniejszym sposobem jest złapanie obiektu za pomocą ramienia robotycznego. Pozwala ono na przechwycenie uszkodzonego satelity bez wyrządzenia szkód i przeprowadzanie operacji naprawczych, a co za tym idzie – odzyskanie kosztownych elementów.

W eksperymencie, który przeprowadzą studenci, rolę uszkodzonego satelity spełni wydrukowana na drukarce 3D kula o średnicy 88 milimetrów i wadze 250 gram, wykonana ze specjalnej żywicy oraz zawierająca w sobie mechanizm z odważnikiem, lub w innej konfiguracji masę na sprężynie. W każdej z pięciu serii doświadczenia zostaną wypuszczone dwie kule, a ich ruch będzie obserwowany za pomocą sześciu kamer rozmieszczonych wewnątrz kapsuły. Wieża zrzutowa w Bremie pozwala na osiągnięcie warunków mikrograwitacji na ok. 9 sekund. Kapsuła, w której będą znajdować się kule, zostaje wystrzelona na 130 metrów i od momentu wystrzału przyspieszenie wewnątrz kapsuły będzie zerowe, ponieważ jej ruch kompensuje grawitację.

Projekt studentów AGH skupia się na obserwacji uszkodzonego satelity i automatycznym przewidywaniu jego pozycji i orientacji. Celem jest m.in. przetestowanie metody przewidywania ruchu w mikrograwitacji. Eksperymenty pozwolą na zebranie danych dotyczących ruchu obiektów ze zmiennym rozkładem masy.

„Mamy nadzieję, że uzyskane podczas eksperymentów wyniki pomogą w rozwiązaniu pilnego i narastającego problemu, jakim są kosmiczne śmieci. To kolejna ciekawa inicjatywa z obszaru przemysłu kosmicznego, w który chcielibyśmy się zaangażować, szczególnie jako Europejski Uniwersytety Kosmiczny, którym AGH jest od zeszłego roku” – powiedział opiekun projektu Black Spheres dr inż. Paweł Zagórski, cytowany w informacji uczelni.

Konkurs dla studentów „Drop Your Thesis” jest organizowany corocznie przez Europejską Agencję Kosmiczną. W ramach konkursu zwycięskie zespoły realizują swoje projekty w profesjonalnych obiektach, których na co dzień używają naukowcy ESA.(PAP)

Możliwość komentowania Kraków/ Studenci chcą pomóc rozwiązać problem kosmicznych śmieci została wyłączona

Sztuczna inteligencja wesprze w diagnozie schizofrenii, a może i autyzmu?

Język, którego używają osoby ze schizofrenią i osoby ze spektrum autyzmu, w pewien sposób różni się od języka innych osób. Naukowcy na przykładzie języka polskiego pokazują, że sztuczna inteligencja może…

Język, którego używają osoby ze schizofrenią i osoby ze spektrum autyzmu, w pewien sposób różni się od języka innych osób. Naukowcy na przykładzie języka polskiego pokazują, że sztuczna inteligencja może wspomóc psychiatrów i psychologów w rozpoznawaniu objawów schizofrenii, a kiedyś – może i autyzmu.

Badacze wzięli na warsztat wypowiedzi pochodzące ze standardowych wywiadów klinicznych (badań diagnostycznych) dorosłych osób ze schizofrenią oraz dzieci ze spektrum autyzmu. W przypadku schizofrenii algorytm uzyskiwał wysoką skuteczność – prawie 90 proc. (a więc mylił się raz na 10 ocen). A w przypadku autyzmu – wypadł słabiej – jego skuteczność wynosiła ok 65 proc. (trafnie rozpoznawał więc dwie na trzy osoby).

Wyniki badań na ten temat ukazały się w „Cognitive Computation” (https://doi.org/10.1007/s12559-021-09834-9). Autorami są małżonkowie dr Aleksander Wawer z Instytutu Podstaw Informatyki PAN i dr Justyna Sarzyńska-Wawer z Instytutu Psychologii PAN, a także dr Izabela Chojnicka z Wydziału Psychologii UW i dr hab. Łukasz Okruszek z IP PAN.

„Naszym narzędziem mogą się zainteresować psychiatrzy czy psychologowie kliniczni. Pomóc im może w diagnozie albo w analizie postępów terapii – zwłaszcza osób ze schizofrenią” – komentuje dr Justyna Sarzyńska-Wawer. A dr Aleksander Wawer dodaje, że takie badania prowadzono już wcześniej dla innych języków – choćby angielskiego, ale jeszcze nie było badane to na języku polskim.

Badacze tłumaczą, że algorytm szkolony był na tekstach zebranych przez psychiatrę podczas badań dotyczących poznania społecznego osób ze schizofrenią. Osoby te m.in. ustnie odpowiadały na pytania ogólne (o siebie i najbliższych), a także abstrakcyjne (np. dlaczego ludzie chorują, a dlaczego wierzą w Boga). Wypowiedzi te później spisano. W taki sam sposób zebrane były dane kontrolne – wypowiedzi innych osób z podobnych grup demograficznych.

W przypadku zaś badania autyzmu, algorytm uczył się na tekstach spisanych z częściowo ustrukturyzowanych wystandaryzowanych badań z udziałem dzieci, adolescentów i osób dorosłych.

„Na tych danych staraliśmy się nauczyć modele sztucznej inteligencji rozpoznawania, które z wypowiedzi to wypowiedzi osób z diagnozą” – mówi dr Aleksander Wawer.

A dr Sarzyńska-Wawer tłumaczy: „W przypadku badania dotyczącego schizofrenii nie były to osoby w aktywnej fazie psychozy. A różnice między osobami zdrowymi a zdiagnozowanymi były trudne do wychwycenia +gołym okiem+. Doświadczony psychiatra, którego poprosiliśmy, żeby na podstawie tych samych tekstów oceniał, czy to schizofrenia, czy nie, radził sobie gorzej niż algorytm”.

To, że język osób ze schizofrenią lub osób ze spektrum autyzmu różni się od języka innych osób wiadomo było od dawna. Naukowcy od wielu lat wyodrębniali cechy języka w autyzmie i schizofrenii. Wcześniejsze badania pokazały np., że osoby ze spektrum autyzmu używają mniej wyrazów nacechowanych emocjonalnie. Jest też różnica jeśli chodzi o stopień abstrakcyjności wypowiedzi. „Z kolei z innych badań wiadomo, że u osób ze schizofrenią jest więcej wypowiedzi o charakterze afektywnym, ale głównie określeń o negatywnym wydźwięku” – mówi psycholog.

Proces diagnostyczny obu tych jednostek bazuje jednak na subiektywnych wskaźnikach behawioralnych. „A my pokazujemy, że proces ten można zautomatyzować, zobiektywizować i usprawnić” – mówi dr Wawer. I dodaje, że akurat w psychiatrii nie ma tak wielu obiektywnych narzędzi jak w innych obszarach nauki, jak choćby badania krwi czy skan mózgu, które by powiedziały z dużą pewnością, że ktoś cierpi na daną chorobę lub zaburzenie, albo nie. „Duża jest więc tu rola psychiatry i psychologa, ich doświadczenie. A przecież zaburzeń, które mogą być do siebie podobne jest dużo. Dodatkowe narzędzie wspomagające diagnostykę może się więc tu przydać” – uważają rozmówcy PAP.

Naukowcy mają nadzieję, że kiedyś tego typu narzędzie mogłoby być stosowane zdalnie, w badaniach przesiewowych. Algorytm pomagałby więc psychiatrom i psychologom klinicznym – na podstawie przesłanych wypowiedzi pisemnych – wybrać osoby, które warto, aby zgłosiły się na dalsze specjalistyczne badania. Dzięki temu można byłoby wcześniej dokonywać diagnozy i zaczynać terapię.

„Nowinką z mojej perspektywy było zastosowanie w tych badaniach metody few-shot – mówi dr Aleksander Wawer. – Sieci neuronowe zwykle wymagają do treningu ogromnych baz. I tak np. żeby nauczyć algorytm rozpoznawania znaków drogowych, potrzeba milionów zdjęć. A my nie mamy milionów przypadków spisanych wypowiedzi osób ze zdiagnozowaną schizofrenią. Mieliśmy do dyspozycji tylko 50 takich tekstów. Wyzwaniem było więc zastosowanie takich metod trenowania sztucznej inteligencji, które wymagają niewielkiej bazy danych. To było unikalne z punktu widzenia informatycznego” – mówi.

PAP zapytała naukowców, czy nie boją się, że narzędzie to może zostać wykorzystane do analizy tekstów osób, które wcale by sobie diagnozy nie życzyły (choćby wypowiedzi osób publicznych). Dr Sarzyńska-Wawer zaznacza, że narzędzie nie zastąpi w diagnozie specjalisty. „Algorytm wykrywa tylko przejawy, które mogą być oznaką schizofrenii. Ale te przejawy wcale nie są równoznaczne z diagnozą” – zwraca uwagę. A dr Wawer dodaje: „Na razie braliśmy pod uwagę dane z wywiadów klinicznych. Jeszcze kawałek drogi, żeby brać pod uwagę dowolny tekst”.

Naukowcy zapowiadają, że jeśli chodzi o wsparcie w diagnozie schizofrenii, to ich narzędzie ma na tyle wysoką skuteczność, że chcieliby wkrótce udostępnić je psychiatrom. (PAP)

Autorka: Ludwika Tomala

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Sztuczna inteligencja wesprze w diagnozie schizofrenii, a może i autyzmu? została wyłączona

Polacy opracowali dokładne mapy poczerwienienia w Obłokach Magellana

Unikatowe, najdokładniejsze dotąd mapy poczerwienienia międzygwiazdowego w Obłokach Magellana opracowali astronomowie Obserwatorium Astronomicznego UW w ramach przeglądu nieba OGLE. Obłoki stanowią „laboratorium” do badań galaktyk, a uzyskane mapy będą doskonałym…

Unikatowe, najdokładniejsze dotąd mapy poczerwienienia międzygwiazdowego w Obłokach Magellana opracowali astronomowie Obserwatorium Astronomicznego UW w ramach przeglądu nieba OGLE. Obłoki stanowią „laboratorium” do badań galaktyk, a uzyskane mapy będą doskonałym narzędziem do kolejnych badań kosmologicznych.

Mały i Wielki Obłok Magellana to dwie pobliskie galaktyki, będące satelitami naszej Galaktyki – Drogi Mlecznej. Ze względu na ich bliskość i wzajemne oddziaływanie są one parą najczęściej badanych galaktyk we Wszechświecie i stanowią swego rodzaju laboratorium do badań struktury, ewolucji i oddziaływań galaktyk. Obłoki Magellana są również idealnym środowiskiem do badań populacji gwiazdowych oraz rozkładu materii międzygwiazdowej. Co więcej, używa się ich do kalibracji kosmicznej skali odległości, będącej podstawą badań kosmologicznych – wyjaśniają specjaliści na stronie Uniwersytet Warszawski.

Większość opisanych wyżej badań wymaga uwzględnienia wpływu poczerwienienia międzygwiazdowego na obserwacje astronomiczne. Poczerwienienie to efekt pochłaniania światła obiektu przez pył znajdujący się między obserwatorem a badanym obiektem. W efekcie obiekt ten wydaje się ciemniejszy i bardziej czerwony niż jest w rzeczywistości. Ma to bezpośredni wpływ na wyznaczanie odległości do obiektów. Bez uwzględnienia wpływu pyłu są one zawyżone. Dlatego, aby móc badać populacje gwiazdowe, potrzebujemy dokładnych map poczerwienienia w Obłokach Magellana.

Dotychczasowe mapy poczerwienienia w Obłokach Magellana obejmowały jedynie centralne obszary obu galaktyk i były obarczone błędem wynikającym z problemów z ich kalibracją.

Jednak dzięki wieloletnim obserwacjom projektu OGLE, prowadzonego w Obserwatorium Astronomicznym Uniwersytetu Warszawskiego, zespół astronomów prowadzonych przez dr Dorotę Skowron i dr. Jana Skowrona, był w stanie stworzyć pierwsze w historii dokładne mapy poczerwienienia, obejmujące cały obszar obu galaktyk.

„Wykorzystano do tego gwiazdy typu Red Clump – czerwone olbrzymy, które są na etapie spalania helu w jądrze, dzięki czemu mają dobrze określoną jasność rzeczywistą, a co za tym idzie również kolor. Następnie, poprzez porównanie oczekiwanego koloru gwiazd z kolorem obserwowanym, można wyznaczyć ich poczerwienienie” – czytamy w komunikacie UW.

Powstałe w ten sposób szczegółowe mapy poczerwienienia są narzędziem do analizy populacji gwiazdowych i badań struktury Obłoków Magellana.

Wyniki badania opublikowano w piśmie The Astrophysical Journal Supplement Series: https://iopscience.iop.org/article/10.3847/1538-4365/abcb81

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Polacy opracowali dokładne mapy poczerwienienia w Obłokach Magellana została wyłączona

Kraków/ Na Uniwersytecie Rolniczym powstała modułowa uprawa hydroponiczna

Naukowcy z Uniwersytetu Rolniczego w Krakowie stworzyli modułową uprawę hydroponiczną z systemem kontroli warunków uprawy. Według nich to pierwszy w Polsce tego rodzaju proekologiczny i ekonomiczny kontener uprawowy. „To bardzo…

Naukowcy z Uniwersytetu Rolniczego w Krakowie stworzyli modułową uprawę hydroponiczną z systemem kontroli warunków uprawy. Według nich to pierwszy w Polsce tego rodzaju proekologiczny i ekonomiczny kontener uprawowy.

„To bardzo innowacyjny projekt, który powstał dzięki połączeniu pasji, wiedzy, kreatywności i doświadczenia naukowców z zakresu rolnictwa, ogrodnictwa i inżynierii mechanicznej i stanowi spełnienie wizji i pozytywnej ambicji inwestora” – powiedział kierownik Katedry Gleboznawstwa i Agrofizyki dr hab. inż. Tomasz Zaleski. Badacze opracowali i zbudowali kontener na zamówienie prywatnej firmy.

Jak dodał naukowiec, kontener uprawowy został zbudowany na bazie morskiego kontenera chłodniczego z automatyczną kontrolą temperatury atmosfery, dzięki czemu jest przystosowany do uprawy w niemal każdych warunkach klimatycznych. Naukowiec ocenił, że to pierwsze takie rozwiązanie w Polsce.

Mieszcząca się w 12-metrowym kontenerze morskim uprawa niskich warzyw liściastych i ziół znajduje się jeszcze w Uniwersytecie Rolniczym, ale może być prowadzona w niemal w każdym miejscu na Ziemi, przez cały rok, zużywając przy tym mniej wody w porównaniu do tradycyjnego szklarniowego lub gruntowego systemu uprawy. Lampy LED – jedyne źródło światła, o odpowiednio dobranym promieniowaniu, decydują o wielkości i jakości plonów oraz tempie wzrostu rośliny.

Naukowcy zamierzają udoskonalać projekt, który wcześniej zyskał dofinansowanie ze środków unijnych w ramach programu „Bon na Innowacje”.

Twórcami kontenera z modułową uprawą hydroponiczną są dr hab. inż. Tomasz Zaleski, dr inż. Anna Kołton i dr hab. inż. Jarosław Knaga.

PAP – Nauka w Polsce, Beata Kołodziej

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Kraków/ Na Uniwersytecie Rolniczym powstała modułowa uprawa hydroponiczna została wyłączona

Algorytm rozpoznaje Alzheimera

Oparty o sztuczną inteligencję algorytm stworzony przez IBM po analizie pisma ręcznego jest w stanie określić kto w przyszłości zapadnie na chorobę Alzheimera. Skuteczność takiej “diagnozy” to 75 proc. A…

Oparty o sztuczną inteligencję algorytm stworzony przez IBM po analizie pisma ręcznego jest w stanie określić kto w przyszłości zapadnie na chorobę Alzheimera.

Skuteczność takiej “diagnozy” to 75 proc. A biorąc pod uwagę fakt, że pada ona na kilka lat przed wystąpieniem pierwszych symptomów choroby rozpoznawanych przez dzisiejsze metody, eksperci już mówią o powstaniu narzędzia, które będzie ogromnym wsparciem dla lekarzy.

Algorytm nie tyle analizował krój pisma ile badał błędy i złożoność opisu. Kilkaset osób zostało poproszonych o opisanie tego co dzieje się na zwykłym, przedstawiającym domową scenę, rysunku. Algorytm analizował nie tylko CO znalazło się w opisie ale także JAK opis sformułowano. Szukał drobnych błędów, złego użycie dużych liter i opisu składającego się z równoważników zdań (zamiast pełnych zdań), czyli w skrócie telegraficznego języka.

Elif Eyigoz et al., The Lancet 2020

Osoby opisujące w ten sposób scenę przedstawioną na rysunku, to osoby u których rozpoczęły się już zmiany chorobowe w mózgu. Na razie „na zewnątrz” trudno je jednak zauważyć. Dokładność tej metody diagnozy – jak napisano w publikacji z czasopisma The Lancet – wynosi 75 proc.

Naukowcy twierdzą, że choroby neurologiczne można znacząco spowolnić, pod warunkiem, że diagnoza zapadnie odpowiednio wcześnie. Wiele wskazuje na to, że to algorytmy będą tą pierwszą linią diagnostyczną w takich przypadkach, gdyż zauważają one zmiany, które są nieuchwytne przez inne metody wykorzystywane dzisiaj w medycynie. Ponadto ich ogromną zaletą jest to, że są nieinwazyjne, tanie, dostępne i nie wymagają zaawansowanej technologii w miejscu prowadzenia badania. Wiele z tych badań czy analiz można przeprowadzić dzięki narzędziom chmurowym.

Inne badania koncentrują się na analizie mowy. I znowu, nie wymagają specjalistycznego sprzętu. Wystarczy mikrofon w telefonie komórkowym i odpowiednia aplikacja. Niektóre choroby neurologiczne – zanim pojawią się ich pierwsze symptomy – mogą zostać zauważone po zmianie sposobu mówienia. Pojawiają się problemy z określeniem ilości przedmiotów, chorzy zaczynają nieco wolniej mówić i robią w środku zdań niespodziewane przerwy. Często też używają coraz mniej określeń abstrakcyjnych. Co ogromnie ważne, te zmiany nie są związane z językiem w jakim człowiek się posługuje, są uniwersalne. Jak takie badanie wygląda w praktyce? Badany dostaje SMSem (albo w specjalnej aplikacji) obrazek, nagrywa swoimi słowami jego opis, a nagranie jest analizowane przez algorytm AI. Takie badania prowadzi się na Uniwersytecie Kalifornijskim w San Francisco. Z wstępnych wyników można wyciągnąć wniosek, że niektóre choroby neurologiczne da się w ten sposób przewidzieć z nawet 10cio letnim wyprzedzeniem.

Zresztą, wykorzystywanie algorytmów AI w medycynie nie ogranicza się tylko do rozpoznawania chorób neurologicznych. W poniższym filmie pokazuję jak wykorzystuje się je do identyfikacji ognisk nowotworowych:

 

Możliwość komentowania Algorytm rozpoznaje Alzheimera została wyłączona

Type on the field below and hit Enter/Return to search

Skip to content