Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: fizyka

Jak zrobić latawiec?

Zrobienie latawca jest bajecznie proste. Nie trzeba do tego wyszukanych materiałów, ani drogich urządzeń. A zabawy (zarówno dla dzieci jak i dorosłych) cała masa.

Dlaczego latawiec lata? W największym skrócie dlatego, że ciśnienie pod nim jest większe niż ciśnienie nad nim. Ta różnica ciśnień wynika z tego, że pęd powietrza opływa go z góry i z dołu z różną prędkością.

Struga powietrza „natrafiając” na latawiec rozdziela się. Gdy latawiec znajduje się pod odpowiednim kątem (to tzw. kąt natarcia), struga, która opływa go wzdłuż górnej powierzchni porusza się szybciej, a wzdłuż dolnej wolniej. To powoduje, ze nad latawcem jest niższe ciśnienie, a pod nim wyższe. To powoduje, że latawiec zaczyna się unosić. Jeżeli tak jest, dlaczego nie unosi się w nieskończoność ? Bo w dół ciągnie go siła grawitacji. Czym latawiec cięższy, tym ma ona większe znaczenie. Jeżeli unosi jakąś aparaturę badawczą, „zły” wpływ siły grawitacji można nadrobić zwiększając powierzchnię „skrzydła”. Ale i tutaj trzeba znać umiar. Czym większe skrzydło, tym cięższy latawiec, tym mocniejsza (a więc także cięższa) musi być linka, która go przytrzymuje. Duże latawce w zasadzie nie startują z rozbiegu, a do tego by puszczać je „z ręki” potrzeba dużego wiatru.

A co z ogonem? Latawce potrafią bez nich latać, ale w przypadku płaskich latawców ogon jest bardzo pomocny. Choć powoduje że latawiec jest cięższy, a to oznacza, ze na pewno wolniej będzie się wznosił i niżej latał, ogon utrudnia niepożądane obroty i kołysanie latawca wokół którejś z jego osi. Obroty są problemem szczególnie dla mniejszych latawców, które są bardzo podatne na zmieniający się wiatr. W skrócie, ogon zwiększa stabilność. Zresztą to akurat możecie sprawdzić sami.

latawiec

Gdy latawiec w końcu się uniesie… zaczyna się zabawa. Można ścigać się który poleci wyżej, który szybciej się wzniesie czy w końcu który dłużej utrzyma się w powietrzu. Jest jednak kilka reguł co do których puszczając latawce trzeba bezwzględnie się stosować. Nigdy nie wolno puszczać latawców w pobliżu linii wysokiego (jakiegokolwiek) napięcia, a także w pobliżu lotnisk, wysokich anten czy urwisk. Nie wolno tego robić także w pobliżu dróg publicznych. Lepiej (dla latawca) by w pobliżu nie było drzew. Pod żadnym pozorem nie wolno puszczać latawców w czasie burzy lub tuż przed nią. Może to grozić śmiertelnym niebezpieczeństwem, bo w wysoko latający obiekt może uderzyć błyskawica. I jeszcze jedno. Gdy latawiec jest duży, a wiatr silny, lepiej uważać z puszczaniem latawców. Latawiec bez problemu może przewrócić człowieka, a nawet go unieść. Jak ktoś nie wierzy, niech w Internecie wyszuka takie dyscypliny sportu jak kitejumping, kiteboarding czy buggykiting.

A na koniec kilka rekordów. W sierpniu 1919 roku, w Niemczech padł rekord wysokości lotu latawcem – 9740 metrów. Najdłuższy latawiec miał 1034 metry, największy miał powierzchnię 553 m2, a najszybszy poruszał się z prędkością 193 km/h. Najdłużej w powietrzu latawiec znajdował się 180 godzin.

> Tutaj mój materiał wideo o puszczaniu latawców:

Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

1 komentarz do Jak zrobić latawiec?

Nobel z fizyki – abstrakcja goni abstrakcję

W ciągu każdej sekundy, przez nasze ciała przenika kilkadziesiąt bilionów neutrin. Abstrakcyjnie dużo. Masa każdego z nich jest mniejsza niż miliardowa część masy atomu wodoru. Abstrakcyjnie mało. Takie właśnie są neutrina. Abstrakcyjne. Za ich badania przyznano tegorocznego Nobla z fizyki.

Neutrina są najbardziej chyba nieuchwytnymi cząstkami badanymi przez fizyków. Prawie w ogóle nie oddziałują z materią. Po prostu przez nią przenikają. Zupełnie tak, jak gdyby była dla nich przezroczysta. Nie stanowią dla nich żadnej przeszkody ciała niebieskie jak i olbrzymie odległości (które pokonują z prędkością zbliżoną do prędkości światła). Powstają w czasie reakcji jądrowych, nie mają ładunku i posiadają nieskończenie małą masę. Neutrina występują w trzech odmianach. Najlepiej poznane są tzw. neutrina elektronowe, ale oprócz nich istnieją jeszcze neutrina taonowe i mionowe. I to właśnie różne odmiany tej samej cząstki były przez 30 lat powodem zamieszania nazwanego tajemnicą neutrin słonecznych. Ale zanim o tajemnicy.

PH20-water-withboat-apr23-wm-small

Wnętrze ogromnego detektora neutrin Super-Kamiokande. Wydrążony we wnętrzu góry mieści 50 000 ton superczystej wody. Widoczne na zdjęciu bańki to fotopowielacze, które rejestrują subtelne błyski światła. Te powstają wtedy, gdy neutrino zderzy się z jądrem atomowym.

Dlaczego ich badanie jest tak ważne? Na prawdę zasługuje aż na Nagrodę Nobla?  Neutrina są być może najliczniejszą grupą cząstek jakie „zasiedlają” nasz wszechświat. W ciągu każdej sekundy, przez nasze ciała przenika ich kilkadziesiąt miliardów. Abstrakcyjnie dużo. Skoro chcemy poznać wszechświat, skoro mamy ambicje by go zrozumieć, nie poradzimy sobie bez wiedzy o neutrinach. Przez lata uważano, że są to cząstki bezmasowe, czyli, że w ogóle nie mają masy. W rzeczywistości ważą, choć tyle co nic. W przypadku tak małych i ulotnych obiektów trudno mówić o precyzyjnym pomiarze masy, ale szacunkowo masę neutrin określa się na dziesiąte części elektronowolta, a to mnie niż jedna miliardowa część masy atomu wodoru. Abstrakcyjnie mało.

A wracając do tajemnicy neutrin słonecznych. Naukowcy doskonale wiedzą w wyniku jakich reakcji we wnętrzu Słońca powstaje jeden z rodzajów neutrin, czyli neutrina elektronowe. Z dużą precyzją można policzyć ile neutrin elektronowych powinno trafiać na Ziemię i ile powinno być rejestrowanych. Przez lata problem polegał jednak na tym, że te przewidywania teoretyczne nijak się miały do danych eksperymentalnych. Neutrin elektronowych na Ziemi rejestrowano o wiele mniej (aż o ok. 70 proc. mniej) niż powinno ich być. Możliwości były dwie. Albo reakcje, które wg. fizyków powinny zachodzić w jądrze Słońca wcale tam nie zachodzą i dlatego o wiele mniej neutrin elektronowych dociera do Ziemi, albo w czasie swojej podróży pomiędzy gwiazdą a naszą planetą coś z neutrinami się dzieje. Ostatecznie okazało się, że fizycy mieli rację co do procesów zachodzących w Słońcu. One po prostu oscylują – czyli zmieniają swoje właściwości. Zamieniają się pomiędzy sobą postaciami. Jedne neutrina spontanicznie, zmieniają się w inne. W naszym świecie dużych przedmiotów to zdolność mocno abstrakcyjna. Jak można ją sobie wyobrazić? A można sobie wyobrazić spadające z drzewa jabłko, które w czasie lotu ku powierzchni gruntu spontanicznie zamieni się w śliwkę, po to by ostatecznie upaść na trawę jako gruszka? Takie właśnie są neutrina. Abstrakcyjne.  Zamiast badać jeden rodzaj neutrin docierających do Ziemi,  zaczęto przyglądać się im wszystkim na raz. Tym razem, wszystko się zgadzało. To było ostateczne potwierdzenie tzw. oscylacji neutrin.

Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

 

 

 

Tomasz Rożek

3 komentarze do Nobel z fizyki – abstrakcja goni abstrakcję

Kiedy, gdzie i jak obserwować Krwawy Księżyc?

Gdzie zwrócić wzrok, o której godzinie rozpocznie się najciekawsze i czy trzeba do obserwacji krwawego Księżyca mieć z sobą jakikolwiek sprzęt?

Kiedy?

W najbliższy poniedziałek, od godziny 2 w nocy. Choć najciekawsze będzie się działo dopiero dwie godziny później. Kilka minut po godzinie 3 nad ranem tarcza Księżyca w całości będzie znajdowała się w tzw. strefie półcienia”. Ale na prawdę widowiskowo zacznie być dopiero o 4:11. Wtedy cały Księżyc będzie w cieniu Ziemi. Nie zniknie jednak tylko będzie się stawał coraz bardziej czerwony (z domieszką brązu). Do 4:47 tarcza Księżyca będzie stawała się coraz ciemniejsza, a od tego momentu z każdą chwilą będzie się rozjaśniała. O 5:23 nastąpi koniec fazy całkowitego zaćmienia. Strefę pełnego cienia, Księżyc opuści o 6:27.  W skrócie mówiąc to co najciekawsze wydarzy się pomiędzy 4:11 a 5:23 i potrwa 72 minuty.

Gdzie?

lunar_201509Krwawy Księżyc będzie w Polsce widoczny wszędzie. Zresztą nie tylko w Polsce, ale także w całej Ameryce Południowej, w prawie całej Ameryce Północnej i Afryce. Księżyc, a szczególnie Księżyc w pełni to bardzo duży i jasny obiekt, stąd będzie widoczny także w miejscach „zanieczyszczonych” sztucznym światłem, a więc np. w centrach miast. Oczywiście obserwacje będą lepsze, gdy będą prowadzone z dala od sztucznych świateł.

Całkowite zaćmienie Księżyca nastąpi w chwili gdy Srebrny Glob będzie nisko nad horyzontem. Oznacza to, że niczego nie zobaczymy np. górskich dolinach, albo w mieście, w otoczeniu wysokich budynków. Do obserwacji trzeba więc wybrać miejsce, w którym nie będzie przeszkód patrząc w kierunku zachodnim i południowo-zachodnim i zachodnim. Optymalnie, gdyby takie miejsce było na wzniesieniu.

To, że Księżyc będzie nisko nad horyzontem spowoduje, że obserwacje będą ciekawsze. Oczywiście pod warunkiem, że niebo nie będzie przysłonięte chmurami.

Jak?

Księżyc jest tak dużym i jasnym obiektem, że bez problemu można do obserwować gołym okiem. Zwykłą lornetka, nie mówiąc o nawet najprostszym teleskopie będzie można zjawisko „zacieniania” Księżyca zobaczyć bardzo dokładnie. Tak samo jak będzie można z dużymi detalami oglądać obiekty na powierzchni Księżyca.

Dobrym pomysłem jest fotografowanie i filmowanie zjawiska. Podobnie jak z obserwacją, nie potrzeba do tego żadnego specjalistycznego sprzętu. Wystarczy zwykły aparat fotograficzny (nawet kompaktowy automat). Jedyne o co warto się zatroszczyć to statyw. Z reki obraz będzie nieatrakcyjny.

Zainteresowanym obserwacją i fotografowaniem Krwawego Księżyca polecam mój kolejny wpis. KLIKNIJ TUTAJ !!!

5 komentarzy do Kiedy, gdzie i jak obserwować Krwawy Księżyc?

Pluton jak Biedronka

Wczorajszy przelot sondy New Horizons w pobliżu Plutona natchnął mnie do pewnych przemyśleń. Po co badać coś tak odległego jak Pluton? Po co badać delfiny, motyle czy orangutany? Po co zajmować się gwiazdami, płytami tektonicznymi i DNA?

Wczorajszy przelot w pobliżu Plutona i związanych z nim sporo pytań natchnął mnie do pewnych przemyśleń. Niemal za każdym razem, gdy w nauce dochodzi do jakiegoś odkrycia, do wysłania sondy, do zbudowania nowego rodzaju mikroskopu czy znalezienia nowej cząstki elementarnej, pada pytanie, po co to wszystko? Po co wydawać miliony dolarów by dowiedzieć się co słychać np. na globie, który oddalony jest od nas o miliardy kilometrów. Dajmy na to na takim Plutonie. Wczoraj udało się sfotografować jego powierzchnię z odległości nieco ponad 12 tysięcy kilometrów. To 30 razy mniej niż odległość pomiędzy Ziemią i naszym Księżycem. Sonda która tego dokonała to New Horizons. Leciała w kierunku Plutona prawie 10 lat przebywając w tym czasie 5 miliardów kilometrów. No i po co to wszystko? Po co lecieć tak daleko, po co wydawać niemałe przecież pieniądze, po co zaangażowanie ogromnej grupy ludzi przez długi okres czasu?

Zacznijmy od pieniędzy. Całkowity koszt misji New Horizons, wszystkich urządzeń sondy, jej wystrzelenia, ale także analizy danych a nawet obsługi medialnej wydarzenia to około 700 milionów dolarów, czyli nieco ponad 2 miliardy i 600 milionów złotych. To dziesięć razy mniej (!!!) niż wynosi roczny przychód supermarketów Biedronka w Polsce. To mniej niż budowa 20 kilometrowego odcinka autostrady A1. W końcu to mniej niż zakup i 13 letnia obsługa 4 samolotów F16, które służą w polskiej armii (w sumie kupiliśmy ich 48). Tyle jeżeli chodzi o koszty. Tak, te są duże… dla przeciętnego obywatela. Niewielu byłoby stać na wybudowanie i wysłanie w kosmos sondy New Horizons (choć np. Jan Kulczyk, najbogatszy Polak, mógłby takich sond wysłać 7), ale w skali państwa, dla budżetu państwa rozwój nauki to grosze. Grosze zainwestowane najlepiej jak można sobie wyobrazić. Grosze, które w przyszłości przyniosą miliony poprzez rozwój technologii a w dalszej perspektywie rozwój przemysłu. Każda ekspansja to wyzwanie i konieczność znajdowania rozwiązań na problemy z których nie zdawaliśmy sobie sprawy. Przecież loty w kosmos mają bezpośrednie przełożenie na komunikację, elektronikę i materiałoznawstwo. Rozwój technik obrazowania (nieważne czy w astronomii czy w biologii) od razu jest wykorzystywany w medycynie. Nasze miasta byłyby skażonymi pustyniami gdyby nie powstawały zaawansowane technologicznie silniki i komputery, które tymi silnikami sterują.

A wracając do Plutona, delfinów, motyli i orangutanów. Po co je badać? Bo one są częścią nas, a my częścią świata którego różnorodność – przynajmniej mnie – powala na kolana. Wszystkie lekkie atomy, które nas budują powstały w czasie Wielkiego Wybuchu. Wszystkie ciężkie w czasie wybuchu gwiazdy. Warto rozwijać zarówno kosmologię, astrofizykę jak i fizykę cząstek. Nasze DNA to uniwersalny język całej przyrody, a gatunki (zarówno zwierzęce jak i roślinne), które zamieszkują Ziemię (a pewnie także inne globy) powstawały jedne z drugich. To dlatego nie można zaniedbywać biologii (w tym egzobiologii) i medycyny. Oddychamy powietrzem w którego skład wchodzą różne gazy. To dlatego warto rozwijać chemię i interesować się tym jak zmieniały się atmosfery na innych planetach. Ta wiedza może być bezcenna gdy zacznie zmieniać się nasza atmosfera. Bo to że wszystko jest wokoło nas zmienne – to oczywiste. Kontynenty są w ruchu (nie tylko zresztą na Ziemi) i dzięki temu mogło powstać życie. Ale to nie powstałoby, gdyby Ziemia nie miała swojego pola magnetycznego. A tego by nie było gdyby jądro planety nie było gorące i półpłynne. Ale nawet gdyby było, Ziemia byłaby martwa, gdyby nie było Księżyca, który stabilizuje ruch Niebieskiej Planety wokół Słońca. A Księżyc powstał w kosmicznej katastrofie w której w Ziemię uderzyła planetoida wielkości Marsa. Geologia, geografia, fizyka, astronomia, biofizyka i biochemia… Mam dalej wymieniać? Czy jest sens wymieniać? Czy jest sens pytać, po co badamy coś tak odległego jak Pluton? Po co badamy delfiny, motyle czy orangutany, a nawet biedronki (chodzi o owada, nie o sieć sklepów)? Moim zdaniem szkoda na to czasu. Lepiej go wykorzystać na zaspokajanie swojej ciekawości. Bo to ciekawość idzie przed odkryciami. Tak było zawsze i tak będzie zawsze.

3 komentarze do Pluton jak Biedronka

Ludowców gra grafenem

W jednym z najbardziej znanych na świecie polskich instytutów naukowych, w miejscu w którym produkuje się grafen, doszło dziwnych i niezrozumiałych kombinacji podczas wyboru dyrektora placówki. Sprawa wygląda na polityczną ustawkę, która może utopić polski grafen.

W jednym z najbardziej znanych na świecie polskich instytutów naukowych, w miejscu w którym produkuje się grafen, doszło dziwnych i niezrozumiałych kombinacji podczas wyboru dyrektora placówki. Sprawa wygląda na polityczną ustawkę, która może utopić polski grafen.

O sprawie pisałem już w Tygodniku Gość Niedzielny. Dotychczasowym szefem Instytutu Technologii Materiałów Elektronicznych (ITME) w Warszawie był doktor Zygmunt Łuczyński. Zasłużony fizyk i człowiek, który wiele lat temu zainicjował w tej jednostce badania nad nowymi postaciami węgla, czyli nad grafenem („wie pan, chodziłem za tym, jak jeszcze nikt nie wiedział czym jest grafen„). Dzisiaj ITME jest światowym liderem technologii. To w Warszawie powstają jedne z największych kawałków grafenu na świecie. Naukowcy pracujący w „grupie grafenowej” są zaangażowani w najbardziej prestiżowe projekty międzynarodowe, a sam instytut w rankingach jest plasowany na czołowych pozycjach. Dla przypomnienia, grafen to postać węgla, która ma niespotykane w innych materiałach właściwości. Jest bardzo wytrzymały, a równocześnie elastyczny. Lekki i przezroczysty, ale odporny na działanie sił zewnętrznych. Doskonale przewodzi prąd i ciepło. I choć trudno znaleźć dziedzinę w której grafen nie mógłby być wykorzystywany, największe nadzieje wiąże się z grafenem w elektronice. Panuje powszechne przekonanie, że w najbliższej przyszłości, to grafen, czy ogólnie węgiel, wyprze z elektroniki krzem, który dzisiaj jest jej fundamentem. W skrócie mówiąc, grafen, pod wieloma względami jest materiałem przyszłości.

Doktorowi Łuczyńskiemu kilka miesięcy temu kończyła się kadencja dyrektorska i starając się o kolejną, wystartował w ogłoszonym konkursie. Wraz z nim do konkursu stanęło jeszcze trzech innych kandydatów. Każdy z nich odpadł jednak na kolejnych etapach procedury konkursowej. Konkurs sprzed kilku miesięcy wygrał więc bezapelacyjnie dotychczasowy szef Instytutu, dr Zygmunt Łuczyński. Tą wygraną potwierdziła odpowiednią uchwałą Komisja Konkursowa, a Rada Naukowa Instytutu skierowała do Ministra Gospodarki pismo z rekomendacją i prośbą o powołanie nowego (starego) dyrektora na kolejną kadencję. Skany tych pism zamieszczam na dole wpisu.

Mimo tej wygranej, doktor Łuczyński dyrektorem jednak nie został, bo jego nominacji nie podpisał Minister Gospodarki, Janusz Piechociński z PSLu. Nie pomogło to, że do ministra zwróciła się z prośbą o podpisanie nominacji Rada Naukowa Instytutu oraz Rada Główna Instytutów Badawczych. Nie pomogło nawet to, że na biurku ministra znalazł się list podpisany przez 190 pracowników Instytutu popierających swojego poprzedniego dyrektora.  W liście do premiera Piechocińskiego, szef Rady Głównej Instytutów Badawczych pisał, że Rada wyraża pogląd, że konkurs na stanowisko dyrektora instytutu badawczego ITME został przeprowadzony zgodnie z obowiązującymi wymaganiami prawnymi.  A potem dodawał: „Rada Główna Instytutów Badawczych popiera stanowisko Rady Naukowej ITME. W imieniu Rady Głównej zwracam się do Pana Premiera o reasumpcję odmowy powodłania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME.” Premier Piechociński zdania jednak nie zmienił.

Dlaczego? Otóż ministerstwo twierdzi, że zostały złamane procedury, bo nie wszyscy kandydaci przeszli pełną ścieżkę konkursową. To prawda, ale to nie jest niezgodne z prawem. Nie wszyscy kandydaci dotrwali do końca procedury konkursowej, bo odpadli wcześniej. Pomijając nazwiska (choć te są w dokumentach zamieszczonych poniżej), jeden z panów odpadł na egzaminie z angielskiego. Jego wiadomości były zdaniem komisji konkursowej dużo poniżej tych, które deklarował w dokumentach. Drugi kandydat zrezygnował, gdy trzeba było podzielić się z komisją swoją wizją na temat rozwoju i przyszłości instytutu. Trzeci nie dopełnił formalności przy zgłoszeniu swojej kandydatury i dlatego komisja w ogóle nie rozpatrywała jego podania.

Napisałem do Ministerstwa Gospodarki maila z pytaniem o dziwne praktyki konkursowe. Po kilku dniach otrzymałem odpowiedź, że konkurs trzeba było powtórzyć z powodu złamania procedur. Jak to możliwe, skoro szefem Komisji Konkursowej był przedstawiciel ministerstwa, który na piśmie oświadczył, że wszystkie procedury były zachowane? Zerknijcie proszę w dokumenty poniżej. Gdy do rzeczniczki ministra Piechocińskiego napisałem kolejnego maila z prośbą o wyjaśnienie tej niezgodności (ministerstwo twierdzi, że prawo zostało złamane, przedstawiciel ministerstwa zaświadcza, że wszystko odbyło się zgodnie z przepisami), nie otrzymałem żadnej odpowiedzi. Mimo, że już dawno minął ustawowy termin na odpowiedź jaki prawo narzuca urzędnikom.

Ministerstwo Gospodarki postawiło na swoim i po unieważnieniu konkursu, rozpisało nowy. Dotychczasowy dyrektor – doktor Łuczyński – przepadł, szefem Instytutu Technologii Materiałów Elektronicznych został były prezes Grupy Azoty (Kędzierzyn Koźle) Ireneusz Marciniak. – O tej osobie mówiło się jak o kandydacie forsowanym przez ministerstwo gospodarki – powiedział mi dr Zygmunt Łuczyński. Ireneusz Marciniak był związany z różnymi spółkami skarbu państwa od kilkunastu lat.

Trzy miesiące temu dr Łuczyński udzielił pismu Elektronik wywiadu pod znamiennym tytułem „Kto jest zainteresowany przejęciem ITME?„, w którym tłumaczył naciski i motywy stojące za próbą przejęcia sterów w jednym z najbardziej znanych na świecie polskich ośrodków naukowych. – Z moich informacji wynika, że istnieje porozumienie pomiędzy Ministerstwem Gospodarki a Politechniką Warszawską, na mocy którego niedługo ma nastąpić konsolidacja Politechniki i ITME – mówił Łuczyński. Zapytany o to porozumienie rzecznik Politechniki Warszawskiej, zaprzeczył istnieniu jakiejkolwiek umowy. Doktor Łuczyński, we wspomnianym wywiadzie opowiada także, że ośrodek którym kierował znajduje się w wielu rankingach instytucji naukowych na czołowych pozycjach. Prowadzi bardzo ważne naukowo i biznesowo projekty (w tym bardzo prestiżowe, międzynarodowe), znajduje dofinansowanie i ma świetny sprzęt. – Nietrudno zatem dojść do wniosku, że ITME jest łakomym kąskiem do przejęcia – powiedział mi doktor Łuczyński. I dodawał, że przejęcie ITME to „bilet do wielu prestiżowych programów o charakterze międzynarodowym”. Tyle tylko, że dyrektor Łuczyński nie godził się na zmiany organizacyjne w instytucie. – Uczestnictwo w światowym wyścigu technologicznym, czego grafen jest doskonałym przykładem, wymaga 100-procentowej i maksymalnej koncentracji oraz podporządkowania się temu celowi – mówił Łuczyński w Elektroniku. A potem dodawał, że laboratoria Instytutu pracują na trzy zmiany, bo w tak zaciętym wyścigu technologicznym z jakim mamy do czynienia, liczy się każda godzina. – To moim zdaniem jest wystarczający powód, aby nie zmieniać konia w czasie gonitwy – mówił. I dodawał, że jakiekolwiek zmiany personalne w kierownictwie czy organizacyjne nie dają gwarancji utrzymania kadry, co jest kluczowe dla rozwoju prac. – Nie jest tajemnicą, że większość ze specjalistów pracujących nad grafenem ma liczne propozycje i możliwość natychmiastowego przejścia do innych (zagranicznych) ośrodków badawczych. Każda niestabilność związana z działalnością placówki jest tutaj realnym zagrożeniem, a w konsekwencji grozi utratą pozycji Polski w tej dziedzinie – mówił doktor Łuczyński. No właśnie. Pozycja Polski. Wydaje się, że w tym wszystkim najmniej chodzi o pozycję Polski i polskich badań.

 

DOKUMENTY015_Strona_2

Uchwała Komisji Konkursowej stwierdzająca zwycięstwo w konkursie dr. Zygmunta Łuczyńskiego

 

DOKUMENTY015_Strona_1

List Komisji Konkursowej rekomendujący dr. Łuczyńskiego na stanowisko dyrektora ITME

 

DOKUMENTY015_Strona_3-kolorowy

Uchwała Rady Naukowej Instytutu, w które potwierdzona zostaje prawidłowość procedury konkursowej, w której wygrał dr Zygmunt Łuczyński

 

List RGJB do Piechocińskiego-podkreślenia

List Przewodniczącego Rady Głównej Instytutów Badawczych do Premiera Piechocińskiego z prośbą o zmianę decyzji wsp. niepowoływania dr. Łuczyńskiego na stanowisko dyrektora ITME.

 

Wniosek  Rady Nauk do Ministra_Strona_1

Wniosek Rady Naukowej ITME o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME

 

Wniosek  Rady Nauk do Ministra_Strona_2

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 1

Wniosek  Rady Nauk do Ministra_Strona_3

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 2

Wniosek  Rady Nauk do Ministra_Strona_4

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 3

Wniosek  Rady Nauk do Ministra_Strona_5

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 4

 

36 komentarzy do Ludowców gra grafenem

Muzyka to drgania

Dla niektórych muzyków informacja o tym, że całe swoje życie poświęcają produkcji drgań może być niemiłym zaskoczeniem. Setki, tysiące godzin prób, ból, łzy i emocje, a wszystko po to, by cząsteczki powietrza wyprowadzić z położenia równowagi.

Dla niektórych muzyków informacja o tym, że całe swoje życie poświęcają produkcji drgań może być niemiłym zaskoczeniem. To samo dotyczy także tych, którzy śpiewają. Setki, tysiące godzin prób, ból, łzy i emocje, a wszystko po to, by cząsteczki powietrza wyprowadzić z położenia równowagi.

Co to znaczy z położenia równowagi? To w przypadku cząsteczek powietrza, niezbyt fortunne stwierdzenie. Tlen, azot, wodór – atomy tych i wielu innych pierwiastków wchodzących w skład powietrza i tak nigdy nie są w spoczynku. Poruszają się chociażby pod wpływem różnicy temperatur czy ciśnienia (jedno z drugim jest zresztą powiązane). Jeżeli ktoś nie wierzy, niech spojrzy za okno, a najlepiej nich wyjdzie na świeże powietrze. Wiatr to właśnie ruch cząsteczek powietrza. Zimą wbijający się w ubranie jak szpilki, latem zwykle przyjemnie schładzający naszą skórę. Co ten ruch ma wspólnego z dźwiękami? Nic. Gdy wieje wiatr, cząsteczki powietrza przemieszczają się z miejsca na miejsce, jak samochody jadące szeroką autostradą. Z dźwiękami jest inaczej. Tutaj ruch bardziej przypomina zakorkowane miasto, gdzie na ulicach samochody stoją zderzak w zderzak. Albo nie, przypomina klik-klaka. Kulka z brzegu zostaje odchylona i uderza w swoją sąsiadkę, a ta w kolejną itd. Ale środkowe kulki zmieniają położenie tak nieznacznie, że nawet tego nie widać. Co nie przeszkadza im przekazywać energię. To przekazywanie energii od jednej kulki, do kolejnej dojdzie w końcu do ostatniej, która energicznie odskakuje. Podobnie jest z dźwiękiem. Cząsteczki powietrza przekazują sobie energię dźwięku tak jak kuleczki klik – laka. Z tą różnicą, że kuleczek w popularnej zabawce jest najwyżej kilka, a cząsteczek powietrza pomiędzy źródłem dźwięku a naszym uchem mogą być setki milionów.

Gęściej znaczy szybciej

Dźwięk rozchodzi się oczywiście nie tylko w powietrzu, nie tylko w gazach, ale także w cieczach i ciałach stałych. Czym gęstszy jest ośrodek, tym dźwięk szybciej się w nim rozchodzi. Na pozór to nielogiczne, ale gdyby się dłużej zastanowić… Skoro cząsteczki przekazują energię dźwięku nie jak posłańcy poruszający się na dużych odległościach, tylko raczej jak ludzie czekający w kolejce, czym bliżej siebie będą cząsteczki, tym szybciej dźwięk będzie przekazywany. Tym więcej energii zostanie przekazanej dalej. W powietrzu dźwięk porusza się z prędkością około 1200 km/h. W wodzie prędkość dźwięku jest prawie 5 razy większa i wynosi około 5400 km/h, a w stali wibracje poruszają się z prędkością bliską 18 000 km/h. Z drugiej strony, gdy cząsteczek nie ma wcale, albo gdy są bardzo daleko od siebie, dźwięk nie jest przekazywany w ogóle. W próżni panuje idealna cisza.

Dźwięki można wytwarzać na wiele różnych sposobów. Wytworzenie, to zwykle jednak za mało. Żeby były słyszalne, trzeba je wzmocnić. I mowa tutaj nie o mikrofonach i głośnikach, tylko o wzmacnianiu dźwięków przez same instrumenty. Człowiek wydaje dźwięki bo powietrze wychodzące z płuc, wprawia w drgania cienkie błony zwane strunami głosowymi. Dźwięki wydawane przez człowieka wzmacniane są w klatce piersiowej. W wielu instrumentach dźwięk wzmacnia pudło rezonansowe. W innych, są za to odpowiedzialne tzw. fale stojące. Sporo w tym fizyki, ale ciekawsze od tego jest to, co dzieje się z dźwiękiem po „opuszczeniu” instrumentu.

To oczywiste że drgania mogą być mocniejsze, albo słabsze. Wtedy dźwięk jest głośniejszy, albo cichszy. Ale to nie jedyna cecha drgań. W końcu ten sam dźwięk grany na skrzypcach i na pianinie różnią się od siebie. Falę wyobrażamy sobie jako sinusoidę (góry i doliny). To wyobrażenie jest jak najbardziej prawidłowe, tyle tylko, że trochę wyidealizowane. W rzeczywistości „górki” i „doliny” nie są gładziutkie, tylko składają się z wielu mniejszych „góreczek”. To w tych nieregularnościach zawarta jest informacja o dźwiękach. Nie o ich głośności, ale o ich brzmieniu. Jak to rozumieć, że w czymś zawarta jest informacja o brzmieniu?

Kostki na całe życie

W końcu fala akustyczna (czyli drganie od cząsteczki do cząsteczki) dojdzie do ucha, a konkretnie do błony bębenkowej. Od środka jest ona połączona z trzema kosteczkami – młoteczkiem, kowadełkiem i strzemiączkiem. To najmniejsze kości w całym ciele człowieka. I co ciekawe, od urodzenia do śmierci nie zmieniają one swoich rozmiarów. Nie rosną – jak wszystkie inne kości naszego organizmu. Trzy wspomniane kosteczki przenoszą drgania błony bębenkowej w głąb ucha, ale to nie jedyna ich funkcja. Są tak ze sobą połączone (na zasadzie dźwigni), że znacząco te drgania wzmacniają. Aż o 20 razy!

Kosteczki słuchowe przenoszą drgania do ślimaka. To zakręcony kanał, który jest wypełniony płynem. We wnętrzu kanału znajdują się czułe na drgania cieczy komórki. Wibracje powietrza na zewnątrz ucha, przez zmyślny system zamieniane są na wibracje płynu wypełniającego ślimak. A tam, drgania płynu zamieniane są na impulsy nerwowe. I w zasadzie dopiero od tego momentu można mówić o „słyszeniu”. Ucho nie słyszy, tylko zamienia drgania cząsteczek powietrza na impulsy elektryczne. To mózg tym impulsom nadaje znaczenie i interpretacja. To dopiero w zakamarkach mózgu odpowiedniej sekwencji impulsów elektrycznych przypisywane są dźwięki skrzypiec czy trąbki. To mózg, a nie ucho rozróżnia i potrafi nazwać te same dźwięki grane przez różne instrumenty.

Słuch jest pierwszym zmysłem człowieka. Już w pierwszych tygodniach życia płodowego, wykształcają się organy słuchowe. Długo przed porodem, dziecko słyszy. Słuch jest jedynym zmysłem, który tak wcześnie pozwala poznać dziecku świat zewnętrzny. Zaraz po porodzie dziecko prawie nie widzi. Słyszy doskonale i odczuwa zapachy. Od kilku lat wiadomo, że dziecko uczy się naśladować dźwięki, jakie słyszało jeszcze przed urodzeniem. W czasopiśmie Current Biology grupa francuskich i niemieckich uczonych opublikowała raport z którego wynika, że zaraz po urodzeniu dzieci płaczą zgodnie z melodią języka biologicznej matki. Francuskie noworodki na przykład płakały z intonacją wznoszącą się, a niemieckie z intonacją opadającą. To odzwierciedla melodię charakterystyczną dla tych języków. Dziecko rozwijając się w łonie matki, choć nie rozumie znaczenia słów, uczy się naśladować melodykę języka. Po co? Inne badania wskazują, że gdy płacz dziecka ma podobną „strukturę” jak język matki, noworodkowi łatwiej jest przyciągnąć uwagę swojej rodzicielki.

Muzyka to drgania cząsteczek powietrza. Brzmi wręcz banalnie prosto. Ale z prostotą ma niewiele wspólnego. Te drgania, ich wydobywanie, przenoszenie, rejestrowanie i interpretacja, to jedno z najciekawszych zagadnień w przyrodzie.

Brak komentarzy do Muzyka to drgania

Złapali kwant !!!

Dwójce młodych fizyków, doktorantów Uniwersytetu Warszawskiego, jako pierwszym na świecie udało się sfotografować kwanty, cząstki światła, w bardzo szczególnym momencie – chwili, w której się parują.

Dwójce młodych fizyków, doktorantów Uniwersytetu Warszawskiego, jako pierwszym na świecie udało się sfotografować kwanty, cząstki światła, w bardzo szczególnym momencie – chwili, w której się parują.

Tak, światło składa się z cząstek. A właściwie sprawa jest bardziej złożona. Światło ma cechy fali (podobnej do tej na wodzie), ale wykazuje też cechy korpuskularne. W skrócie mówiąc, jest i falą, i cząstką. Trudno to odnieść do naszej rzeczywistości, bo w makroświecie cechy fali i cząstki wykluczają się. W świecie kwantów nic się nie wyklucza.

Quantum paparazzi spying identical photon pairs

„Łapacze fotonów”, młodzi fizycy z UW, na tym zdjęciu zachowują się jak fotony. Są w dwóch miejscach równocześnie. Obok układu pomiarowego Radosław Chrapkiewicz (po prawej) oraz Michał Jachura (stojący za nim) .

W zasadzie proste 

Cząstki światła nazywają się kwantami. Nie mają masy spoczynkowej, nie da się ich zatrzymać i przyjrzeć im się „na spokojnie”. Przeciwnie, pędzą z prędkościami, które trudno sobie nawet wyobrazić. 300 tys. kilometrów na sekundę! Ile to jest? Odległość między Zakopanem i Trójmiastem (prawie 700 km) światło pokonuje w tysięczne części sekundy. Jak złapać, jak sfotografować coś, co porusza się z taką prędkością? – Układ, który zastosowaliśmy do naszych pomiarów, jest dość złożony, ale sama idea nie jest skomplikowana – powiedział mi Michał Jachura z Uniwersytetu Warszawskiego. – Źródłem fotonów jest fioletowy laser. Padają one na urządzenie, w którym z jednego fotonu powstaje jeden elektron. Następnym elementem jest wzmacniacz powielający ten jeden elektron. Tak powstaje kilka milionów elektronów, które następnie padają na płytkę z fosforu, gdzie powodują błysk światła. Ten błysk rejestrujemy specjalną kamerą – mówi drugi z młodych badaczy, Radosław Chrapkiewicz. – I to w zasadzie wszystko – dodaje. Niektóre elementy układu, w którym udało się złapać fotony, np. wzmacniacz obrazu, to urządzenia wykorzystujące technologię wojskową. Samo sfotografowanie pojedynczej cząstki światła to jednak nie było topowe osiągnięcie Michała i Radka. Im udało się zobaczyć moment, w którym fotony się parowały. Ale zanim o tym, warto powiedzieć trochę o samych fotonach.

Światło wprost ze światłowodu

Światło wprost ze światłowodu. Obiektyw aparatu Radka Chrapkiewicza był skierowany dokładnie w kierunku światłowodu (wyjścia) z lasera femtosekundowego. Ten laser emituje bardzo krótkie błyski światła, których długość nie przekracza 100 fs (femtosekund). Femtosekunda to jedna bilionowa część sekundy. W czasie jednej femtosekundy światło pokonuje drogę sto razy krótszą niż grubość ludzkiego włosa!

Jaki kształt? Jaki kolor?

Fotografia kojarzy nam się z odwzorowywaniem rzeczywistości. Skoro foton dał się sfotografować, można chyba zapytać, jak on wygląda. Zacznijmy od kształtu. Da się go określić? – W jednym pomiarze nie, ale robiąc wiele pomiarów, wiele zdjęć, udaje się to zrobić, choć od razu trzeba powiedzieć, że kształt fotonu nie jest stały. Może się różnić w zależności od tego w jakim otoczeniu się znajduje – tłumaczy Michał. – W naszej aparaturze obserwowaliśmy np. fotony o wydłużonych kształtach, takich trochę jak ołówek, ale udawało nam się także obserwować fotony rozseparowane, czyli takie, w których jeden foton był rozdzielony na dwie części. I to części, które znajdują się od siebie w odległości nawet centymetra – dodaje Radek. A kolor? Tutaj sprawa zaczyna się komplikować jeszcze bardziej. – Foton ma trzy cechy, które nazywamy stopniami swobody – opowiada Michał Jachura.

– Pierwszy to struktura w przestrzeni, czyli w pewnym sensie kształt. Drugi stopień swobody – spektralny – to innymi słowy kolor. Fotony mogą być czerwone, niebieskie, ale możemy mieć fotony w tak zwanej superpozycji, np. fotony białe, składające się z wielu barw dla których określony kolor ustala się dopiero w momencie pomiaru. Ten sam foton mierzony wielokrotnie może mieć różne kolory. Ostatni stopień swobody to polaryzacja, tzn. kierunek, w jakim foton drga. Jeżeli dwa fotony mają identyczne trzy stopnie swobody, nie ma żadnej możliwości, by odróżnić je od siebie – kończy Michał Jachura. Zatem wróćmy do osiągnięcia dwóch doktorantów. Fotografowali oni fotony, które dobierały się w pary. W czasie tego procesu zauważyli, że dwa różne fotony skazane są na samotność. Nawet gdy znajdą się obok siebie, „nie widzą” się i zwykle nie dobierają się w pary. Sytuacja wygląda zupełnie inaczej, gdy fotony są identyczne, to znaczy, gdy wszystkie trzy stopnie swobody dwóch cząstek są takie same. Wtedy powstają pary, które na dodatek są wyjątkowo jednomyślne. Jeden foton „idzie” zawsze tam, gdzie ten drugi. Chociaż trudno powiedzieć, który jest pierwszy, a który drugi, skoro obydwa są identyczne. Łączenie fotonów nazywa się efektem Hong-Ou-Mandela i na Wydziale Fizyki Uniwersytetu Warszawskiego po raz pierwszy na świecie udało się go sfilmować.

Quantum memory - glowing green

Układ pamięci nowej generacji do komputerów kwantowych. Zielona tuba to pamięć. Za pomocą lasera (czerwona wiązka) w atomach rubidu „zapisywana” jest informacja, która następnie może być odczytywana. Ta pamięć to także dzieło doktorantów z UW.

Nauka podstawowa

Pozostaje tylko znaleźć odpowiedź na pytanie, po co tego typu badania się robi. – Być może kiedyś uda się wyniki naszych eksperymentów wykorzystać w rozwijanych technologiach kwantowych, na razie myślimy jednak o naszych eksperymentach w kategoriach badań podstawowych – mówi Michał Jachura. – Nas bardziej niż kształt samego fotonu interesuje to, jaki kształt będzie miała para fotonów, które zaczną ze sobą interferować, zaczną się na siebie nakładać. To można wykorzystać do zupełnie nowego rodzaju mikroskopii o bardzo wysokiej rozdzielczości. – uzupełnia Radosław Chrapkiewicz.

17 komentarzy do Złapali kwant !!!

Teleportuj się !!!

Powiem szczerze: bałbym się teleportacji, skoro mamy kłopot z tradycyjnymi środkami transportu. A tymczasem naukowcom udała się teleportacja na odległość 25 km!

Może więc i dobrze, że teleportacja ludzi jest (na razie) niemożliwa. O co w ogóle chodzi? Teleportacja to przenoszenie obiektów z miejsca na miejsce, ale – jak mówią fizycy – bez zachowania ciągłości istnienia. Brzmi nie najlepiej, ale w największym skrócie polega na tym, że obiekt w jednym miejscu znika, a w drugim się pojawia.

Mielonka

Teleportacja jest dość popularna np. w filmach science fiction. Szczególnie w tych, których akcja dzieje się w przestrzeni kosmicznej. To jeden z dwóch sposobów radzenia sobie z ogromnymi odległościami, jakie w kosmosie są faktem. Nie chcąc narażać się na śmieszność, trzeba znaleźć w miarę prawdopodobny sposób szybkiego przemieszczania się. Jednym ze sposobów radzenia sobie z tym kłopotem jest zamontowanie w statkach kosmicznych napędów nadświetlnych, czyli takich, które rozpędzają obiekt do prędkości wyższej niż prędkość światła. Drugim ze sposobów jest teleportowanie. Napędów nadświetlnych nie ma i nie wiem, czy kiedykolwiek będą. Jeżeli zaś chodzi o teleportację, to problemu nie ma. Naukowcy potrafią teleportować… choć na razie nie ludzi. Na razie nie mamy ani urządzenia, ani nawet pomysłu, jak powinno wyglądać urządzenie do teleportowania większych i bardziej złożonych obiektów. Pisząc „większych i bardziej złożonych”, nie mam na myśli słonia afrykańskiego czy fortepianu. Mam na myśli większe atomy, nie mówiąc już nawet o najprostszej cząsteczce chemicznej.

Problemy z teleportowaniem przewidzieli także futurolodzy. Od czasu do czasu także w produkcjach science fiction nielubiany bohater korzystał z uszkodzonego „portalu” i w efekcie pojawiał się „po drugiej stronie” w kawałkach albo w formie przypominającej – brutalnie mówiąc – mielonkę. I także tutaj scenarzyści mieli nosa i nie bardzo minęli się z prawdą. Z definicji przy przesyłaniu cech zwanych stanami kwantowymi cząstki A do oddalonej cząstki B, niszczony jest stan kwantowy A. Trochę to skomplikowane, ale w zasadzie da się prosto wytłumaczyć. Nie może być tak, że teleportacja polega na skopiowaniu obiektu. Wtedy istniałyby dwa takie same obiekty. Teleportacja polega na „sczytaniu” obiektu A i przesłaniu w oddalone miejsce. Ale w czasie tego przesyłania obiekt A przestaje istnieć („znika”). Gdy przychodzi do jego odtworzenia, a coś pójdzie nie tak jak trzeba, wychodzi… w największym skrócie mielonka.

W czym jest problem?

Dzisiaj nikt ludzi oczywiście nie próbuje teleportować. Poza zasięgiem naukowców jest nawet teleportacja najprostszych cząsteczek. Nawet tak prostych jak chociażby trzyatomowa cząsteczka wody. Więcej, dzisiejsza technika nie pozwala teleportować nawet pojedynczego atomu, o ile mówimy o większym atomie, np. uranu, który składa się z kilkuset protonów, neutronów i elektronów. Jak to wygląda w praktyce? Każda cząstka ma tzw. stany kwantowe, czyli swoją specyfikę. Cząstki różnią się od siebie właśnie stanami kwantowymi, tak jak obiekty makroskopowe różnią się od siebie np. kolorem, zapachem, smakiem czy fakturą. Teleportacja polega na odczytaniu tych „cech”, przesłaniu ich w nowe miejsce i tam nadaniu ich innej cząstce. Przy okazji niszczy się stany kwantowe cząstki pierwotnej, stąd nie ma mowy o kopiowaniu czegokolwiek, tylko rzeczywiście o przesyłaniu.

Skoro to takie proste, w czym problem, żeby teleportować duże obiekty? Nie da się przesłać takich cech jak kolor, kształt, smak czy zapach po to, by w drugim teleporcie je odtworzyć… Te wspomniane cechy makroskopowe są wypadkową stanów kwantowych miliardów, bilionów cząstek, z których duże obiekty się składają. Problem teleportowania dużych czy większych od pojedynczych cząstek obiektów jest więc problemem skali. Na razie ledwo radzimy sobie ze stanami kwantowymi maleńkich obiektów, ale przyjdzie czas na te większe. I może wtedy pojawi się problem, czy da się teleportować wiedzę, czy da się teleportować duszę…

Wróćmy jednak na Ziemię (albo ziemię). Pierwszą teleportację kwantową przeprowadzono w 1997 r., ale już 7 lat później zespół badaczy z USA i Austrii opublikował dane, z których wynikało, że teleportowano najmniejszy atom, czyli wodór. Tym razem w piśmie „Nature Photonics” ukazała się publikacja, z której wynika, że dzięki badaczom z Uniwersytetu w Genewie, należącego do NASA Jet Propulsion Laboratory, oraz z National Institute of Standards and Technology w USA, udało się teleportować cząstkę na rekordową odległość 25 kilometrów. Informacja o stanach kwantowych została przesłana światłowodem, ale w przyszłości być może uda się ją przesłać falami radiowymi albo promieniem lasera. Tylko 25 kilometrów? Tak, wiem, wiem. W ten sposób na Księżyc czy Marsa się nie dostaniemy, ale od czegoś trzeba zacząć

Tekst ukazał się w tygodniku Gość Niedzielny

29 komentarzy do Teleportuj się !!!

Komputer na światło

Wyobraź sobie komputery miliardy razy szybsze od tych, które dzisiaj mamy do dyspozycji. Po co nam takie urządzenia? Na razie jeszcze nie wiem, ale jestem pewien, że jak tylko je stworzymy, zastosowania sypną się jak z rękawa.

Wyobraź sobie komputery miliardy razy szybsze od tych, które dzisiaj mamy do dyspozycji. Po co nam takie urządzenia? Na razie jeszcze nie wiem, ale jestem pewien, że jak tylko je stworzymy, zastosowania sypną się jak z rękawa.

Skąd ta pewność? Tego uczy nas historia. Także ta najnowsza. W 1946 roku Thomas Watson, prezes koncernu IBM, firmy, która właśnie skonstruowała pierwszy komputer, stwierdził publicznie, że tego typu maszyny nigdy nie będą powszechne. W dość długim przemówieniu powiedział także, że jego zdaniem w przyszłości świat nie będzie potrzebował więcej niż 5 maszyn cyfrowych. No tak, przecież gry były planszowe, o internecie nikt nie słyszał, a dokumenty można przecież pisać na maszynie do pisania. Tymczasem dzisiaj mocna pozycja firmy IBM została zbudowana właśnie na produkcji ogólnie dostępnych i powszechnych maszyn cyfrowych. I jeszcze jeden przykład. W połowie lat 90. XX wieku (czyli zaledwie 20 lat temu) guru technologii cyfrowej, założyciel i szef Microsoftu Bill Gates stwierdził, że internet to mało użyteczna zabawka. Faktycznie, wtedy był on czymś takim. Faktycznie, listy można było wysłać pocztą albo faksem. Zawsze to samo. Cywilizacja rozwija się dzięki wizjonerom spełniającym swoje marzenia. Dzięki ludziom, którzy nie zawsze potrafią odpowiedzieć na pytania „po co?” albo „do czego nam się to przyda?”. Historia uczy jednak, że każde odkrycie, każda rewolucja błyskawicznie zostają zagospodarowane. I stąd pewność, że komputery kwantowe, bo o nich mowa, będą urządzeniami, bez których ludzie nie będą sobie wyobrażali życia.

Światłem hurtowo

Pomysł, by wykorzystać kwanty (np. pojedyncze cząstki światła) jako nośnik informacji, jako „medium” do prowadzenia obliczeń, ma około 40 lat. Jak to często bywa, w takich sytuacjach dość trudno wskazać pierwszego pomysłodawcę, ale nie ma wątpliwości, że jednym z pierwszych był znany fizyk Richard Feynman. No i potoczyło się. Na kilku uniwersytetach grupy naukowców rozpoczęły teoretyczne obliczenia. Jedna z takich grup, związana z uniwersytetem oksfordzkim, stworzyła protokoły kwantowe. Współpracował z nią też Polak, Artur Ekert. Po około 10 latach od rzucenia pomysłu, czyli w połowie lat 90. XX wieku, powstały pierwsze podstawowe elementy konstrukcji komputera kwantowego, czyli bramki, które przetwarzały kubity. Co to takiego? To cząstki elementarne, fotony lub elektrony, których różne stany w pewnym sensie są nośnikami informacji. Tylko dlaczego komputer zbudowany „na kwantach” ma być szybszy od tradycyjnego? Sprawa, wbrew pozorom, nie jest aż tak bardzo skomplikowana. Podstawą jest przeniesienie się do zupełnie innego świata. Świata, w którym nic nie jest takie jak w naszym świecie. Mam tutaj na myśli świat kwantów, same podstawy budowy naszej materii. Zjawiska, które tam występują, są dla nas fascynujące, bo wokół nas ich nie zauważamy. Więcej, one są nielogiczne, przeczące intuicji i zdrowemu rozsądkowi.

Jedną z dziedzin badających ten świat jest optyka kwantowa. Tak jak „zwykła” optyka, czyli ta, której uczymy się w szkole na lekcjach przyrody czy fizyki, tak samo i ta kwantowa zajmuje się światłem. Różnica polega na tym, że optyka kwantowa bada pojedyncze cząstki światła, czyli kwanty albo ich niewielkie grupy (pary, trójki…), podczas gdy „optyka szkolna” zajmuje się światłem bardziej „hurtowo”. Bada je jako zbiór ogromnej ilości kwantów. Właśnie w tych ogromnych ilościach fotonów (czyli w wiązkach czy promieniach światła) gubią się te zjawiska, które w przypadku pojedynczych cząstek występują. O co konkretnie chodzi? Na przykład o zjawisko superpozycji. – To zjawisko nie występuje w świecie klasycznym i bardzo trudno w ogóle znaleźć do niego zrozumiałą analogię – mówi „Gościowi” Radosław Chrapkiewicz, doktorant Wydziału Fizyki Uniwersytetu Warszawskiego.

I w lewo, i w prawo

Superpozycja. O co chodzi? – Definicja mówi, że to istnienie dwóch pozornie wykluczających się stanów cząstki – mówi Chrapkiewicz. I od razu dodaje, że superpozycja w naszym świecie nie występuje, ale gdyby występowała, strzałka skierowana w prawo równocześnie byłaby skierowana także w lewo, a prawy but byłby równocześnie lewym. – W świecie, który nas otacza, strzałka jest skierowana albo w jedną, albo w drugą stronę, a jeden but może być albo prawy, albo lewy. Ale w świecie kwantów jest inaczej. Jedna cząstka może istnieć w stanach, które się wzajemnie wykluczają. Tylko co to ma wspólnego z komputerami kwantowymi? W klasycznym komputerze, takim, jaki stoi w niemal każdym domu, takim, na jakim piszę ten artykuł, wszelkie obliczenia robi się na zerach i jedynkach. Maleńkie elementy elektroniczne mogą przyjmować albo wartość „0”, albo „1”. – W komputerze kwantowym w pewnym sensie zera i jedynki istnieją równocześnie, a to oznacza, że możemy wykonywać równocześnie wiele obliczeń naraz – mówi Radosław Chrapkiewicz. Muszę mieć niewyraźną minę, bo Radek tłumaczy dalej. – Jeden klasyczny bit to jest zero lub jedynka, jeden kwantowy bit, czyli kubit, to jakiś stan równoczesnego istnienia zera i jedynki. W tym samym momencie zamiast jednej wartości mamy dwie współistniejące. Jeżeli weźmiemy dwa kubity, mamy jednoczesne współistnienie czterech wartości, bo tyle jest możliwych kombinacji zer i jedynek. A jeżeli zbuduję komputer dziesięciokubitowy, różnych możliwości jest 2 do 10 potęgi, czyli 1024, podczas gdy w klasycznym komputerze dziesięciobitowym jest tylko 10 możliwości – tłumaczy Radosław Chrapkiewicz. I dodaje: – Liczba operacji możliwych do wykonania równocześnie rośnie bardzo szybko wraz ze wzrostem liczby kubitów. Komputery skonstruowane w ten sposób działałyby nieporównywalnie szybciej, bo wiele operacji mogłyby wykonywać równocześnie. Dzisiejsze komputery nie potrafią robić kilku operacji naraz – kończy Chrapkiewicz.

Zasada działania komputera kwantowego nie wydaje się skomplikowana. Ale jak jest z jej realizacją? No i tutaj pojawia się problem. Dzisiaj nie ma jeszcze układów, które z czystym sumieniem można byłoby nazwać wielokubitowymi. Co prawda na początku lutego 2007 roku firma D-Wave Systems zaprezentowała 128-kubitowy komputer, ale istnieją uzasadnione wątpliwości, czy to rzeczywiście jest „pełnowartościowy” komputer kwantowy, czy tylko urządzenie, które wykorzystuje pewne zjawiska kwantowe. Być może różnica pomiędzy tymi dwoma przypadkami jest subtelna, ale specjaliści ją zauważają. Ale nawet w przypadku komputera, który nie jest przez wszystkich zaliczany do maszyn kwantowych, liczby mogą robić wrażenie. Jedna z grup badaczy twierdzi, że stworzyła czip, który może dokonywać ponad 10^38 obliczeń naraz. Zwykłemu, klasycznemu komputerowi zajęłoby to kilka milionów lat.

To takie logiczne

No i powstaje pytanie kluczowe. Po co nam tak szybkie komputery? Kilka zastosowań przychodzi do głowy od razu. Zastosowania wojskowe, a właściwie wywiadowcze. Dzisiejsze komputery nie radzą sobie z ogromną ilością danych, które nadsyłają urządzenia podsłuchowe. Ludzie odpowiedzialni w strukturach państwa za bezpieczeństwo (własnych obywateli) nie lubią sytuacji, gdy mają dane, ale nie są ich gdy przeanalizować, bo jest ich za dużo. Niewiele instytucji ma fundusze na to, by inwestować w takie dziedziny nauki jak optyka kwantowa. Nieliczne są instytucje związane z wojskiem czy wywiadem. Amerykańska Agencja Bezpieczeństwa Narodowego, która zajmuje się tym drugim, w komputery kwantowe inwestuje duże pieniądze. Zresztą podobnie było z komputerami, których dzisiaj używamy. Ich rozwój związany był z Projektem Manhattan – budowy pierwszej bomby jądrowej. – Ta analogia jest bardzo dobra. Moim zdaniem komputery kwantowe dzisiaj są na takim etapie rozwoju technologicznego, jak w latach 40. XX wieku były komputery klasyczne – mówi Radosław Chrapkiewicz. I dodaje, że nie sposób dzisiaj powiedzieć, kiedy przyjdzie przełom.

Choć sam zajmuje się optyką kwantową, nie jest w stanie wyobrazić sobie komputerów kwantowych w każdym domu czy w zminiaturyzowanej wersji zastosowanych w jakichś urządzeniach mobilnych, takich jak np. dzisiejsze smartfony. Nie tylko zresztą on. Przegląd specjalistycznych stron internetowych pokazuje, że gdy mowa o wykorzystaniu komputerów kwantowych, najczęściej pojawiają się stwierdzenia o analizie dużej ilości danych, w tym danych naukowych i o skomplikowanych modelach matematycznych, dotyczących np. pogody czy na przykład projektowania leków. Nic dla ludzi? Cóż, leki są jak najbardziej dla ludzi, ale faktycznie brakuje nam chyba wyobraźni, by dzisiaj znaleźć zastosowanie dla maszyn o tak ogromnej mocy obliczeniowej. Spokojnie, gdy pojawią się takie komputery, pojawią się i zastosowania. A wtedy będziemy nieskończenie zdziwieni, że wcześniej tych zastosowań nie potrafiliśmy zauważyć. Przecież one są takie… logiczne.

komputer kwantowy

 

>>> Na zdjęciu układ skonstruowany przez firmę D-Wave Systems, zawierający 128 kubitów.

 

Tekst ukazał się w tygodniku Gość Niedzielny

6 komentarzy do Komputer na światło

Ład czy chaos?

Chaos i ład – choć wydają się przeciwstawne, w naturze pięknie się przenikają. Ład wynika z chaosu, a chaos kroczy przed harmonią. Wystarczy spojrzeć na piaskową wydmę, płatek śniegu czy którykolwiek układ planetarny.

Co było pierwsze: ład czy chaos? W życiu codziennym chaos powstaje z ładu, ale we wszechświecie w różnych skalach kolejność może być odwrotna. Gwiazdy i układy planetarne powstają z chaotycznej chmury drobinek, ta zaś z eksplozji gwiazdy. Tylko czy taka chmura jest rzeczywiście chaotyczna? Nie da się przewidzieć ruchu każdego z jej atomów, ale to nie znaczy, że nie działają w niej prawa fizyki. Z czasem to one wprowadzają porządek. Z tego porządku rodzą się nowe światy. Ale czy w nich panuje ład i porządek?

Góra piasku

Z naszego punktu widzenia niekoniecznie. Na przykład ruch planet, księżyców i wszystkich innych obiektów w Układzie Słonecznym wydaje się uporządkowany i przewidywalny. Ale gdyby tak było, jak należałoby tłumaczyć, skąd wzięły się kratery, które świadczą o kolizjach, do jakich dochodziło w przeszłości i wciąż dochodzi? Skąd pojawiające się co jakiś czas „alarmy”, że do Ziemi zbliża się groźna asteroida albo planetoida? Czy to wszystko rzeczywiście działa jak w szwajcarskim zegarku? Tak, ale złożoności tego mechanizmu nie jesteśmy (jeszcze?) w stanie pojąć. Zdarzenia w kosmosie, a wśród nich zderzenia między kosmicznymi obiektami, są elementem porządku, którego my nie dostrzegamy. Ta swego rodzaju ślepota to problem nie tylko kosmicznych skal. Mamy kłopot z ogarnianiem świata w każdej skali. Z tych ograniczeń wynika to, że dość często mylimy chaos z porządkiem. Jak to możliwe?

Wyobraźmy sobie niewielki fragment pustyni i wietrzny dzień. Pojedyncze ziarenka piasku są unoszone i opadają. Jedne blisko siebie, inne dalej. Jedne w powietrzu przebywają chwilę, inne przez długi czas. Nie ma najmniejszych szans, by przewidzieć ruch wspomnianych ziarenek. On zależy od tak wielu czynników, że największe komputery na Ziemi nie poradziłyby sobie z takim wyzwaniem. Gdy patrzy się na ten obraz, aż ciśnie się na usta słowo „chaos”. Czy ruch ziarenek piasku podrywanych przez wiatr jest przypadkowy? Na pewno jest (dla nas) nieprzewidywalny, ale nie chaotyczny. Jest w nim porządek i rządzą nim prawa fizyki. Nie trzeba wierzyć na słowo, wystarczy poczekać, aż wiatr ustanie, a wtedy naszym oczom ukaże się wydma. Ta potrzebuje swego rodzaju nieporządku. Wydma nigdy nie powstanie na idealnie płaskiej powierzchni. Potrzebna jest przeszkoda. Lokalne zaburzenie porządku. Po co? By wyhamować wiatr. Tylko wtedy niesiony przez niego piasek opadnie. Jedno ziarenko, później drugie, kolejne…

(Nie)porządek na zimno

Wystarczy rzut oka na wydmę, by zobaczyć porządek. Wydmy zawsze mają jedno zbocze łagodne, a drugie strome. Łagodnym odwrócone są w kierunku wiejącego wiatru. Rozpoznajemy wydmy poprzeczne, seify, barchany czy wydmy gwiaździste. Ich kształt zależy od wielu czynników. Wśród nich są ukształtowanie terenu, siła i kierunek wiatru oraz rodzaj (właściwości) piasku. Zależności między tymi czynnikami są tak skomplikowane, że nawet największe komputery nie są w stanie tego ogarnąć. Ale o żadnym chaosie nie ma tu mowy. Tak samo jak nie ma mowy o chaosie w procesie tworzenia się kryształów. Chyba najlepszą ilustracją jest powstawanie płatków śniegu. Nie mogłyby się pojawić w idealnie czystym powietrzu, w którym nie byłoby chociażby najmniejszego pyłku. Woda w pewnej temperaturze zamarza – to jasne – ale może przechodzić w stan stały na dwa sposoby. Lód to cząsteczki wody, które zamarzły w nieuporządkowaniu. Śnieg to kryształy wody, a więc cząsteczki, które zamarzając, zdążyły się uporządkować, znaleźć się na swoich miejscach. Płatek śniegu to nieprzewidywalny porządek. Nie ma dwóch takich samych śnieżynek, ale to nie zmienia faktu, że wszystkie są stworzone według konkretnego wzoru. Każdy płatek śniegu ma kształt sześciokąta foremnego, figury, która ma sześć kątów (wierzchołków) i której wszystkie boki są równej długości. Dlaczego? Bo cząsteczki wody w krysztale łączą się ze sobą szóstkami. Połączenie „na płasko” sześciu cząsteczek wody musi utworzyć sześciokąt, w którym w wierzchołkach są atomy tlenu. I choć płatki śniegu są sześcioramiennymi gwiazdkami, każda jest nieco inna, bo każdy płatek ma inną historię, przechodzi inną drogę w chmurze. Nie da się jej przewidzieć ani odtworzyć. Rządzi nią zbyt wiele zmiennych, ale czy można powiedzieć, że w chmurze śniegowej panuje chaos? Idealnie regularne, symetryczne i uporządkowane płatki śniegu świadczą o czymś zupełnie innym. Tak samo jak idealnie „dostrojone” do siebie planety w systemach planetarnych, które powstały z chmury materii. Czy istnieją dwie takie same gwiazdy? Czy istnieją dwa takie same układy planetarne? Nie. Każdy jest inny, mimo że wszystkie powstały na podstawie tych samych zasad fizyki.
Za mało wiemy

Co ciekawe, nie do przewidzenia czy nie do opisania jest nie tylko proces, w którym coś powstaje (układ planetarny, wydma, kryształ…), ale także sam moment, w którym to powstawanie się zaczyna. Zainicjowanie wielu procesów wiąże się z nieprzewidywalną sytuacją. W przypadku płatka śniegu musi być pyłek, jakieś zanieczyszczenie. Podobnie sprawa się ma ze wszystkimi kryształami. Woda w garnku nie zacznie się gotować, o ile na ściankach garnka nie znajdzie się jakaś mała rysa. W idealnie gładkim garnku idealnie czysta woda może być w stanie ciekłym nawet wtedy, gdy jej temperatura dawno przekroczyła 100 st. C. Lawina rozpoczyna się od niewielkiego zaburzenia. Podobnie jak burza. Pioruny uderzają w sposób nieprzewidywalny, ale na pewno nie przypadkowy. Choć kształt błyskawic zdaje się na to nie wskazywać, w rzeczywistości ładunki elektryczne obierają drogę, która gwarantuje najmniejszy opór elektryczny. Skąd ładunki wiedzą, w którą stronę się przemieszczać? Przed właściwym wyładowaniem z chmury wylatuje niewielka „paczka” ładunków, która sprawdza drogę o najmniejszym oporze. Ładunki z błyskawicy, którą widzimy, są prowadzone niemalże jak po sznurku. Wszystko w idealnym porządku, według ściśle określonych reguł. Choć z zewnątrz wygląda to na chaos i przypadek.

Układ Słoneczny potrzebuje 250 mln lat, by zrobić pełny obrót wokół centrum galaktyki Drogi Mlecznej. Ten ruch ma oczywiście swoje konsekwencje. Zmieniające się kosmiczne otoczenie powoduje, że naruszana jest subtelna równowaga między Słońcem a pozostałymi obiektami w naszym układzie planetarnym. Tego oczywiście nie da się przewidzieć, ale zdarza się, że to naruszenie równowagi skutkuje wzmożoną aktywnością komet. Te częściej niż zwykle wylatują w kierunku Słońca. Zwiększa się przez to szansa na kolizję z Ziemią. Co oznaczałoby takie zderzenie? Chaos? To chyba nie jest dobre słowo. Dzięki takim kolizjom w przeszłości dzisiaj na Ziemi jest woda. Patrząc na przepiękny krajobraz z wodą, piaskiem i palmami w tle, warto sobie zdać sprawę, że tę wodę przyniosły komety, piasek to skruszone skały, a palma czy jakikolwiek inny żywy organizm na tej planecie są zbudowane z cząsteczek chemicznych, których ruch wciąż jest dla nas chaotyczny i nieprzewidywalny. Z chaosu w pewnym sensie wynika porządek. Widząc ten porządek, harmonię, warto sobie zdać sprawę z tego, że w naszym świecie tak naprawdę nic nie jest chaotyczne. Wszystko jest podporządkowane prawom natury. Wszystko jest uregulowane i przewidywalne. Kłopot w tym, że my tego porządku często nie dostrzegamy.

 

Tekst ukazał się w Tygodniku Gość Niedzielny

 

2 komentarze do Ład czy chaos?

Nano-lekarz

Kiedyś po naszym ciele będą krążyły niewielkie urządzenia badawcze. Będą sprawdzały stan naszego zdrowia, podawały leki, a może nawet wykonywały – od wewnątrz – operacje chirurgiczne. Kiedy to się stanie?

Kiedyś po naszym ciele będą krążyły niewielkie urządzenia badawcze. Będą sprawdzały stan naszego zdrowia, podawały leki, a może nawet wykonywały – od wewnątrz – operacje chirurgiczne. Kiedy to się stanie?

Nie wiem, kiedy ta wizja się spełni, ale widzę, że świat inżynierii zmierza w tym kierunku. A wszystko zaczęło się w 1960 roku od słów jednego z najbardziej zasłużonych i barwnych fizyków w historii nauki. Richard Feynman był znany z bardzo dużego poczucia humoru i talentów popularyzatorskich. Uwielbiał grać na bębnach bongo. W ich rytmie zdarzało mu się nawet prowadzić wykłady. Malował, pisał książki i zbierał znaczki. Ale w historii zapisał się z innego powodu. Był fizykiem teoretykiem i laureatem Nagrody Nobla. Pracownikiem najlepszych na świecie uniwersytetów. Zajmował się dość hermetyczną dziedziną, jaką jest kwantowa teoria pola i grawitacji, ale interesował się także fizyką cząstek i nadprzewodnictwem. To on jako pierwszy podał koncepcję komputera kwantowego i – w 1960 roku – zapowiedział powstanie nowej dziedziny inżynierii – nanotechnologii.

Sporo miejsca

Nanotechnologia bada i próbuje wykorzystać potencjał natury i właściwości świata bardzo małych rozmiarów i bardzo małych odległości. Co jest tam tak interesującego? – „There is plenty of room at the bottom” – powiedział w czasie pamiętnego wykładu zapowiadającego powstanie nowej dziedziny wspomniany już Richard Feynman. W tłumaczeniu na polski to zdanie znaczyłoby mniej więcej: „gdzieś tam na dole jest dużo miejsca”. Feynman zastanawiał się, jak naśladować naturę, która z atomów i cząsteczek potrafi tworzyć większe, olbrzymie, piękne struktury, takie jak chociażby białka czy cukry. A wszystko to robi ze znakomitą wydajnością, i mechaniczną, i energetyczną. Innymi słowy, człowiek powinien spróbować nauczyć się naśladować przyrodę, tworzyć układy złożone, wychodząc z atomów i cząsteczek, i kontrolując ten proces, mieć jakiś wpływ na powstającą nową materię. Brzmi dumnie, ale jak to zrobić? To jest właśnie coś, co ma rozstrzygnąć nowa dziedzina. Naukowcy i inżynierowie do tego wyzwania próbują podejść na dwa sposoby. Jeden to tak zwane „bottom up”, czyli przejście od podstaw, z tego poziomu najniższego, atomowo-cząsteczkowego, do większych, zaprojektowanych struktur. Czyli od pojedynczych atomów i cząsteczek do konkretnych materiałów. Najpierw tych w skali nanometrowej, a później o tysiąc razy większej, czyli mikrometrowej.

To podejście przypomina budowanie domu z cegieł. Małe elementy łączone są w duże struktury. Atomy łączone są w cząsteczki. Na przykład takie, które w przyrodzie nie występują. Cząsteczki białek, które mogą być lekarstwem na wciąż niezwyciężone choroby, czy cząsteczki o takich właściwościach, które można będzie wykorzystać w elektronice. Drugie podejście jest dokładnie odwrotne, czyli „top down” – z góry do dołu. To jak wytwarzanie ziarenek piasku podczas mielenia większych kawałków skały albo jeszcze lepsza analogia, mielenie całych ziaren kawy na kawowy proszek. Po co? Im drobniej zmielone, tym lepiej gorąca woda wyciągnie z nich kofeinę. Z całych ziaren kofeiny nie da się wyciągnąć. Wracając do fizyki czy technologii: to drugie podejście polega na rozdrabnianiu materii i schodzeniu do niższych jej form wymiarowych, do skali nano włącznie.

Podróże do wnętrza

O nanotechnologii można bardzo dużo pisać. Choć to nowy kierunek, rozwija się bardzo dynamicznie. Trudno znaleźć dziedzinę nauki, w której nie byłaby obecna. Jednym z bardziej pasjonujących kierunków jej rozwoju jest nanomedycyna. Ta rozwija się w dwóch kierunkach. Jeden to próby (coraz częściej udane) stworzenia nanocząsteczek, które będą nośnikami leków, a nawet genów. Wnikając do organizmu, będą uwalniać przenoszony materiał dokładnie w tym miejscu i dokładnie o tym czasie, jaki jest optymalny. Drugi kierunek to nanosensory i nanoroboty. Już kilka lat temu stworzono nanodetektor komórek rakowych. Do jego działania wystarczy – dosłownie – jedna kropla krwi. Krew przesączana jest przez tysiące mikroskopijnych kanalików krzemowych, w których znajdują się przeciwciała wyłapujące komórki nowotworowe. Analiza przeciwciał pozwala stwierdzić, czy w krwi znajdują się komórki rakowe, a jeżeli tak, to ile i jakie. Taka informacja nie może być pozyskana w trakcie standardowej analizy, bo komórek nowotworowych w krwi jest bardzo mało. Nanomedycyna jednak najbardziej kojarzy się z nanorobotami. Wpuszczone do ludzkiego krwiobiegu będą nie tylko monitorowały funkcje życiowe, ale także reagowały na stany kryzysowe organizmu.

Te skojarzenia – przynajmniej na razie – są nierealne. Na razie. W listopadowym numerze czasopisma naukowego „Nature Communications” opisano urządzenie wielkości kawałka główki od szpilki. Zbudowane jest jak muszla małża, z dwóch połówek połączonych w jednym punkcie (to połączenie przypomina zawias w drzwiach). Niewielkie elektromagnesy w obydwu częściach urządzenia mogą powodować otwieranie i zamykanie „muszli”. Ta w efekcie takiego ruchu może się poruszać. Prędkość tego ruchu jest oczywiście zależna od przekroju naczynia i prędkości krwi (oraz kierunku), ale już dzisiaj mówi się, że urządzenie, którego wielkość nie przekracza 0,3 mm, jest jednym z tych, które w przyszłości będą podróżowały we wnętrzu naszego ciała.

 

Tekst ukazał się w tygodniku Gość Niedzielny

Brak komentarzy do Nano-lekarz

Ten robot ma żywy mózg

Komórki szczurzego mózgu nauczyły się kontrolować pracę robota. – Dzięki temu może zrozumiemy jak wyleczyć chorobę Alzheimera – mówią naukowcy. Może i tak, ale mnie przechodzą ciarki po plecach jak myślę o tym eksperymencie.

Ludzki mózg, stanowi dla badaczy większą tajemnicę niż wszechświat. Nie wiemy jak w detalach przebiega proces uczenia się czy zapamiętywania. Nie wiemy dlaczego tkanka nerwowa się nie regeneruje. I co szczególnie ważne nie wiemy jak leczyć wiele chorób związanych z naszą pamięcią.

Mózg w mechanicznym ciele

Badacze z brytyjskiego University of Reading wybudowali robota, którego głównym zajęciem jest… jeżdżenie od ściany do ściany. Jest mały, wolny i prawie nic nie potrafi. Zamiast kamery ma zwykły sonar, a duże koła poruszają się mało precyzyjnie. Jest jednak szczególny. Jego mózgiem nie jest elektroniczny procesor, tylko żywe komórki nerwowe szczura. Ten robot ma żywy mózg ! To on najpierw się uczy, a po chwili sam decyduje gdzie robot ma jechać.

Kevin-foto Mózgiem robota jest 300 tyś komórek pobranych z kory mózgowej szczura. Naukowcy chemicznie pozbawili neurony połączeń międzykomórkowych (zabili ich pamięć ?) a następnie umieścili w specjalnym, wypełnionym pożywką i antybiotykami pojemniku. Stworzyli im warunki w których mogły samodzielnie żyć. W dno tego pojemnika zatopionych było 60 przewodów elektrycznych a ich zakończenia, elektrody, były wyprowadzone do środka pojemnika. To właśnie tymi elektrodami wędrowały impulsy elektryczne, np. wtedy gry robot zderzył się ze ścianą. Tymi samymi kanałami wędrowała informacja z sonarów. Gdy urządzenie zbliżało się do ściany, na elektrodach pojawiało się odpowiednie napięcie elektryczne. Gdy robot zderzał się ze ścianą, do komórek wędrował inny sygnał elektryczny a odpowiedni system nakazywał kręcić się kołom robota w innym kierunku.

Komórki uczą się

Po kilku próbach okazało się, że żywe komórki coraz rzadziej pozwalałby zderzać się ze ścianą. Nauczyły się, że sygnał „przed nami ściana” oznacza, że za chwilę dojdzie do kolizji. Żeby do tego nie dopuścić, tymi samymi elektrodami sygnał elektryczny wędrował w drugim kierunku. Szczurzy mózg w ciele robota nakazywał kołom skręt i do zderzenia ze ścianą nie dochodziło. Żywe komórki zaczęły kontrolować maszynę.

Gordons-neuronsPo jakimś czasie robot unikał nawet 90 proc. wszystkich kolizji. Ale nie o kontrolę, albo nie tylko o kontrolę chodzi. Naukowcom szczególnie zależy na tym, żeby na gorącym uczynku złapać proces uczenia się. Komórki nerwowe w specjalnym odżywczym odczynniku zaczęły rekonstruować połączenia pomiędzy sobą. Zaczęły do siebie wysyłać sygnały elektryczne. Naukowcy przeprowadzający to doświadczenie mówili, że wyglądało to trochę tak jak gdyby pojedyncze neurony szukały siebie nawzajem, a równocześnie komunikowały gdzie same się znajdują. Tak jak gdyby same były żywym organizmem. – Wydaje się, że komórki mózgu mogą ponownie się organizować w każdych warunkach, które nie są dla nich zabójcze – powiedział Steve Potter z Georgia Institute of Technology w Atlancie, USA. Każdy sygnał elektryczny jaki pochodził od komórek nerwowych, przez elektrody dostawał się do komputera i tam był rejestrowany. Szczurzy mózg, choć kierował robotem, nie przestawał być żywą tkanką. Potrzebował energii (stąd żel odżywczy w pojemniku z komórkami) oraz antybakteryjnej tarczy (stąd w żelu antybiotyki). To jednak nie wystarcza. Żywe komórki muszą mieć zapewnioną odpowiednią temperaturę. Dlatego też w czasie dłuższych prób szczurze komórki mózgowe wcale nie były fizycznie w robocie. Krążek z elektrodami i komórkami był podłączony do urządzenia, które sygnały elektryczne „tłumaczyło” na fale radiowe. Innymi słowy mózg robota był w inkubatorze w którym utrzymywana była optymalna temperatura, a robot sygnały o tym jak ma się poruszać dostawał za pośrednictwem fal radiowych (wykorzystano technologię Bluetooth). Odpowiednie urządzenie pozwalało na dwustronny kontakt pomiędzy jeżdżącym robotem i „jego” mózgiem w inkubatorze.

Czy to komuś pomoże ?

Mózg poza urządzeniem…brzmi abstrakcyjnie. Choć z drugiej strony dzisiejsze komputery także często korzystają z mocy obliczeniowej, która znajduje się poza ich „ciałem”. Coraz częściej to w chmurze trzymamy dane a nawet całe programy.

– To co w tych badaniach najciekawsze, to znalezienie odpowiedzi na pytanie jak aktywność pojedynczych neuronów przekłada się na złożone zachowania całych organizmów – powiedział dr Ben Whalley, jeden z naukowców biorących udział w badaniach. – Ten eksperyment pozwala na wgląd w ten proces na poziomie pojedynczych komórek. To pozwoli nam na sformułowanie odpowiedzi na pytania fundamentalne – dodaje. Naukowcom udało się nauczyć żywe komórki kontroli nad prostym robotem. Ale to nie oznacza końca eksperymentu. Kolejnym krokiem będzie uszkodzenie połączeń pomiędzy wyuczonymi już komórkami mózgu w taki sposób w jaki upośledzone są połączenia u osób cierpiących na chorobę Alzheimera czy Parkinsona. Jak teraz będzie wyglądał proces uczenia się ? Czy robot z mózgiem który „cierpi” na chorobę Alzheimera będzie także się uczył ? Czy powstaną nowe połączenia ? Jeżeli nie, co zrobić żeby powstawały ?

Choć badacze zaangażowani w projekt uważają, że ich praca będzie krokiem milowym w rozumieniu wielu procesów które dzieją się w mózgu, nie brakuje i takich, którzy studzą emocje. – To zaledwie model. To nie badania mózgu, tylko jego małego wycinka w sztucznym otoczeniu. Oczywiście wyniki badań mogą nas wiele nauczyć, ale mogą też zmylić nas na przyszłość. Przecież nie wiemy czy to co zaobserwujemy w laboratorium wystąpiłoby w rzeczywistości – powiedział Steve Potter z Georgia Institute of Technology. – Trzeba być bardzo ostrożnym w wyciąganiu daleko idących wniosków – dodaje. Autorzy badań zgadzają się z tym podejściem, ale podkreślają, że… – nawet jeżeli przeprowadzane przez nas eksperymenty tylko w 1 proc. pogłębią naszą wiedzę o chorobach takich jak Alzheimer, będzie to świadczyło o tym, że warto je było przeprowadzić – powiedział profesor Kevin Warwick z School of Systems Engineering. Co do tego nie ma jednak chyba żadnej wątpliwości.

 

Tekst ukazał się w Tygodniku Gość Niedzielny.

1 komentarz do Ten robot ma żywy mózg

Bombardowanie z kosmosu

Małe asteroidy o średnicy około 1 metra wpadają w naszą atmosferę zadziwiająco często. NASA właśnie opublikowała raport dotyczący „bombardowania Ziemi” w latach 1994 – 2013.

Jednometrowe obiekty wpadają w atmosferę średnio co dwa tygodnie! Mniejszych obiektów nawet nie sposób policzyć. Miejsca w których dochodzi do kolizji są rozrzucone mniej więcej równomiernie po całej planecie. Z trwających 20 lat badań wynika, że w tym czasie zarejestrowano przynajmniej 556 przypadków bolidów, czyli dużych obiektów kosmicznych w atmosferze. Ich energia wynosi czasami setki miliardów dżuli. Jednym z nielicznych – w ostatnich latach – takich przypadków o którym mamy świadomość był meteor czelabiński, który w połowie lutego 2013 roku wywołał panikę nie tylko w Czelabińsku na Syberii. Jego energia wynosiła mniej więcej tyle ile energia pół miliona ton trotylu.

Meteor czelabiński zanim wszedł w ziemską atmosferę miał wielkość około 20 metrów. Rosnąca gęstość gazowej powłoczki Ziemi spowodowała jednak, że obiekt rozpadł się na mniejsze. To samo dzieje się z większością obiektów o średnicy około metra. Choć ich resztki nie „spalają” się w atmosferze całkowicie, zwykle nie są groźne dla ludzi. A wracając do wydarzenia z Czelabińska. Nawet eksperci uważali wtedy, że częstotliwość takich zdarzeń jest niewielka. Tymczasem okazuje się, że jest inaczej. Z danych NASA wynika, że obiekt podobny do czelabińskiego wchodzi w naszą atmosferę co kilka (a nie kilka tysięcy) lat. Obiekt wielkości boiska sportowego wchodzi w atmosferę średnio raz na 5000 lat. Obiekty wielkości samochodu osobowego „nawiedzają nas” średnio raz w roku. Obiekty mniejsze, o średnicy rzędu jednego metra wpadają średnio co dwa tygodnie. Te mniejsze, jeszcze częściej. Na powierzchnię Ziemi każdej doby spada ponad 100 ton kosmicznej materii. To, że mniejsze obiekty nie docierają do powierzchni planety to jasne. Ziemska atmosfera działa jak mechanizm hamujący. Ogromna energia kosmicznego obiektu jest „wytracana” ale nie znika, tylko zamieniana jest na ciepło, na ogrzewanie obiektu, a ten albo rozpada się na drobny maczek, albo po prostu topi się i wyparowuje. To dotyczy także obiektów dużych, tych metrowych. Przeważająca większość z nich rozpada się w górnych warstwach atmosfery pod wpływem dużej zmiany ciśnienia przy wchodzeniu atmosfery. Mniejsze obiekty albo topią się, albo spadają jako niegroźnie małe. Poza tym, 2/3 powierzchni planety pokryta jest oceanami, a całkiem spora pustyniami i lasami, w skrócie tereny niezamieszkałe stanowią dużą większość  obszarów Ziemi. Jakiekolwiek uderzenie pozostaje tam niezauważone.

Obiekty wielkości ziarenka piasku, o ile wejdą w ziemską atmosferę w nocy, są łatwo zauważalne nawet gołym okiem. Większe to tzw. bolidy, świecą jaśniej niż Wenus. Co ciekawe, to świecenie nie wynika z tarcia obiektu kosmicznego o cząsteczki gazów w atmosferze, tylko z silnego sprężenia powietrza przed czołem bolidu. Ogromny wzrost ciśnienia powoduje podniesienie temperatury nie tylko obiektu, ale także gazu. I to świecący gaz, a nie meteor jest tym co widać w nocy. Bolid czy meteor nagrzewa się do temperatury kilku tysięcy stopni Celsjusza. Szybkiej zmianie ciśnienia często towarzyszy także grom dźwiękowy.

NASA od wielu już lat obserwuje obiekty, które potencjalnie mogą zagrozić Ziemi (to tzw. NEO – Near Earth Object). Jako takie definiuje się te, które znajdują się w odległości mniejszej niż 50 milionów kilometrów od orbity Ziemi.Dla porównania średnia odległość Ziemia – Słońce wynosi około 150 mln kilometrów, a średnia odległość Ziemia Księżyc około 350 tys. kilometrów.

W obszarze szczególnego zainteresowania obserwatorów z NASA, tylko obiektów o średnicy 1km lub większej znajduje się około tysiąca. Ponad 950 z nich jest przez agencję (w ramach programu NEO) obserwowana. W najbliższym sąsiedztwie Ziemi ilość obiektów, których średnica wynosi 150 metrów i więcej, szacuje się na około 25 tysięcy, z czego ponad 22 tys. jest pod obserwacją.

 

Lista potencjalnie groźnych obiektów:

http://neo.jpl.nasa.gov/risks/

Więcej informacji:

http://science.nasa.gov/planetary-science/near-earth-objects/

 

 

Brak komentarzy do Bombardowanie z kosmosu

Kryształ Wikingów działa !

W każdej legendzie jest trochę prawdy. Od lat naukowcy (i żeglarze) zastanawiali się jak Wikingom udawało się tak skutecznie nawigować w czasie rejsów po morzach północnych, po Atlantyku czy Morzu Śródziemnym. Nie mieli kompasu, mgły często zasłaniały niebo, a w miejscu w którym mieszkali, przez pół roku nie było nocy (więc nie mogli nawigować obserwując gwiazdy).
Legendom o słonecznym kamieniu, którym miał się posługiwać m. in. król Olaf nie dawano wiary. Kamień do nawigacji? Dajcie spokój.

Wikingowie byli w swoim czasie (od roku 900 do roku 1200) panami mórz i oceanów. Byli najdoskonalszymi żeglarzami na Ziemi. W średniowieczu swobodnie pływali nie tylko po morzach północy, ale także po Oceanie Atlantyckim czy po Morzu Śródziemnym. Setki lat przed Kolumbem dotarli też do Ameryki. Od lat naukowcy (i żeglarze) zastanawiali się jak Wikingom udawało się tak skutecznie nawigować w czasach, w których nie znali igły magnetycznej (kompasu). Legendom o słonecznym kamieniu, którym miał się posługiwać m. in. król Olaf nie dawano wiary. Kamień do nawigacji? Dajcie spokój.

Przepuszczą, albo nie

Zrozumienie zasad nawigacji ludów północy było tym trudniejsze, że Wikingowie – z racji miejsca w którym mieszkali, a więc Islandii czy wybrzeży dzisiejszej Szwecji i Norwegii – pływali głównie po morzach północy. To obszary o bardzo dużym zachmurzeniu, a to uniemożliwia astronawigację. Na dalekiej północy, przez pół roku nocy w ogóle nie ma. Często występują też mgły, a linia brzegowa, z powodu lodowców i gór lodowych często się zmienia. I jak w takich warunkach nawigować? Jak wyruszyć tak daleko i – co ważniejsze – wrócić do domu?

Pierwszą osobą, która legendy próbowała zweryfikować legendy był duński archeolog Thorkild Ramskou. Był rok 1967, a Ramskou twierdził, że „sólarsteinn”, czyli tzw. słoneczny kamień istniał naprawdę i był nim szpat islandzki (odmiana kalcytu), występujący powszechnie na Islandii (zajmowanej przez Wikingów). Co to takiego? Fale elekto-magnetyne, w tym światło, mogą być uporządkowane, albo chaotyczne. Źródłem światła uporządkowanego jest np. laser. Za to już zwykła żarówka daje światło, które składa się z fal nieuporządkowanych. Choć nasze oko nie wykrywa polaryzacji, nie widzi czy fala która w nie wpada jest spolaryzowana czy nie, oczy niektórych zwierząt są na to wrażliwe. Np. niektórych owadów. Ponadto w przyrodzie są materiały, które działają jak filtry, i falę „ustawioną” w jednym kierunku przepuszczają, a w innych kierunkach nie.

Jak to sobie wyobrazić?

Gdyby przywiązanym do drzewa (płotu,… czegokolwiek) sznurkiem machać w kierunku góra – dół, powstałaby na nim fala.  Można też sznurkiem machać lewo – prawo. Też mielibyśmy falę. W końcu, sznurkiem można machać raz góra – dół, a raz lewo – prawo. A teraz na drodze sznurka ustawmy w pionie dwie deseczki. Tak, żeby sznurek swobodnie przechodził pomiędzy nim. Deseczki zadziałają jak każdy materiał polaryzujący. Jeżeli są ustawione w pionie, „przepuszczą” tylko falę, która powstanie na sznurze w czasie machania góra – dół. Nie przepuszczą fali lewa – prawa. Identycznie działają niektóre kryształy gdy przepuścić przez nie światło. Przepuszczą tylko te fale, które są zgodne z polaryzacją danego kryształu. Może się też zdarzyć tak, że kryształ nie przepuści światła w ogóle. To bardzo widowiskowe, bo w zależności od położenia kryształu, raz jest on przezroczysty, a za chwilę czarny jak węgiel. Zdaniem – wracając do Wikingów – duńskiego archeologa, Thorkilda Ramskou, takich kryształów używali właśnie Wikingowie do nawigacji. Ciekawa koncepcja, ale gdy powstała, była rozważaniem czysto teoretycznym, nikt jej nie sprawdził.

To działa!

Zresztą kryształów które polaryzują światło jest więcej. Niektóre z nich, (m. in. turmaliny i kordieryty) występują w Skandynawii. Obracanie nimi pozwala stwierdzić z jakiego kierunku padają promienie słoneczne, czyli gdzie jest Słońce, nawet wtedy, gdy zasłania je chmura, albo gdy panuje gęsta mgła.

W 2005 roku naukowcy z Węgier i Szwecji (Gábor Horváth z Uniwersytetu Eötvös w Budapeszcie i Susanne Ĺkesson Lund University) wybrali się z polaryzującym kryształem w rejs lodołamaczem po Oceanie Arktycznym. Rejs trwał kilka dni, w czasie których wielokrotnie panowała pogoda uniemożliwiająca astronawigację. Badacze udowodnili, że niezależnie od pogody, dzięki kryształowi można wyznaczyć strony świata. A to wystarczy by skutecznie pływać po morzach i oceanach (trafiając zawsze tak gdzie chce się trafić). Cztery lata później w czasopiśmie Science opublikowano artykuł napisany przez uczonych z francuskiego Universite de Rennes 1, którzy skonstruowali pełny przyrząd którym mogli posługiwać się Wikingowie. Jego sercem jest właśnie kamień słoneczny czyli „sólarsteinn”. Z pomiarów (a nie szacunków!) jakich dokonali Francuzi wynika, że wyznaczona dzięki kryształom dokładność położenia Słońca może wynieść około 1 proc. Nawet wtedy, gdy Słońce znajduje się już za horyzontem (o ile nie jest jeszcze kompletnie ciemno).

Brak komentarzy do Kryształ Wikingów działa !

Type on the field below and hit Enter/Return to search

WP2Social Auto Publish Powered By : XYZScripts.com