Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: komputer

Czujnik w nas

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

Czujnik, a właściwie elektroniczny chip, powstał w laboratoriach politechniki w Lozannie EPFL (École polytechnique fédérale de Lausanne). Ma wielkość paznokcia w małym palcu i nie trzeba wymieniać mu baterii. Ładuje się go przez indukcję, przez skórę. Wszystko, co zbada i zmierzy, przesyła bezprzewodowo do smartfona. Jest to bodaj pierwsze urządzenie tego typu, które może być wykorzystywane komercyjnie u pacjentów. Poprzednie konstrukcje nie były co prawda większe, ale miały ogromną wadę – badały tylko jeden parametr, tylko jedną zmienną. Ten równocześnie rejestruje ich kilka.

Od czego się zaczęło?

Czujnik, o którym mowa, wpisuje się w rozwój dziedziny zwanej nanotechnologią. Co prawda urządzenia nano są znacznie, znacznie mniejsze, ale bardzo szybki wyścig do miniaturyzacji zawdzięczamy właśnie nanotechnologii. Za ojca tej dziedziny uważany jest genialny fizyk Richard Feynman. Uczestniczył w pracach nad budową pierwszej bomby atomowej (projekt Manhattan), a po wojnie pracował na najlepszych uniwersytetach amerykańskich. Zajmował się kwantową teorią pola i grawitacji, fizyką cząstek i nadprzewodnictwem. To on jako pierwszy podał koncepcję komputera kwantowego i – w 1960 roku – zapowiedział powstanie nowej dziedziny nauki – nanotechnologii. W 1965 r. otrzymał Nagrodę Nobla z fizyki. Feynman wielokrotnie zwracał uwagę na to, że przyszłość będzie nano, że zrozumienie tego, co dzieje się w nanoświecie, świecie na poziomie pojedynczych cząstek i atomów, będzie kluczowe dla naszego przyszłego rozwoju.

Trudno oczywiście dokładnie określić, kiedy nanotechnologia rzeczywiście powstała, ale nie ma wątpliwości, że wiele dziedzin przemysłu coraz chętniej zwraca głowę w kierunku ekstremalnej miniaturyzacji. Jedną z dziedzin, które robią to szczególnie często, jest medycyna. Nanomedycyna dzisiaj rozwija się w dwóch kierunkach. Jeden to próby (coraz częściej udane) stworzenia nanocząsteczek, które będą nośnikami leków, a nawet genów. Wnikając do organizmu, będą uwalniać przenoszony czynnik dokładnie w tym miejscu i dokładnie o tym czasie, jaki jest optymalny. Drugi kierunek to nanosensory. Te mogą być wykorzystywane nie tylko w medycynie, ale także na przykład w ochronie środowiska. Dobrym przykładem jest nanosensor służący do analizy krwi. Z zewnątrz wygląda jak siateczka z ogromną ilością otworów. W rzeczywistości to mikroskopijne kanaliki krzemowe, w których znajdują się przeciwciała wyłapujące komórki nowotworowe. Analiza przeciwciał pozwala stwierdzić, czy w krwi znajdują się komórki rakowe, a jeżeli tak, to ile i jakie. Taka informacja nie może być pozyskana w trakcie standardowej analizy, bo komórek nowotworowych w krwi jest bardzo mało. Co ciekawe, testowana metoda jest dużo tańsza niż dzisiaj stosowane, a do analizy wystarczy jedna, dosłownie, kropla krwi.

Myszy już mają

Nanomedycyna jednoznacznie kojarzy się jednak z budową nanorobotów, które wpuszczone do ludzkiego krwiobiegu będą nie tylko monitorowały funkcje życiowe, ale także reagowały na stany kryzysowe organizmu. Te skojarzenia – przynajmniej na razie – są całkowicie chybione. Co nie znaczy oczywiście, że prace nad miniaturyzacją robotów nie są prowadzone. Już dzisiaj tworzone są roboty, których rozmiary umożliwiają użycie ich w rzeczywistych warunkach szpitalnych. Na przykład kapsułka monitorująca wnętrze układu trawiennego skonstruowana przez japońską firmę Denso Research jest wielkości standardowej tabletki. Jest wyposażona we własne zasilanie i kamerę CCD wysokiej rozdzielczości oraz urządzenie do przesyłania informacji drogą radiową do urządzenia bazowego. Po połknięciu „kapsułka endoskopowa” przekazuje wysokiej jakości obraz w czasie rzeczywistym. Nie ma własnego napędu, porusza się pod wpływem… siły grawitacji i perystaltyki jelit. Ale na rynku są już urządzenia niewiele większe, które mogą poruszać się samodzielnie, choć na razie jeszcze nie w układzie krwionośnym. Kilka lat temu na jednej z konferencji nanotechnologicznych pokazano nanosilnik, który jest mniejszy od główki od szpilki. Jego koła napędowe były 100 razy cieńsze niż kartka papieru, a ich średnica mniejsza niż średnica ludzkiego włosa. Silnik obracał się z częstotliwością jednego obrotu na sekundę i teoretycznie mógłby być elementem systemu napędowego jakiegoś małego urządzenia pływającego. Zanim te powstaną, miną jeszcze lata. Wcześniej do medycyny wejdą inteligentne czujniki, które być może będą wszczepiane pod skórę na dłuższy czas osobom o podwyższonym ryzyku zdrowotnym. Takim czujnikiem jest wspomniany sensor stworzony w Lozannie. Ma wielkość poniżej centymetra i w czasie rzeczywistym monitoruje obecność oraz stężenie kilku molekuł. Może badać odczyn (pH), temperaturę, ale przede wszystkim cholesterol, glukozę, poziom tlenu oraz stężenie przynajmniej kilku leków. To ostatnie będzie szczególnie ważne dla osób, które z powodu swojej choroby muszą regularnie zażywać jakieś medykamenty. Ich przedawkowanie jest wtedy bardzo łatwe. Pełna kontrola nad poziomem substancji czynnej we krwi jest bardzo istotna. Sensor został przetestowany na myszach, a testy kliniczne na ludziach rozpoczną się za kilka lat.

Brak komentarzy do Czujnik w nas

Ludowców gra grafenem

W jednym z najbardziej znanych na świecie polskich instytutów naukowych, w miejscu w którym produkuje się grafen, doszło dziwnych i niezrozumiałych kombinacji podczas wyboru dyrektora placówki. Sprawa wygląda na polityczną ustawkę, która może utopić polski grafen.

W jednym z najbardziej znanych na świecie polskich instytutów naukowych, w miejscu w którym produkuje się grafen, doszło dziwnych i niezrozumiałych kombinacji podczas wyboru dyrektora placówki. Sprawa wygląda na polityczną ustawkę, która może utopić polski grafen.

O sprawie pisałem już w Tygodniku Gość Niedzielny. Dotychczasowym szefem Instytutu Technologii Materiałów Elektronicznych (ITME) w Warszawie był doktor Zygmunt Łuczyński. Zasłużony fizyk i człowiek, który wiele lat temu zainicjował w tej jednostce badania nad nowymi postaciami węgla, czyli nad grafenem („wie pan, chodziłem za tym, jak jeszcze nikt nie wiedział czym jest grafen„). Dzisiaj ITME jest światowym liderem technologii. To w Warszawie powstają jedne z największych kawałków grafenu na świecie. Naukowcy pracujący w „grupie grafenowej” są zaangażowani w najbardziej prestiżowe projekty międzynarodowe, a sam instytut w rankingach jest plasowany na czołowych pozycjach. Dla przypomnienia, grafen to postać węgla, która ma niespotykane w innych materiałach właściwości. Jest bardzo wytrzymały, a równocześnie elastyczny. Lekki i przezroczysty, ale odporny na działanie sił zewnętrznych. Doskonale przewodzi prąd i ciepło. I choć trudno znaleźć dziedzinę w której grafen nie mógłby być wykorzystywany, największe nadzieje wiąże się z grafenem w elektronice. Panuje powszechne przekonanie, że w najbliższej przyszłości, to grafen, czy ogólnie węgiel, wyprze z elektroniki krzem, który dzisiaj jest jej fundamentem. W skrócie mówiąc, grafen, pod wieloma względami jest materiałem przyszłości.

Doktorowi Łuczyńskiemu kilka miesięcy temu kończyła się kadencja dyrektorska i starając się o kolejną, wystartował w ogłoszonym konkursie. Wraz z nim do konkursu stanęło jeszcze trzech innych kandydatów. Każdy z nich odpadł jednak na kolejnych etapach procedury konkursowej. Konkurs sprzed kilku miesięcy wygrał więc bezapelacyjnie dotychczasowy szef Instytutu, dr Zygmunt Łuczyński. Tą wygraną potwierdziła odpowiednią uchwałą Komisja Konkursowa, a Rada Naukowa Instytutu skierowała do Ministra Gospodarki pismo z rekomendacją i prośbą o powołanie nowego (starego) dyrektora na kolejną kadencję. Skany tych pism zamieszczam na dole wpisu.

Mimo tej wygranej, doktor Łuczyński dyrektorem jednak nie został, bo jego nominacji nie podpisał Minister Gospodarki, Janusz Piechociński z PSLu. Nie pomogło to, że do ministra zwróciła się z prośbą o podpisanie nominacji Rada Naukowa Instytutu oraz Rada Główna Instytutów Badawczych. Nie pomogło nawet to, że na biurku ministra znalazł się list podpisany przez 190 pracowników Instytutu popierających swojego poprzedniego dyrektora.  W liście do premiera Piechocińskiego, szef Rady Głównej Instytutów Badawczych pisał, że Rada wyraża pogląd, że konkurs na stanowisko dyrektora instytutu badawczego ITME został przeprowadzony zgodnie z obowiązującymi wymaganiami prawnymi.  A potem dodawał: „Rada Główna Instytutów Badawczych popiera stanowisko Rady Naukowej ITME. W imieniu Rady Głównej zwracam się do Pana Premiera o reasumpcję odmowy powodłania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME.” Premier Piechociński zdania jednak nie zmienił.

Dlaczego? Otóż ministerstwo twierdzi, że zostały złamane procedury, bo nie wszyscy kandydaci przeszli pełną ścieżkę konkursową. To prawda, ale to nie jest niezgodne z prawem. Nie wszyscy kandydaci dotrwali do końca procedury konkursowej, bo odpadli wcześniej. Pomijając nazwiska (choć te są w dokumentach zamieszczonych poniżej), jeden z panów odpadł na egzaminie z angielskiego. Jego wiadomości były zdaniem komisji konkursowej dużo poniżej tych, które deklarował w dokumentach. Drugi kandydat zrezygnował, gdy trzeba było podzielić się z komisją swoją wizją na temat rozwoju i przyszłości instytutu. Trzeci nie dopełnił formalności przy zgłoszeniu swojej kandydatury i dlatego komisja w ogóle nie rozpatrywała jego podania.

Napisałem do Ministerstwa Gospodarki maila z pytaniem o dziwne praktyki konkursowe. Po kilku dniach otrzymałem odpowiedź, że konkurs trzeba było powtórzyć z powodu złamania procedur. Jak to możliwe, skoro szefem Komisji Konkursowej był przedstawiciel ministerstwa, który na piśmie oświadczył, że wszystkie procedury były zachowane? Zerknijcie proszę w dokumenty poniżej. Gdy do rzeczniczki ministra Piechocińskiego napisałem kolejnego maila z prośbą o wyjaśnienie tej niezgodności (ministerstwo twierdzi, że prawo zostało złamane, przedstawiciel ministerstwa zaświadcza, że wszystko odbyło się zgodnie z przepisami), nie otrzymałem żadnej odpowiedzi. Mimo, że już dawno minął ustawowy termin na odpowiedź jaki prawo narzuca urzędnikom.

Ministerstwo Gospodarki postawiło na swoim i po unieważnieniu konkursu, rozpisało nowy. Dotychczasowy dyrektor – doktor Łuczyński – przepadł, szefem Instytutu Technologii Materiałów Elektronicznych został były prezes Grupy Azoty (Kędzierzyn Koźle) Ireneusz Marciniak. – O tej osobie mówiło się jak o kandydacie forsowanym przez ministerstwo gospodarki – powiedział mi dr Zygmunt Łuczyński. Ireneusz Marciniak był związany z różnymi spółkami skarbu państwa od kilkunastu lat.

Trzy miesiące temu dr Łuczyński udzielił pismu Elektronik wywiadu pod znamiennym tytułem „Kto jest zainteresowany przejęciem ITME?„, w którym tłumaczył naciski i motywy stojące za próbą przejęcia sterów w jednym z najbardziej znanych na świecie polskich ośrodków naukowych. – Z moich informacji wynika, że istnieje porozumienie pomiędzy Ministerstwem Gospodarki a Politechniką Warszawską, na mocy którego niedługo ma nastąpić konsolidacja Politechniki i ITME – mówił Łuczyński. Zapytany o to porozumienie rzecznik Politechniki Warszawskiej, zaprzeczył istnieniu jakiejkolwiek umowy. Doktor Łuczyński, we wspomnianym wywiadzie opowiada także, że ośrodek którym kierował znajduje się w wielu rankingach instytucji naukowych na czołowych pozycjach. Prowadzi bardzo ważne naukowo i biznesowo projekty (w tym bardzo prestiżowe, międzynarodowe), znajduje dofinansowanie i ma świetny sprzęt. – Nietrudno zatem dojść do wniosku, że ITME jest łakomym kąskiem do przejęcia – powiedział mi doktor Łuczyński. I dodawał, że przejęcie ITME to „bilet do wielu prestiżowych programów o charakterze międzynarodowym”. Tyle tylko, że dyrektor Łuczyński nie godził się na zmiany organizacyjne w instytucie. – Uczestnictwo w światowym wyścigu technologicznym, czego grafen jest doskonałym przykładem, wymaga 100-procentowej i maksymalnej koncentracji oraz podporządkowania się temu celowi – mówił Łuczyński w Elektroniku. A potem dodawał, że laboratoria Instytutu pracują na trzy zmiany, bo w tak zaciętym wyścigu technologicznym z jakim mamy do czynienia, liczy się każda godzina. – To moim zdaniem jest wystarczający powód, aby nie zmieniać konia w czasie gonitwy – mówił. I dodawał, że jakiekolwiek zmiany personalne w kierownictwie czy organizacyjne nie dają gwarancji utrzymania kadry, co jest kluczowe dla rozwoju prac. – Nie jest tajemnicą, że większość ze specjalistów pracujących nad grafenem ma liczne propozycje i możliwość natychmiastowego przejścia do innych (zagranicznych) ośrodków badawczych. Każda niestabilność związana z działalnością placówki jest tutaj realnym zagrożeniem, a w konsekwencji grozi utratą pozycji Polski w tej dziedzinie – mówił doktor Łuczyński. No właśnie. Pozycja Polski. Wydaje się, że w tym wszystkim najmniej chodzi o pozycję Polski i polskich badań.

 

DOKUMENTY015_Strona_2

Uchwała Komisji Konkursowej stwierdzająca zwycięstwo w konkursie dr. Zygmunta Łuczyńskiego

 

DOKUMENTY015_Strona_1

List Komisji Konkursowej rekomendujący dr. Łuczyńskiego na stanowisko dyrektora ITME

 

DOKUMENTY015_Strona_3-kolorowy

Uchwała Rady Naukowej Instytutu, w które potwierdzona zostaje prawidłowość procedury konkursowej, w której wygrał dr Zygmunt Łuczyński

 

List RGJB do Piechocińskiego-podkreślenia

List Przewodniczącego Rady Głównej Instytutów Badawczych do Premiera Piechocińskiego z prośbą o zmianę decyzji wsp. niepowoływania dr. Łuczyńskiego na stanowisko dyrektora ITME.

 

Wniosek  Rady Nauk do Ministra_Strona_1

Wniosek Rady Naukowej ITME o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME

 

Wniosek  Rady Nauk do Ministra_Strona_2

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 1

Wniosek  Rady Nauk do Ministra_Strona_3

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 2

Wniosek  Rady Nauk do Ministra_Strona_4

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 3

Wniosek  Rady Nauk do Ministra_Strona_5

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 4

 

36 komentarzy do Ludowców gra grafenem

Złapali kwant !!!

Dwójce młodych fizyków, doktorantów Uniwersytetu Warszawskiego, jako pierwszym na świecie udało się sfotografować kwanty, cząstki światła, w bardzo szczególnym momencie – chwili, w której się parują.

Dwójce młodych fizyków, doktorantów Uniwersytetu Warszawskiego, jako pierwszym na świecie udało się sfotografować kwanty, cząstki światła, w bardzo szczególnym momencie – chwili, w której się parują.

Tak, światło składa się z cząstek. A właściwie sprawa jest bardziej złożona. Światło ma cechy fali (podobnej do tej na wodzie), ale wykazuje też cechy korpuskularne. W skrócie mówiąc, jest i falą, i cząstką. Trudno to odnieść do naszej rzeczywistości, bo w makroświecie cechy fali i cząstki wykluczają się. W świecie kwantów nic się nie wyklucza.

Quantum paparazzi spying identical photon pairs

„Łapacze fotonów”, młodzi fizycy z UW, na tym zdjęciu zachowują się jak fotony. Są w dwóch miejscach równocześnie. Obok układu pomiarowego Radosław Chrapkiewicz (po prawej) oraz Michał Jachura (stojący za nim) .

W zasadzie proste 

Cząstki światła nazywają się kwantami. Nie mają masy spoczynkowej, nie da się ich zatrzymać i przyjrzeć im się „na spokojnie”. Przeciwnie, pędzą z prędkościami, które trudno sobie nawet wyobrazić. 300 tys. kilometrów na sekundę! Ile to jest? Odległość między Zakopanem i Trójmiastem (prawie 700 km) światło pokonuje w tysięczne części sekundy. Jak złapać, jak sfotografować coś, co porusza się z taką prędkością? – Układ, który zastosowaliśmy do naszych pomiarów, jest dość złożony, ale sama idea nie jest skomplikowana – powiedział mi Michał Jachura z Uniwersytetu Warszawskiego. – Źródłem fotonów jest fioletowy laser. Padają one na urządzenie, w którym z jednego fotonu powstaje jeden elektron. Następnym elementem jest wzmacniacz powielający ten jeden elektron. Tak powstaje kilka milionów elektronów, które następnie padają na płytkę z fosforu, gdzie powodują błysk światła. Ten błysk rejestrujemy specjalną kamerą – mówi drugi z młodych badaczy, Radosław Chrapkiewicz. – I to w zasadzie wszystko – dodaje. Niektóre elementy układu, w którym udało się złapać fotony, np. wzmacniacz obrazu, to urządzenia wykorzystujące technologię wojskową. Samo sfotografowanie pojedynczej cząstki światła to jednak nie było topowe osiągnięcie Michała i Radka. Im udało się zobaczyć moment, w którym fotony się parowały. Ale zanim o tym, warto powiedzieć trochę o samych fotonach.

Światło wprost ze światłowodu

Światło wprost ze światłowodu. Obiektyw aparatu Radka Chrapkiewicza był skierowany dokładnie w kierunku światłowodu (wyjścia) z lasera femtosekundowego. Ten laser emituje bardzo krótkie błyski światła, których długość nie przekracza 100 fs (femtosekund). Femtosekunda to jedna bilionowa część sekundy. W czasie jednej femtosekundy światło pokonuje drogę sto razy krótszą niż grubość ludzkiego włosa!

Jaki kształt? Jaki kolor?

Fotografia kojarzy nam się z odwzorowywaniem rzeczywistości. Skoro foton dał się sfotografować, można chyba zapytać, jak on wygląda. Zacznijmy od kształtu. Da się go określić? – W jednym pomiarze nie, ale robiąc wiele pomiarów, wiele zdjęć, udaje się to zrobić, choć od razu trzeba powiedzieć, że kształt fotonu nie jest stały. Może się różnić w zależności od tego w jakim otoczeniu się znajduje – tłumaczy Michał. – W naszej aparaturze obserwowaliśmy np. fotony o wydłużonych kształtach, takich trochę jak ołówek, ale udawało nam się także obserwować fotony rozseparowane, czyli takie, w których jeden foton był rozdzielony na dwie części. I to części, które znajdują się od siebie w odległości nawet centymetra – dodaje Radek. A kolor? Tutaj sprawa zaczyna się komplikować jeszcze bardziej. – Foton ma trzy cechy, które nazywamy stopniami swobody – opowiada Michał Jachura.

– Pierwszy to struktura w przestrzeni, czyli w pewnym sensie kształt. Drugi stopień swobody – spektralny – to innymi słowy kolor. Fotony mogą być czerwone, niebieskie, ale możemy mieć fotony w tak zwanej superpozycji, np. fotony białe, składające się z wielu barw dla których określony kolor ustala się dopiero w momencie pomiaru. Ten sam foton mierzony wielokrotnie może mieć różne kolory. Ostatni stopień swobody to polaryzacja, tzn. kierunek, w jakim foton drga. Jeżeli dwa fotony mają identyczne trzy stopnie swobody, nie ma żadnej możliwości, by odróżnić je od siebie – kończy Michał Jachura. Zatem wróćmy do osiągnięcia dwóch doktorantów. Fotografowali oni fotony, które dobierały się w pary. W czasie tego procesu zauważyli, że dwa różne fotony skazane są na samotność. Nawet gdy znajdą się obok siebie, „nie widzą” się i zwykle nie dobierają się w pary. Sytuacja wygląda zupełnie inaczej, gdy fotony są identyczne, to znaczy, gdy wszystkie trzy stopnie swobody dwóch cząstek są takie same. Wtedy powstają pary, które na dodatek są wyjątkowo jednomyślne. Jeden foton „idzie” zawsze tam, gdzie ten drugi. Chociaż trudno powiedzieć, który jest pierwszy, a który drugi, skoro obydwa są identyczne. Łączenie fotonów nazywa się efektem Hong-Ou-Mandela i na Wydziale Fizyki Uniwersytetu Warszawskiego po raz pierwszy na świecie udało się go sfilmować.

Quantum memory - glowing green

Układ pamięci nowej generacji do komputerów kwantowych. Zielona tuba to pamięć. Za pomocą lasera (czerwona wiązka) w atomach rubidu „zapisywana” jest informacja, która następnie może być odczytywana. Ta pamięć to także dzieło doktorantów z UW.

Nauka podstawowa

Pozostaje tylko znaleźć odpowiedź na pytanie, po co tego typu badania się robi. – Być może kiedyś uda się wyniki naszych eksperymentów wykorzystać w rozwijanych technologiach kwantowych, na razie myślimy jednak o naszych eksperymentach w kategoriach badań podstawowych – mówi Michał Jachura. – Nas bardziej niż kształt samego fotonu interesuje to, jaki kształt będzie miała para fotonów, które zaczną ze sobą interferować, zaczną się na siebie nakładać. To można wykorzystać do zupełnie nowego rodzaju mikroskopii o bardzo wysokiej rozdzielczości. – uzupełnia Radosław Chrapkiewicz.

14 komentarzy do Złapali kwant !!!

Zabawa w określanie wieku

Internetowa zabawa która polega na odgadywaniu wieku osób na fotografiach służy temu, by informatyczny gigant nauczył się czegoś, na czym w przyszłości będzie zarabiał krocie. A jeżeli chodzi o zdjęcia… cóż. Niby są twoje. Niby.

Internetowa zabawa która polega na odgadywaniu wieku sfotografowanych osób służy temu, by informatyczny gigant nauczył się czegoś, na czym w przyszłości będzie zarabiał krocie. A jeżeli chodzi o zdjęcia… cóż. Niby są twoje. Niby.

Po pierwsze nieprawdą jest, że to pierwsza tego typu aplikacja (a takie informacje pojawiły się w wielu miejscach). Odgadywać wiek, płeć i nastrój na podstawie zdjęcia czy sekwencji zdjęć (video) wiele firm próbuje od dawna. Aplikacja Microsoftu jest zabawą tylko dla użytkowników, dla firmy jest cenną nauką.

Po co komu takie programy? Pierwszy, kto nauczy się rozpoznawać emocje innych osób będzie miał w ręku ogromną władzę i ogromne pieniądze. Wiele lat temu, w USA, testowano system, który z tłumu ludzi wyławiał konkretne jednostki. Złapana w kadrze kamery twarz jest przez odpowiedni algorytm analizowana i porównywana ze zdjęciami zamieszczonymi w bazie danych. W ten sposób można z tłumy wyławiać np. przestępców, którzy uciekli z więzienia, podejrzanych, którzy się ukrywają, czy ludzi, których służby bezpieczeństwa z jakiś powodów inwigilują. Już kilka lat temu profesjonalne systemy osiągały zdolność analizowania do miliona twarzy na sekundę! Do komputera głównego systemu można dodatkowo wprowadzić algorytm, który np. pozwoli po sposobie chodzenia wyławiać z tłumu tych, którzy pod płaszczem czy kurtką niosą coś ciężkiego. Albo tych, którzy mają odpowiedni nastrój. Co to znaczy odpowiedni? Zależy od tego kto płaci. Jeżeli służby bezpieczeństwa, wyławiane z tłumu na lotnisku mogą być np. osoby zestresowane. Jeżeli system ma pracować dla kogoś kto sprzedaje dobra luksusowe będzie wyszukiwał raczej ludzi zadowolonych z siebie. Podekscytowani faceci być może będą bardziej skłonni kupować gadżety elektroniczne, a osoby zamyślone czy rozmarzone książki. Psycholodzy, socjolodzy  wiedzą lepiej jak połączyć emocje z zachowaniami konsumenckimi. Mają w tym zresztą dość sporą praktykę. Niektóre produkty kupujemy chętniej gdy muzyka w sklepie jest spokojna, inne, gdy jest rytmiczna. W wielu rozpylane są zapachy, których świadomie nie czujemy. Nie tylko sklepach, ale także biurach, fabrykach czy miejscach publicznych. Dużą praktykę mają w tym Japończycy. Wszystko po to, by projektować nasze zachowania. Na prawdę myślisz, że jesteś panem samego siebie i że świadomie podejmujesz decyzje? Jeżeli tak myślisz, mylisz się bardzo.

W pismach dla facetów reklamuje się inne produkty, niż w gazetach dla młodych matek. To logiczne. Wraz z rozwojem systemów rozpoznających emocje i intencje, targetowanie przekazu reklamowego wejdzie na zupełnie nowy poziom. Pozostaje do rozwiązania jeszcze jedna kwestia. Jak komunikować się z potencjalnym klientem? Można sobie wyobrazić tradycyjne nośniki reklamowe, które będą wyświetlały reklamy w zależności od tego kto na nie patrzy. Możliwe, ale chyba mało skuteczne. Dużo bardziej prawdopodobne jest to, że ktoś zrobi użytek z kamerek zamontowanych w komputerach, tabletach, telefonach komórkowych. Oczywiście za zgodą właścicieli. Zgodzimy się na wszystko, już tyle razy sprzedaliśmy się dla zwykłej wygody, że i na to przymkniemy oko. Już dzisiaj w wyszukiwarkach internetowych działają algorytmy, które podpowiadają treści (nie tylko reklamowe) w zależności od naszej aktywności w internecie. W przyszłości algorytmy wyszukiwania i proponowania zostaną wzbogacone o płeć, wiek i nastrój osoby, która w danym momencie korzysta z urządzenia elektronicznego.

A wracając do aplikacji służącej do „odgadywania” wieku na podstawie zdjęcia. Nie da się jednoznacznie określić wieku czy emocji na podstawie konkretnych, fizycznych cech twarzy. Łatwiej jest z określaniem płci. Po to by tego typu programy dobrze działały, muszą się tego nauczyć. Do nauki potrzebna jest jednak odpowiednia liczba przykładów. Osób, które dobrowolnie prześlą swoje zdjęcie a wynikami pochwalą się w mediach społecznościowych. Wiedza, którą zyska algorytm stojący za aplikacją warta będzie miliardy. Witajcie w klatce – króliczki doświadczalne 🙂

I jeszcze jedno. Co dzieje się ze zdjęciami, które wrzucamy do serwisu? Microsoft twierdzi, że ich nie przetrzymuje („We don’t keep the photo”) ale gdy wklikać się głębiej (w Terms of Use), wśród wielu akapitów można znaleźć stwierdzenia, które temu przeczą.

Microsoft does not claim ownership of any materials you provide to Microsoft (…). However, by posting, uploading, inputting, (…) your Submission, you are granting Microsoft, its affiliated companies, and necessary sublicensees permission to use your Submission in connection with the operation of their Internet businesses.

Co w wolnym tłumaczeniu znaczy:

Microsoft nie rości sobie praw własności jakichkolwiek materiałów (…). Jednak zamieszczając, przesyłając, wprowadzając (…) materiały, użytkownik przekazuje firmie Microsoft oraz jej spółkom zależnym i licencjobiorcom prawo do korzystania z tych materiałów w związku z działalnością tych firm.

Dalej przepisy precyzują, że firma ma prawo bez ograniczeń kopiować, rozpowszechniać, przekazywać, odtwarzać, publicznie wykonywać, powielać, edytować, tłumaczyć przekazane jej materiały. A jako, że firma nie rości sobie praw do materiałów, zrobi to podpisując nazwiskiem właściciela.

Podsumowując. Zabawa która polega na odgadywaniu wieku osób na zdjęciach służy temu, by gigant informatyczny nauczył się skutecznego radzenia sobie z tym, z czym matematyka (algorytmy informatyczne) radzą sobie kiepsko. Dzięki wrzucaniu prywatnych zdjęć dajemy firmie możliwość stworzenia unikalnej bazy z której w przyszłości, przy tworzeniu profesjonalnych narzędzi będzie mogła korzystać. I grubo na tym zarabiać. A jeżeli chodzi o zdjęcia… cóż. Niby są twoje. Niby.

1 komentarz do Zabawa w określanie wieku

Komputer na światło

Wyobraź sobie komputery miliardy razy szybsze od tych, które dzisiaj mamy do dyspozycji. Po co nam takie urządzenia? Na razie jeszcze nie wiem, ale jestem pewien, że jak tylko je stworzymy, zastosowania sypną się jak z rękawa.

Wyobraź sobie komputery miliardy razy szybsze od tych, które dzisiaj mamy do dyspozycji. Po co nam takie urządzenia? Na razie jeszcze nie wiem, ale jestem pewien, że jak tylko je stworzymy, zastosowania sypną się jak z rękawa.

Skąd ta pewność? Tego uczy nas historia. Także ta najnowsza. W 1946 roku Thomas Watson, prezes koncernu IBM, firmy, która właśnie skonstruowała pierwszy komputer, stwierdził publicznie, że tego typu maszyny nigdy nie będą powszechne. W dość długim przemówieniu powiedział także, że jego zdaniem w przyszłości świat nie będzie potrzebował więcej niż 5 maszyn cyfrowych. No tak, przecież gry były planszowe, o internecie nikt nie słyszał, a dokumenty można przecież pisać na maszynie do pisania. Tymczasem dzisiaj mocna pozycja firmy IBM została zbudowana właśnie na produkcji ogólnie dostępnych i powszechnych maszyn cyfrowych. I jeszcze jeden przykład. W połowie lat 90. XX wieku (czyli zaledwie 20 lat temu) guru technologii cyfrowej, założyciel i szef Microsoftu Bill Gates stwierdził, że internet to mało użyteczna zabawka. Faktycznie, wtedy był on czymś takim. Faktycznie, listy można było wysłać pocztą albo faksem. Zawsze to samo. Cywilizacja rozwija się dzięki wizjonerom spełniającym swoje marzenia. Dzięki ludziom, którzy nie zawsze potrafią odpowiedzieć na pytania „po co?” albo „do czego nam się to przyda?”. Historia uczy jednak, że każde odkrycie, każda rewolucja błyskawicznie zostają zagospodarowane. I stąd pewność, że komputery kwantowe, bo o nich mowa, będą urządzeniami, bez których ludzie nie będą sobie wyobrażali życia.

Światłem hurtowo

Pomysł, by wykorzystać kwanty (np. pojedyncze cząstki światła) jako nośnik informacji, jako „medium” do prowadzenia obliczeń, ma około 40 lat. Jak to często bywa, w takich sytuacjach dość trudno wskazać pierwszego pomysłodawcę, ale nie ma wątpliwości, że jednym z pierwszych był znany fizyk Richard Feynman. No i potoczyło się. Na kilku uniwersytetach grupy naukowców rozpoczęły teoretyczne obliczenia. Jedna z takich grup, związana z uniwersytetem oksfordzkim, stworzyła protokoły kwantowe. Współpracował z nią też Polak, Artur Ekert. Po około 10 latach od rzucenia pomysłu, czyli w połowie lat 90. XX wieku, powstały pierwsze podstawowe elementy konstrukcji komputera kwantowego, czyli bramki, które przetwarzały kubity. Co to takiego? To cząstki elementarne, fotony lub elektrony, których różne stany w pewnym sensie są nośnikami informacji. Tylko dlaczego komputer zbudowany „na kwantach” ma być szybszy od tradycyjnego? Sprawa, wbrew pozorom, nie jest aż tak bardzo skomplikowana. Podstawą jest przeniesienie się do zupełnie innego świata. Świata, w którym nic nie jest takie jak w naszym świecie. Mam tutaj na myśli świat kwantów, same podstawy budowy naszej materii. Zjawiska, które tam występują, są dla nas fascynujące, bo wokół nas ich nie zauważamy. Więcej, one są nielogiczne, przeczące intuicji i zdrowemu rozsądkowi.

Jedną z dziedzin badających ten świat jest optyka kwantowa. Tak jak „zwykła” optyka, czyli ta, której uczymy się w szkole na lekcjach przyrody czy fizyki, tak samo i ta kwantowa zajmuje się światłem. Różnica polega na tym, że optyka kwantowa bada pojedyncze cząstki światła, czyli kwanty albo ich niewielkie grupy (pary, trójki…), podczas gdy „optyka szkolna” zajmuje się światłem bardziej „hurtowo”. Bada je jako zbiór ogromnej ilości kwantów. Właśnie w tych ogromnych ilościach fotonów (czyli w wiązkach czy promieniach światła) gubią się te zjawiska, które w przypadku pojedynczych cząstek występują. O co konkretnie chodzi? Na przykład o zjawisko superpozycji. – To zjawisko nie występuje w świecie klasycznym i bardzo trudno w ogóle znaleźć do niego zrozumiałą analogię – mówi „Gościowi” Radosław Chrapkiewicz, doktorant Wydziału Fizyki Uniwersytetu Warszawskiego.

I w lewo, i w prawo

Superpozycja. O co chodzi? – Definicja mówi, że to istnienie dwóch pozornie wykluczających się stanów cząstki – mówi Chrapkiewicz. I od razu dodaje, że superpozycja w naszym świecie nie występuje, ale gdyby występowała, strzałka skierowana w prawo równocześnie byłaby skierowana także w lewo, a prawy but byłby równocześnie lewym. – W świecie, który nas otacza, strzałka jest skierowana albo w jedną, albo w drugą stronę, a jeden but może być albo prawy, albo lewy. Ale w świecie kwantów jest inaczej. Jedna cząstka może istnieć w stanach, które się wzajemnie wykluczają. Tylko co to ma wspólnego z komputerami kwantowymi? W klasycznym komputerze, takim, jaki stoi w niemal każdym domu, takim, na jakim piszę ten artykuł, wszelkie obliczenia robi się na zerach i jedynkach. Maleńkie elementy elektroniczne mogą przyjmować albo wartość „0”, albo „1”. – W komputerze kwantowym w pewnym sensie zera i jedynki istnieją równocześnie, a to oznacza, że możemy wykonywać równocześnie wiele obliczeń naraz – mówi Radosław Chrapkiewicz. Muszę mieć niewyraźną minę, bo Radek tłumaczy dalej. – Jeden klasyczny bit to jest zero lub jedynka, jeden kwantowy bit, czyli kubit, to jakiś stan równoczesnego istnienia zera i jedynki. W tym samym momencie zamiast jednej wartości mamy dwie współistniejące. Jeżeli weźmiemy dwa kubity, mamy jednoczesne współistnienie czterech wartości, bo tyle jest możliwych kombinacji zer i jedynek. A jeżeli zbuduję komputer dziesięciokubitowy, różnych możliwości jest 2 do 10 potęgi, czyli 1024, podczas gdy w klasycznym komputerze dziesięciobitowym jest tylko 10 możliwości – tłumaczy Radosław Chrapkiewicz. I dodaje: – Liczba operacji możliwych do wykonania równocześnie rośnie bardzo szybko wraz ze wzrostem liczby kubitów. Komputery skonstruowane w ten sposób działałyby nieporównywalnie szybciej, bo wiele operacji mogłyby wykonywać równocześnie. Dzisiejsze komputery nie potrafią robić kilku operacji naraz – kończy Chrapkiewicz.

Zasada działania komputera kwantowego nie wydaje się skomplikowana. Ale jak jest z jej realizacją? No i tutaj pojawia się problem. Dzisiaj nie ma jeszcze układów, które z czystym sumieniem można byłoby nazwać wielokubitowymi. Co prawda na początku lutego 2007 roku firma D-Wave Systems zaprezentowała 128-kubitowy komputer, ale istnieją uzasadnione wątpliwości, czy to rzeczywiście jest „pełnowartościowy” komputer kwantowy, czy tylko urządzenie, które wykorzystuje pewne zjawiska kwantowe. Być może różnica pomiędzy tymi dwoma przypadkami jest subtelna, ale specjaliści ją zauważają. Ale nawet w przypadku komputera, który nie jest przez wszystkich zaliczany do maszyn kwantowych, liczby mogą robić wrażenie. Jedna z grup badaczy twierdzi, że stworzyła czip, który może dokonywać ponad 10^38 obliczeń naraz. Zwykłemu, klasycznemu komputerowi zajęłoby to kilka milionów lat.

To takie logiczne

No i powstaje pytanie kluczowe. Po co nam tak szybkie komputery? Kilka zastosowań przychodzi do głowy od razu. Zastosowania wojskowe, a właściwie wywiadowcze. Dzisiejsze komputery nie radzą sobie z ogromną ilością danych, które nadsyłają urządzenia podsłuchowe. Ludzie odpowiedzialni w strukturach państwa za bezpieczeństwo (własnych obywateli) nie lubią sytuacji, gdy mają dane, ale nie są ich gdy przeanalizować, bo jest ich za dużo. Niewiele instytucji ma fundusze na to, by inwestować w takie dziedziny nauki jak optyka kwantowa. Nieliczne są instytucje związane z wojskiem czy wywiadem. Amerykańska Agencja Bezpieczeństwa Narodowego, która zajmuje się tym drugim, w komputery kwantowe inwestuje duże pieniądze. Zresztą podobnie było z komputerami, których dzisiaj używamy. Ich rozwój związany był z Projektem Manhattan – budowy pierwszej bomby jądrowej. – Ta analogia jest bardzo dobra. Moim zdaniem komputery kwantowe dzisiaj są na takim etapie rozwoju technologicznego, jak w latach 40. XX wieku były komputery klasyczne – mówi Radosław Chrapkiewicz. I dodaje, że nie sposób dzisiaj powiedzieć, kiedy przyjdzie przełom.

Choć sam zajmuje się optyką kwantową, nie jest w stanie wyobrazić sobie komputerów kwantowych w każdym domu czy w zminiaturyzowanej wersji zastosowanych w jakichś urządzeniach mobilnych, takich jak np. dzisiejsze smartfony. Nie tylko zresztą on. Przegląd specjalistycznych stron internetowych pokazuje, że gdy mowa o wykorzystaniu komputerów kwantowych, najczęściej pojawiają się stwierdzenia o analizie dużej ilości danych, w tym danych naukowych i o skomplikowanych modelach matematycznych, dotyczących np. pogody czy na przykład projektowania leków. Nic dla ludzi? Cóż, leki są jak najbardziej dla ludzi, ale faktycznie brakuje nam chyba wyobraźni, by dzisiaj znaleźć zastosowanie dla maszyn o tak ogromnej mocy obliczeniowej. Spokojnie, gdy pojawią się takie komputery, pojawią się i zastosowania. A wtedy będziemy nieskończenie zdziwieni, że wcześniej tych zastosowań nie potrafiliśmy zauważyć. Przecież one są takie… logiczne.

komputer kwantowy

 

>>> Na zdjęciu układ skonstruowany przez firmę D-Wave Systems, zawierający 128 kubitów.

 

Tekst ukazał się w tygodniku Gość Niedzielny

6 komentarzy do Komputer na światło

Telepatia działa…

…przez internet. Przeprowadzono eksperyment, w ramach którego udało się skomunikować ze sobą dwa oddalone od siebie mózgi. W efekcie jeden człowiek zrobił coś, co pomyślał drugi.

…przez internet. Przeprowadzono eksperyment, w ramach którego udało się skomunikować ze sobą dwa oddalone od siebie mózgi. W efekcie jeden człowiek zrobił coś, co pomyślał drugi.

Nieinwazyjny interfejs mózg–mózg jest czymś, co budzi równie dużo obaw, co nadziei i fascynacji. Odkrycie czy raczej eksperyment był dość naturalną konsekwencją prac, które prowadzi się od lat i które polegają na „sprzęgnięciu” ze sobą mózgu i komputera. Interfejsy mózg–komputer działają dzięki odczytowi, a następnie skomplikowanej interpretacji sygnałów elektrycznych, które generuje ludzki mózg. Te sygnały mogą być odczytywane wprost z mózgu, ale także (co czyni całą sprawę jeszcze bardziej skomplikowaną) na powierzchni skóry głowy. Zresztą te same sygnały są analizowane w znanej lekarzom od lat metodzie EEG. Interfejs mózg–komputer jest kolejnym krokiem. Sygnały są nie tylko rejestrowane, ale przypisywane jest im pewne znaczenie. I tak np. osoba niepełnosprawna myśląc, jest w stanie kierować wózkiem inwalidzkim. Albo ktoś całkowicie sparaliżowany jest w stanie komunikować się z otoczeniem poprzez koncentrację, wyobrażanie sobie np. liter, które następnie pojawiają się na ekranie komputera (opisuję to w skrócie, bo w rzeczywistości proces jest bardziej złożony).

Jak mózg z komputerem

Wspomniane techniki nie są przeznaczone oczywiście tylko dla ludzi chorych. Już dziś można kupić urządzenie przypominające kask, które zakłada się na głowę, co pozwala za pomocą myśli sterować postaciami w grze komputerowej. Być może w przyszłości komunikacja ludzi z urządzeniami elektronicznymi w całości będzie się opierała na falach mózgowych. Dzisiaj w komputerze czy telefonie niezbędna jest klawiatura, myszka czy dotykowy ekran. Inaczej nie wprowadzimy do urządzenia informacji, bez tego nie wyegzekwujemy żadnego działania. Przyszłości nie da się przewidzieć, ale nie znaczy to, że nie można zostać futurologiem. Sytuacja, w której myślami będę „współpracował” z komputerem, wydaje mi się fascynująca. Ale to oczywiście nie koniec drogi, tylko być może dopiero jej początek. No bo skoro da się skomunikować pracę mózgu i komputera, dlaczego nie spróbować komunikacji pomiędzy dwoma mózgami? Naukowcy z amerykańskiego Uniwersytetu Waszyngtona stworzyli taki interfejs. Informacja pomiędzy dwoma mózgami została przesłana siecią internetową.

Pisząc „informacja”, nie mam jednak na myśli konkretnej wiedzy przekazywanej pomiędzy mózgami, tylko raczej impuls do zrobienia czegoś. Eksperyment wykonało dwóch uczonych, którzy tematem zajmowali się od wielu lat. Jeden to Andrea Stocco, drugi Rajesh Rao. W sierpniu tego roku ci dwaj panowie usiedli wygodnie w fotelach w dwóch różnych punktach kampusu uniwersyteckiego i zrobili coś, co będzie opisywane kiedyś w podręcznikach. Rao założył na głowę czepek z elektrodami rejestrującymi fale mózgowe. Z kolei Stocco założył czepek z elektrodami do tzw. przezczaszkowej stymulacji magnetycznej. W pewnym sensie te urządzenia są swoją przeciwnością. Jedno fale mózgowe rejestruje, a drugie raczej je w mózgu generuje. Rao nie myślał o niczym specjalnym, po prostu grał w grę komputerową, z tym, że nie przez klawiaturę czy inne urządzenie peryferyjne, tylko używał do tego własnych myśli. Gdy jego zadaniem było trafienie w cel znajdujący się z prawej strony ekranu komputera, wyobrażał sobie, że porusza prawą ręką i trafia w ten punkt. Tymczasem niemal dokładnie w tej samej chwili jego kolega Stocco, kilkaset metrów dalej, rzeczywiście poruszył prawą ręką.

Mimowolny tik

Stocco miał na uszach słuchawki (po to, by nie było podejrzeń, że ktoś mu podpowiada) i słuchał muzyki. Nie patrzył też na ekran komputera. Był zrelaksowany, odpoczywał, a w pewnym momencie poruszył palcem ręki. Nie do końca potrafił powiedzieć, dlaczego to zrobił. Tłumaczył, że jego ruch „przypominał mimowolny tik”. Ten eksperyment oznacza, że po raz pierwszy udało się przekazać informację pomiędzy dwoma mózgami. Na razie ten przepływ jest jednokierunkowy, ale wiadomo, że kolejnym krokiem będzie dwukierunkowość. Co ciekawe, w tym eksperymencie w zasadzie nie używa się niczego, co dotychczas nie było znane. Zarówno EEG, jak i stymulację magnetyczną lekarze stosują od wielu lat. Przełom polega na tym, że badaczom udało się, wykorzystując znane narzędzia, uzyskać zupełnie nową jakość. Badacze jak zwykle studzą emocje.

Eksperyment powiódł się dlatego, że ośrodek odpowiedzialny za motorykę nie jest usytuowany we wnętrzu mózgu, tylko na jego powierzchni. W innym wypadku nie udałoby się go pobudzić bezinwazyjnie z zewnątrz. Nie ma żadnych szans – jak twierdzą – na to, by obecna metoda była wykorzystywana do wpływania na myśli drugiego człowieka. Badacze kategorycznie stwierdzili również, że nie ma także możliwości sterowania drugim człowiekiem bez jego woli. Na co w takim razie są szanse? Dość trudno na tym etapie powiedzieć, ale niemal od razu narzuca się pomoc osobom niepełnosprawnym w komunikacji ze światem zewnętrznym. Być może uda się stworzyć urządzenia pomagające ludziom w kontrolowaniu bardzo skomplikowanych urządzeń, takich, jakimi są np. samoloty.

Dwóch pilotów mogłoby być w jakiś sposób połączonych ze sobą, tak, że działaliby jako jeden organizm, a nie dwa oddzielne. Z drugiej strony piloci przez wielogodzinne szkolenia, nawet bez nowej technologii, potrafią doskonale ze sobą współpracować. Jest jeszcze coś. A może ta technologia przyda się w porozumiewaniu pomiędzy osobami, które mówią w różnych językach? Fale mózgowe są przecież uniwersalne i nie zależą od wieku, kultury i pochodzenia. Tym bardziej że nikt nie powiedział, że w takiej komunikacji mogą uczestniczyć tylko dwie osoby.

Tekst ukazał się w tygodniku Gość Niedzielny

2 komentarze do Telepatia działa…

Konkurs o mózgu

Książka z imienną dedykacją, koszulka i parasol. Tym razem takie nagrody przygotowałem w cotygodniowym konkursie. A sam konkurs dotyczy mózgu.

Konkurs dotyczy trzeciego odcinka serii Megaodkrycia, emitowanego na kanale National Geographic Channel w niedzielę o godzinie 22:00.

W „Rozszyfrować mózg” zobaczycie opowieść o tym, w którą stronę zmierzają najnowsze badania naukowe dotyczące ludzkiego umysłu.

A teraz pytanie:

>>> Czy Waszym zdaniem nauka doprowadzi do tego, że maszyny będą zdolne myśleć abstrakcyjnie tak jak ludzie? Czy będzie to szansa, czy raczej zagrożenie?

Odpowiedzi wpisujcie proszę w komentarzach pod tym tekstem. Najlepsza odpowiedź zostanie nagrodzona moją najnowszą książką „Człowiek”. Jeżeli takie będzie życzenie wygranego, chętnie napiszę imienną dedykację. Dwie kolejne nagrody to koszulka i parasol z nadrukiem National Geographic Channel.

nagroda_Fotor_Fotor_Collage

 Regulamin konkursu:  http://naukatolubie.pl/regulamin-konkursu/

6 komentarzy do Konkurs o mózgu

Type on the field below and hit Enter/Return to search