Wyrusz w podróż do świata wiedzy

Amorficzne leki

Co zrobić, aby podawane pacjentom leki były skuteczniejsze? Żeby medykamenty szybciej i lepiej oddziaływały na organizm, likwidowały przyczyny i objawy chorób? Z tym zagadnieniem mierzą się badacze z Zakładu Biofizyki i Fizyki Molekularnej Uniwersytetu Śląskiego w Katowicach.

amorficzne leki 1Najnowsze doniesienia naukowe wskazują, że blisko 40% leków obecnie dostępnych na rynku charakteryzuje się słabą rozpuszczalnością w wodzie, która z kolei wpływa na ich niską biodostępność. Szacuje się, że z tego samego powodu prawie 80% nowych, dobrze rokujących kandydatów na substancje lecznicze zostanie odrzuconych podczas procesu badawczo-rozwojowego. Aby poprawić te statystyki i produkować efektywniej działające farmaceutyki, czyli takie, które charakteryzują się wyższą biodostępnością, należy polepszyć ich rozpuszczalność w wodzie. Jedną z metod prowadzącą do poprawy rozpuszczalności niemal nierozpuszczalnych w wodzie krystalicznych substancji leczniczych jest ich amorfizacja.

Magister Justyna Knapik wyjaśnia nam, że proces amorfizacji polega na wytworzeniu takiej substancji, której budowa wewnętrzna nie posiada uporządkowania charakterystycznego dla materiału krystalicznego. Ten brak uporządkowania sprawia, że substancja amorficzna charakteryzuje się wyższą energią swobodną Gibbsa niż jej krystaliczny odpowiednik, co bezpośrednio wpływa na jej lepszą rozpuszczalność, a tym samym znacznie wyższą biodostępność. To właśnie takie farmaceutyki są na co dzień badane i tworzone w Zakładzie Biofizyki i Fizyki Molekularnej, w grupie badawczej prof. zw. dr hab. Mariana Palucha.

amorficzne leki 2W przypadku farmaceutyków nieposiadających daleko zasięgowego uporządkowania lepszą rozpuszczalność osiąga się kosztem obniżenia jego fizycznej stabilności. Nadmiar energii powoduje, że amorficzna substancja jest termodynamicznie niestabilna. Amorficzny materiał, dążąc do oddania nadmiaru energii i osiągnięcia najniższego stanu energetycznego, prędzej czy później powraca do swojej krystalicznej formy, tracąc jednocześnie korzystne własności wynikające z nieuporządkowania.

Ograniczona fizyczna stabilność leków w stanie amorficznym jest obecnie jedyną przyczyną braku ich powszechności na rynku. Grupa badawcza Profesora Mariana Palucha badając dynamikę molekularną amorficznych farmaceutyków jest w stanie ocenić jak długo dany lek będzie fizycznie stabilny w formie amorficznej. Jeśli wspomniany czas fizycznej stabilności jest niewystarczająco długi, aby wprowadzić taki farmaceutyk na rynek, dokładają wszelkich starań, aby ustabilizować dany lek.

Badania te prowadzone są w laboratoriach Śląskiego Międzyuczelnianego Centrum Edukacji i Badań Interdyscyplinarnych w Chorzowie, gdzie mieszczą się pracownie Instytutu Fizyki im. Augusta Chełkowskiego.

Fizyka powierzchni

Fizyka wyjaśnia zasady funkcjonowania świata i odkrywa nowe sposoby takich rekonfiguracji jego elementów, że znacząco wpływa to na rozwój technologii, a w konsekwencji na progres cywilizacyjny. Dzięki fizyce możemy opisywać cały wszechświat – od elektronów po galaktyki.

Nie każdą płaszczyznę fizykalnej rzeczywistości da się opisać za pomocą tego samego paradygmatu. Świat, który obserwujemy wokół nas, funkcjonuje według zasad klasycznej mechaniki, ogłoszonych przez Isaaca Newtona pod koniec XVII wieku (angielski uczony sformułował też prawo powszechnego ciążenia – po słynnym wypadku ze spadającym z drzewa jabłkiem). Zasady tej mechaniki dotyczą ruchów ciał, które – ujmijmy to umownie – podlegają naszej percepcji bez żadnych wspomagających jej aparatów (mikroskopów czy teleskopów) – a więc od przedmiotów nas otaczających po planety krążące wokół słońca. Mechanika klasyczna opisuje ruch ciał, ich oddziaływanie oraz równowagę – kinematykę, dynamikę oraz statykę.

Wszystko, co dotyczy układów większych – a zatem galaktyk, czarnych dziur, całego wszechświata – opisuje się za pomocą ogólnej teorii względności, sformułowanej przez niemieckiego fizyka Alberta Einsteina na początku XX wieku. Głosi ona – w dużym uproszczeniu – że stałych fizycznych nie można określić bez układu odniesienia, czyli punktu w czasoprzestrzeni (czasoprzestrzeń, opisana przez Hermanna Minkowskiego, to połączenie trójwymiarowej przestrzeni z czasem). Innymi słowy: stałe fizyczne zależne są od otoczenia, w jakim się je mierzy; w takim rozumieniu grawitacja jest skutkiem zakrzywienia czasoprzestrzeni przez bliską obecność dużej masy.

Wszystko, co dotyczy układów najmniejszych opisuje fizyka kwantowa. Układy nanometryczne – atomy i cząsteczki – mierzone są za pomocą iloczynu 10-9 albo 10-10; na przykład: nanometr to metr pomnożony razy 0,000 000 001 (czyli razy jedna miliardowa) a angstrem to jedna dziesięciomilardowa. Największy wkład w sformułowanie praw opisu świata mikroskopowego mieli Werner Heisenberg, Erwin Schrödinger, Max Born, Paul Dirac, Albert Einstein i Niels Bohr. Fizyka kwantowa opisuje między innymi zjawisko interferencji światła, szczegóły budowy atomowej, podstawy fizyki jądrowej.

Prof. dr hab. Jacek Szade z Zakładu Fizyki Ciała Stałego Uniwersytetu Śląskiego w Katowicach zajmuje się właśnie tymi najmniejszymi cząstkami. Kiedy w latach osiemdziesiątych XX wieku badał związki międzymetaliczne ziem rzadkich, zespół, w którym pracował, skonstruował unikalną podówczas aparaturę do hodowli monokryształów metodą Czochralskiego z lewitującej próbki. Monokryształy to fragmenty ciała stałego, charakteryzujące się wysokim stopniem uporządkowania atomowego, czyli stałą, regularną strukturą.

czochralskiPotrzebna nam będzie krótka dygresja. Jan Czochralski (1885-1953) był polskim chemikiem, który wynalazł metodę otrzymywania monokryształów krzemu (a także innych metali i półmetali). Metoda – od nazwiska badacza zwana metodą Czochralskiego – opisana po raz pierwszy już w 1916 roku, jest do dziś najbardziej popularną metodą uzyskiwania monokryształów, a jej wynalazca jest najczęściej cytowanym polskim uczonym na świecie. Czochralski, urodzony w zaborze pruskim, wiele lat spędził w Niemczech – do Polski przyjechał dopiero w latach dwudziestych XIX wieku. Jego wynalazek jest ogromnie ważny, bowiem bez monokryształów krzemu nie powstałaby nowoczesna technologia – tego materiału używa się do produkcji procesorów i innych układów elektronicznych (będących niezbędną częścią każdego komputera, od tych największych, przez PC, po smartphone). W roku 1954 amerykańscy uczeni skonstruowali pierwszy procesor oparty na monokrysztale krzemu. Dziś jest na świecie kilka ośrodków, które zajmują się ich hodowlą, a jednym z nich jest Instytut Technologii Materiałów Elektronicznych w Warszawie.

Jak hoduje się monokryształy? Najpierw topi się krzem w bardzo wysokiej temperaturze, metodą indukcyjną (wykorzystywaną dziś także w kuchniach, których używamy w naszych domach do gotowania potraw), w odpowiednim naczyniu (tyglu). W rozgrzanej cieczy zanurza się igłę, którą następnie powoli wyjmuje się ponad powierzchnię rozgrzanego krzemu. Na zarodku, wskutek krzepnięcia (przechodzenia ciała ze stanu ciekłego w stan stały), powstaje kryształ – atomy zastygają w regularnej, uporządkowanej strukturze.

Dziś profesor Szade zajmuje się czymś nieco innym – hodowaniem i badaniem ultra-cienkich warstw, o grubości jednego lub kilku atomów. Uzyskuje się je metodą MBE (Molecular Beam Epitaxy), służącą właśnie uporządkowaniu atomów (epitaksji). Materiał podgrzewa się, a następnie odparowuje w warunkach ultra-wysokiej próżni, UHV (Ultra High Vacuum). Osadza się on następnie na odpowiednim, wcześniej przygotowanym podłożu w procesie resublimacji, a więc przejścia od gazu do ciała stałego (podobnie zimową porą, tworzy się szadź, czyli osad lodu). Powstałe w ten sposób ciało stałe – drobna warstwa – ma grubość jednego, lub kilku atomów. Innymi słowy: budowa wewnętrzna materiału zmienia się w efekcie zmian stanów skupienia tego materiału.

Ultra-cienkie warstwy mogą pełnić funkcję izolatora topologicznego, który „z zewnątrz” jest metalem, „wewnątrz” – izolatorem lub półprzewodnikiem. Wynika to z jego natury, opisywalnej za pomocą fizyki kwantowej. W taki sposób eksperymenty i badania pozwalają odkryć nowe właściwości otaczającej nas, fizykalnej rzeczywistości.

Miniaturyzacja procesorów opartych na monokryształach krzemu dociera powoli do kresu swoich możliwości – coraz wolniej powstają coraz szybsze procesory (zobacz artykuł: Gra w fizykę). Użycie topograficznych izolatorów pozwoli być może na przełamanie tego impasu. Podobne nadzieje pokłada się w grafenie, czyli płaskiej, jednoatomowej strukturze węgla, wykazującej bardzo ciekawe właściwości (to znakomity przewodnik, odporny na rozciąganie).

1Zespół profesora Jacka Szade zajmuje się także charakterystyką cienkich warstw. W klastrze, który wytwarza próżnię, transportuje się badane warstwy do mikroskopu (transportowanie ich w powietrzu doprowadziłoby do zabrudzenia). Następnie mikroskopy bliskiego oddziaływania pozwalają na badanie powierzchni ciała stałego lub cieczy (to bardzo przydatne w biologii, przy badaniu komórek), na przykład za pomocą igły, przez którą przepuszcza się prąd. W ten sposób „ogląda” się atomy i inne obiekty nanometryczne. Za pomocą tych metod bada się dziesiątki materiałów – nowe stale, materiały ceramiczne, biologiczne, a nawet – we współpracy z paleobiologami – kości gadów sprzed 240 milionów lat. Taki sprzęt znajduje się w Śląskim Międzyuczelnianym Centrum Edukacji i Badań Interdyscyplinarnych w Chorzowie, a studenci Wydziału Matematyki, Fizyki i Chemii Uniwersytetu Śląskiego w Katowicach mogą z niego korzystać w trakcie studiów oraz pracy badawczej.

Cienkie warstwy mają zadziwiające, zupełnie inne niż ciała stałe właściwości, a niektóre z nich – jak związek europu i manganu, odkryty i opisany w grupie profesora Szade – istnieje tylko w takiej właśnie formie. Trudno dziś przewidzieć, jaki wpływ na rozwój technologii będzie miała fizyka powierzchni. Nawet najbardziej utytułowani na świecie naukowcy są ostrożni w wygłaszaniu jednoznacznych sądów. Z drugiej strony – kolejne badania otwierają nowe możliwości, prowadzące do wniosków, które pozwalają na następne poszukiwania.

Partnerstwo-Informatyka-Nanofizyka, część 2

Aby utrzymywać wysoki poziom jakości kształcenia, należy nieustannie dbać o jego aktualność względem szybko zmieniającego się świata, w którym dziś funkcjonuje człowiek. Dotyczy to zwłaszcza kierunków takich jak fizyka czy informatyka – odkrycia naukowców oraz innowacje technologiczne, przyrastające w zawrotnym tempie, powodują konieczność modyfikacji programów studiów, a także prowadzenia współpracy międzynarodowej z innymi ośrodkami. Projekt PIN, PWP „Partnerstwo-Informatyka-Nanofizyka”, zainicjowany przez Uniwersytet Śląski w Katowicach i prowadzony wraz z Université du Mans we francuskim Le Mans opiera się na czterech filarach.

Trzecim filarem projektu PIN jest stworzenie specjalistycznych, interdyscyplinarnych studiów III stopnia – „Nanofizyka i modelowanie w układach nano”. Doktoranci będą studiowali w języku angielskim na obu uczelniach – Śląskim Międzyuczelnianym Centrum Edukacji i Badań Interdyscyplinarnych w Chorzowie oraz na Université du Mans w Le Mans. Ich dysertacja – pisana także po angielsku, pod opieką dwóch promotorów, oraz zrecenzowana przez powołanych ekspertów z Polski i Francji – da im tytuł doktora (PhD) obu uniwersytetów. Doktoranci zajmą się badaniem zjawisk występujących w układach o rozmiarach nanometrycznych (na poziomie pojedynczych atomów i cząsteczek) oraz modelowaniem tych zjawisk.

W trakcie studiów odbywać się będą wykłady, prowadzone przez specjalistów z obu krajów. Dzięki wymianie młodzi naukowcy zyskują wzajemny dostęp do laboratoriów partnerów i ich zaplecza badawczego. Staże w firmach nanotechnologicznych pomogą im z kolei zapoznać się ze sposobami implementacji wiedzy. Nanotechnologia jest obecnie jedną z najważniejszych dziedzin nauki oraz polem ważnych i obiecujących innowacji technicznych.

Czwartym – i ostatnim – filarem PINu jest działanie Biura Integracji Zawodowej. To projekt mający na celu przygotowanie studenta do wejścia na rynek pracy już w trakcie jego nauki. Polega on na współpracy z przyszłym pracodawcą, zwłaszcza w zakresie organizowania systemu staży (to aż czterdzieści sześć trzymiesięcznych pakietów), ich monitowania oraz wspierania.

Chodzi także o zacieśnianie więzi z przedsiębiorcami, na przykład poprzez konsultacje w sprawie konstruowania programów nauczania. Taka współpraca jest niezbędna, jeśli dydaktyka ma być przystosowana do realiów – nie tylko na rynku pracy, ale także w kontekście rozwoju regionu. Toteż niezwykle istotna jest współpraca ze Śląskim Klastrem Nano, a więc platformą zrzeszającą przedsiębiorców, instytucje naukowe oraz organy administracji publicznej, powołanej dla rozwoju nanotechnologii na Śląsku i jej udziału w gospodarce regionu. Dzięki takiej współpracy wyniki badań mogą być wdrażane w przemyśle i gospodarce, a także patentowane i komercjalizowane – z korzyścią nie tylko dla biznesu, ale i dla rozwoju cywilizacyjnego. Tak rozumiana nauka ma zatem realny wpływ na otoczenie.

Program PIN, PWP „Partnerstwo-Informatyka-Nanofizyka”, powstał dzięki inicjatywie pracowników naukowo-dydaktycznych Wydziału Matematyki, Fizyki i Chemii Uniwersytetu Śląskiego w Katowicach m. in. prof. zw. dr hab. Alicji Ratusznej, prof. dr hab. Jacka Szade, dr hab. Marcina Kostura oraz koordynatorki projektu, pani Magdaleny Hampel, kierowniczki Biura ds. Rozwoju w Śląskim Międzyuczelnianym Centrum Edukacji i Badań Interdyscyplinarnych w Chorzowie. Sukces projektu PWP „Partnerstwo – Informatyka – Nanofizyka” jest efektem współpracy kilku podmiotów, przede wszystkim Université du Mans w Le Mans i Śląskiego Międzyuczelnianego Centrum Edukacji i Badań Interdyscyplinarnych w Chorzowie, a także programów takich jak Erasmus+ na lata 2014-2020 i Projekt iCSE, realizowanego we współpracy z Uniwersytetem w Oslo. PIN jest finansowany z środków Unii Europejskiej: Europejskiego Funduszu Społecznego i program „Infrastruktura i środowisko”.

„Partnerstwo-Informatyka-Nanofizyka” nie jest jedynym takim projektem realizowanym w SMCEBI. Warto wspomnieć także o programie PAS („Partnerstwo – Aktywizacja – Staże”). Jest on skierowany do studentów studiów stacjonarnych i polega na odbyciu trzymiesięcznych stażów krajowych (sto czterdzieści osób) lub miesięcznych stażów zagranicznych (dwadzieścia osób). Beneficjenci programu wyjeżdżali do najodleglejszych zakątków świata – Grecji, Niemiec, Włoch, Izraela. Co najmniej kilkanaście osób znalazło w ten sposób pracę w firmach, w których odbywali staże. Projekt PAS umożliwia młodym ludziom poznanie specyfiki danego zawodu, zbieranie doświadczeń, a przede wszystkim – płynne i świadome przejście z uczelni do pracy.

Partnerstwo-Informatyka-Nanofizyka, część 1

Aby utrzymywać wysoki poziom jakości kształcenia, należy nieustannie dbać o jego aktualność względem szybko zmieniającego się świata, w którym dziś funkcjonuje człowiek. Dotyczy to zwłaszcza kierunków takich jak fizyka czy informatyka – odkrycia naukowców oraz innowacje technologiczne, przyrastające w zawrotnym tempie, powodują konieczność modyfikacji programów studiów, a także prowadzenia współpracy międzynarodowej z innymi ośrodkami. Projekt PIN, PWP „Partnerstwo-Informatyka-Nanofizyka”, zainicjowany przez Uniwersytet Śląski w Katowicach i prowadzony wraz z Université du Mans we francuskim Le Mans opiera się na czterech filarach.

pinPierwszym z nich jest modyfikacja programu studiów na studiach II stopnia na kierunku „Nanofizyka i materiały mezoskopowe”. Dzięki niej student ma okazję poszerzać swoją wiedzę na dwóch uczelniach – w Śląskim Międzyuczelnianym Centrum Edukacji i Badań Interdyscyplinarnych w Chorzowie i w Le Mans (otrzymuje dwa dyplomy), a także praktykować w Centrum Fizyki w niemieckim Jüllich. Program studiów został uzgodniony między partnerskimi uczelniami projektu, co pozwoliło na połączenie doświadczeń dwóch ośrodków dydaktycznych.

Staże, na jakie wyjeżdżają polscy studenci do Francji (francuscy odwiedzają Polskę), sprzyjają rozwojowi naukowemu, a także pozwalają na doskonalenie drugiego języka wykładowego – angielskiego (ponadto część zajęć odbywa się w systemie e-learning). Studia te mają na celu wprowadzenie młodych ludzi w świat nauki – studenci pod kierunkiem opiekunów prowadzą naukowe badania i poznają techniki badawcze nano- i mezomateriałów. Współpraca akademicka pozwala nie tylko na kształcenie studentów, ale także kooperacje naukowców.

Pierwsi absolwenci nowych studiów na kierunku „nanofizyka” prowadzą już własne badania naukowe i przygotowują prace doktorskie. W ramach projektu organizuje się także spotkania z pracodawcami, dzięki czemu studenci są lepiej zorientowani w możliwościach zawodowych. Oprócz prowadzenia badań w ośrodkach naukowych w kraju i zagranicą mogą także stać się merytorycznym zapleczem przedsiębiorstw zajmujących się nowymi technologiami. Dzięki wiedzy z zakresu matematyki i informatyki mogą także pracować w innych, czasem bardzo odległych od nauk ścisłych zawodach.

Jednym ze stażystów projektu PIN był Robert Kwapich – obecnie student IV roku na kierunku „Fizyka medyczna”. Szukając ośrodków, w których mógłby rozwijać swoje zainteresowania, trafił na Politechnikę Federalną w Lozannie (École polytechnique fédérale de Lausanne).

Szwajcarscy uczeni okazali się niezwykle gościnni – oprowadzali go po ośrodku, uczyli, polecali literaturę, otrzymał też odpowiednie komputerowe wyposażenie i dostęp do pracowni (laboratorium fizyki żywej materii). Stopniowo stawał się coraz bardziej aktywnym członkiem zespołu badawczego, brał zresztą udział w pracach nie tylko jednego projektu. Wyniki swoich badań opublikował w formie artykułu.

W trakcie stażu w Lozannie nauczył się odmiennego podejścia do problemów. Przyznaje, że przed wyjazdem odczuwał obawy, ale odważył się skorzystać z tej szansy – umożliwiły mu to fundusze z projektu PIN oraz pomoc formalna i merytoryczna ze strony Uniwersytetu Śląskiego. Wyjazd w trakcie studiowania pomógł mu zdobyć doświadczenie oraz nauczyć się samodzielności, nawiązać naukowe i towarzyskie kontakty. Rolą uczelni jest dawanie podstaw, czyli przekazanie wiedzy – reszta jest wynikiem samodzielności i kreatywności – podsumowuje Robert Kwapich.

Drugim filarem projektu PIN jest stworzenie programu studiów licencjackich „Informatyka stosowana”, na którym kształci się studentów od 2014 roku. W trakcie studiów nacisk kładzie się na kilka starannie dobranych priorytetów. Najważniejszym z nich jest nauka programowania, głównie za pomocą języka python. Python powstał w latach dziewięćdziesiątych XX wieku i dziś jest jednym z bardziej uniwersalnych i najpopularniejszych na świecie – używają go między innymi programiści z firmy Google i naukowcy z MIT (Massachusetts Institute of Technology). Charakteryzują go czytelna składania, automatyczne zarządzanie pamięcią oraz dynamiczny system typów. Następnym etapem studiowania jest opanowanie umiejętności tworzenia programów będących konstrukcjami złożonymi z różnych elementów składowych, a pozwalających na rozwiązywanie skomplikowanych zadań.

W trakcie tych trzyletnich studiów adepci informatyki uczą się – jak sama nazwa kierunku wskazuje – stosować zdobytą wiedzę: zajmują się robotyką, nowoczesną mikroelektroniką i systemami wbudowanymi, w nowoczesnych laboratoriach: pracowniach komputerowych, pracowniach elektroniki cyfrowej i analogowej (zestawy „Analog System Lab Kit PRO”, moduły MyDAQ, oprogramowanie LabVIEW), pracowni robotyki (zestawy Lego Mindstorms EV3 Education, Magician Chassis, mikrokontrolery Arduino i BeagleBone, autonomiczne roboty latające A.R. Drone), pracownia CAD & Rapid Prototyping (dwie drukarki 3D z oprogramowaniem Geomagic Design Professional), Pracownia Mikrokontrolerów i Systemów Wbudowanych (platformy Arduino UNO i Arduino Yún, zestawy Tinker Kit Lab i Raspberry Pi, Beaglebone Black oraz EZ430-Chronos).

Już niedługo uruchomiona zostanie pracownia mobilna. Będzie ona rodzajem biblioteki, ale wypożyczać z niej będzie się nie książki, a komputery – chromebooki. Dzięki sieci bezprzewodowej WIFI, centralnemu systemowi logowania (karoshi) i podpięciu indywidualnych kont pod system aplikacji edukacyjnych Google możliwe stanie się korzystanie z systemu Sage oraz Jupyter, a zatem w pełni mobilne laboratorium w chmurze. Student będzie mógł z każdego miejsca w obrębie Śląskiego Międzyuczelnianego Centrum Edukacji i Badań Interdyscyplinarnych w Chorzowie logować się do chmury i za pomocą Internetu łączyć się z potężnym serwerem dokonującym potrzebnych im obliczeń. To nowa jakość w budowaniu systemu edukacyjnego, który będzie funkcjonował przez wiele następnych lat.
„Informatyka stosowana” jest kierunkiem specjalistycznym, interdyscyplinarnym, uczy rozwiązywania problemów oraz tworzenia – na poziomie hardware’u jak i software’u. Absolwent kierunku posiada także wiedzę o systemach informatycznych oraz z obszaru nauk matematyczno-przyrodniczych (na przykład modelowania, obróbki danych, technologii pomiarowych). Absolwentów wyróżnia umiejętność innowacyjnego rozwiązywania stojących przed nimi problemów.

To studia może niełatwe, ale takie, na których poświęcony czas owocuje w przyszłości. Platformy e-learningowe, które niejako towarzyszą programowi studiów (między innymi Matler), pozwalają nie tylko rozwijać się studentom, ale także uzupełniać ewentualne braki. Ponadto do wyboru są dwie ścieżki przedmiotowe: pierwsza kładzie nacisk na programowanie (systemy czasu rzeczywistego, Android, CUDA), druga – na technologie informatyczne (bazy i hurtownie danych, ich eksploatacja i projektowanie, zapewnianie ochrony danych). Studenci tego kierunku z łatwością znajdują pracę, ich pracodawcy – wykwalifikowaną kadrę.

„Informatyka stosowana” jest kierunkiem skonstruowanym tak, jak skonstruowane jest oprogramowanie open source: polega na samodzielnym badaniu, odkrywaniu, uczeniu się – a nie kupowaniu gotowych rozwiązań.

Część druga już za tydzień!

PREVAC: śląska dolina krzemowa

Rogów jest małą wsią w województwie śląskim, leżącą niedaleko Wodzisławia. Rogów – przyznajmy to szczerze – nie jest miejscem znanym w świecie. Jest jednak coś, co wyróżnia tę wieś spośród jej podobnych. Dziewiętnaście lat temu, w roku 1996, powstała tu firma PREVAC, która jest światowym liderem w specjalizacji tyleż wąskiej, co dla uprawiania nauki niezbędnej i podstawowej. Zajmuje się konstruowaniem wysoko zaawansowanej aparatury naukowo-badawczej, na której odkrywa się nowe materiały, a w konsekwencji – tworzy nowe technologie.

Dr Andreas Glenz, założyciel firmy PREVAC, urodził się właśnie w Rogowie. Ukończył Akademię Górniczo-Hutniczą im. Stanisława Staszica w Krakowie i w latach osiemdziesiątych XX wieku wyjechał do Niemiec, gdzie najpierw podjął pracę na stanowisku technika w jednej z najlepszych firm w branży. Idąc przez wiele szczebli rozwoju, został wkrótce zaproszony na Uniwersytet w Heidelbergu, gdzie dzięki współpracy z najbardziej utytułowanymi naukowcami na świecie, w tym z laureatami nagrody Nobla, zyskał wiedzę i doświadczenie, stając się wysoko cenionym specjalistą. Konstruował aparaturę badawczą dla wielu ośrodków naukowych, zaczynając od najlepszej w Europie Politechniki Federalnej w Zurychu (Eidgenössische Technische Hochschule Zürich). Funkcjonował na przecięciu biznesu i nauki, zdecydował się na założenie własnej firmy. W Rogowie. Żeby pokazać, że w Polsce się da. Był wspomniany rok 1996.

Początki były trudne, głównie ze względu na brak infrastruktury, narzędzi i materiałów – bazę należało stworzyć od podstaw. W pierwszych latach funkcjonowania firmy wszystkie skonstruowane aparaty eksportowano, nad Wisłą bowiem nie prowadzono podówczas tak zaawansowanych badań naukowych. PREVAC jest dziś firmą – w pełnym znaczeniu tego słowa – międzynarodową, realizującą kontrakty na kilku kontynentach (ma ich na koncie już około pięciuset). W ciągu kilkunastu lat doktor Glenz stworzył firmę zatrudniającą prawie dwieście osób, która stała się swoistą śląską doliną krzemową.

4PREVAC zajmuje się produkcją aparatur naukowo-badawczych. Aparatura ta wykorzystywana jest do prac badawczych w placówkach naukowych i przemysłowych na całym świecie. Za jej pomocą wytwarza się m. in.: stal, polimery, tworzywa sztuczne, mikro- i nanoelektronikę, elektronikę biologiczną, biozgodne materiały dla protetyki, lakiery na bazie nanorurek, a także turbiny samolotowe i wiele innych. Dzięki badaniom przeprowadzonym na sprzęcie PREVAC skonstruowano nowy typ karoserii aluminiowo-stalowej, która początkowo wykorzystana została przez BMW, a w później także przez inne koncerny samochodowe. Aby ta skomplikowana aparatura (systemy próżniowe UHV, systemy do depozycji, mierniki próżni, odpowiedni software) spełniała wymagania niezbędne do badań, firma współpracuje z wieloma ośrodkami i najlepszymi naukowcami na świecie.

PREVAC bierze udział w budowie pierwszego polskiego synchrotronu „SOLARIS”, który powstaje w Krakowie. To obecnie najnowocześniejsze urządzenie tego rodzaju i jednocześnie interdyscyplinarne centrum badawcze, które – od 2016 roku – będzie dostępne dla naukowców. Generowanie różnego rodzaju promieniowania elektromagnetycznego pozwoliło dotychczas na odkrycia nie tylko z zakresu chemii czy fizyki, ale także archeologii i muzykologii. Promieniowanie to generują cząstki, poruszające się w polu magnetycznym z prędkością bliską prędkości światła – na podobnej zasadzie działa Wielki Zderzacz Hadronów w Genewie (Large Hadron Collider).

1Innym projektem, w którym PREVAC brał udział, była budowa cyklotronu skonstruowanego do leczenia nowotworów w Centrum Cyklotronowym Bronowice, będącego częścią Instytutu Fizyki Jądrowej im. Henryka Niewodniczańskiego Polskiej Akademii Nauk w Krakowie. Cyklotron jest rodzajem akceleratora („przyspieszacza”) cząstek o ładunku elektrycznym. W Bronowickim ośrodku prowadzi się eksperymenty z zakresu fizyki jądrowej, fizyki medycznej, dozymetrii, mikrodozymetrii, radiobiologii oraz inżynierii materiałowej, a przede wszystkim badania nad klinicznym leczeniem nowotworów. Chodzi głównie o radioterapię nowotworów gałki ocznej, która polega na precyzyjnym „zbombardowaniu” guza specjalnie uformowaną wiązką protonów, co sprawia, że leczenie jest nieinwazyjne i nieobciążające dla zdrowej tkanki, a przede wszystkim pozwala zachować wzrok w leczonym oku.

Doktor Andreas Glenz poszukuje nowej kadry dla nieustannie rozwijającej się firmy PREVAC. Istotne jest umiejętne, kreatywne wykorzystywanie nabytej w trakcie studiów gruntownej wiedzy, a także znajomość języków obcych i najnowszych technologii. Najważniejsza jednak jest pasja, chęć samodzielnego poszukiwania wiedzy, rozwoju swojego naukowo-badawczego warsztatu. To nieodzowne, jeśli chce się współtworzyć naukę na najwyższym, światowym poziomie, jeśli ma się na celu faktyczny, trwały wkład w hard science, a w konsekwencji zmienianie otaczającej nas rzeczywistości, ulepszanie świata, w którym żyjemy – i choć brzmi to patetycznie, to tak naprawdę jest – sprawianie, że staje się on lepszym miejscem. I dlatego właśnie – jak twierdzi dr Glenz – należy stawiać na ścisłą współpracę nauki i biznesu, praktyczne wykorzystywanie teoretycznej wiedzy pozwala bowiem na konkretny, mierzalny rozwój cywilizacyjny.

PREVAC poszukuje fizyków zajmujących się teorią projektowania, komputerową symulacją procesów fizycznych, fizyką molekularną, fizyką materii skondensowanej, optyką, a także fizyków ze znajomością obliczeń trajektorii elektronowych i masowych, informatyków programistów (zwłaszcza w zakresie języków C i C++ oraz technologii mobilnych) oraz informatyków specjalizujących się w analizie i przetwarzaniu obrazów jak i analityków. Poszukuje również osób zarządzających projektami technologicznymi, administratorów infrastruktur sieciowych i bezpieczeństwa informacji oraz analityków procesów.

PREVAC planuje rozszerzenie programu pozyskiwania kadry, który polegać będzie na wyszukiwaniu i kształceniu młodych ludzi w trakcie procesu ich edukacji, już od etapu szkolnego. Projekt ten będzie opierać się między innymi na stażach i praktykach odbywanych w firmie. Doktor Andreas Glenz podkreśla, że najważniejsze – na każdym etapie edukacji – jest samodzielne poszukiwanie, samokształcenie i podążanie za swoją pasją. Namawia młodych ludzi, aby był to czas ich indywidualnej kreatywności.

Wrażliwe nowotwory, czyli o świetle niszczącym chorobę

Wdrażanie nowych metod leczenia poprzedzone jest zwykle długimi i wysokospecjalistycznymi badaniami naukowymi, prowadzonymi na przecięciu wielu obszarów. W ostatnich latach uwagę poświęca się przede wszystkim jednej z najgroźniejszych chorób XX i XXI wieku – nowotworom.

Etiologia tej grupy chorób jest dobrze znana naukowcom. Kiedy w organizmie pojawi się (dziedziczna zazwyczaj) mutacja genów odpowiedzialnych za przebieg podziałów komórek, zaczynają się one namnażać w niekontrolowany sposób. Różnią się od tkanek, w których wyrastają i w odmienny sposób reagują na zwykłe sygnały organizmu.

Zespół profesor Alicji Ratusznej – kierownika Zakładu Fizyki Ciała Stałego i dziekana Wydziału Matematyki, Fizyki i Chemii Uniwersytetu Śląskiego w Katowicach – poszukuje nowych strategii terapeutycznych nowotworów, wykorzystując wiedzę z zakresu fizyki, chemii i biologii. Jeden z kierunków badań polega na poszukiwaniu nowych chemioterapeutyków – zsyntezowane uprzednio związki poddawane są analizie na komórkach zarówno zdrowych, jak i chorych. Badania te prowadzi się w pracowniach zlokalizowanych w Śląskim Międzyuczelnianym Centrum Edukacji i Badań Interdyscyplinarnych (ŚMCEBI) w Chorzowie, w specjalnych, sterylnych, oddzielonych śluzą pomieszczeniach, metodą in vitro – hodując komórki na szkiełku (w odróżnieniu od badań in vivo – przeprowadzanych wewnątrz żywego organizmu).

Innym kierunkiem prowadzonych badań jest zastosowanie terapii fotodynamicznej (PDT), polegającej na wykorzystaniu związków światłoczułych. Podstawą tej metody leczenia jest wykorzystanie substancji światłoczułych, które po zaabsorbowaniu światła zostają wzbudzone i następnie nadmiar energii – na różne sposoby – oddają do otoczenia. Część tej energii zostaje zużyta na reakcje fotochemiczne, w wyniku których powstają reaktywny tlen i wolne rodniki. I właśnie te produkty rozpoczynają w oddziaływaniu z komórką nowotworową procesy jej niszczenia. W przyrodzie znane jest bardzo podobne zjawisko, którym jest jedna z najważniejszych i najbardziej powszechnych reakcji chemicznych na naszej planecie – reakcja fotosyntezy. Jeśli w komórce roślinnej – powiedzmy w liściu rosnącym na drzewie – znajduje się chlorofil (będący właśnie związkiem światłoczułym), to dochodzi w niej do reakcji biochemicznej, dzięki której z materii nieorganicznej wytwarzają się związki organiczne (zawierające węgiel). Proces ten polega na redukcji dwutlenku węgla i wody do węglowodanu i tlenu, wydzielanego do atmosfery. Węglowodan, będący cukrem prostym, stanowi dla rośliny źródło pożywienia – dzięki temu jest ona organizmem samożywnym (autotroficznym). Przy okazji dochodzi do zamiany szkodliwego dwutlenku węgla (CO2) w niezbędny do życia tlen (O2).

Wróćmy do organizmu człowieka i leczenia nowotworów. Związki światłoczułe wprowadza się do chorych komórek (zdrowe komórki wydalają go bardzo szybko), a następnie poddaje naświetlaniu. Dzięki swoim właściwościom barwnik fotouczulający generuje toksyczne dla komórek czynniki, a więc w efekcie określonych procesów fotofizycznych i fotochemicznych zaburza on funkcje komórek nowotworowych i doprowadza do ich obumarcia. Reakcja fotodynamiczna doprowadza do wytworzenia się reaktywnych form tlenu w naświetlanym obszarze, które niszczą struktury (organelle) komórki. Bardzo dobre rezultaty osiąga się zwłaszcza w leczeniu nowotworów skóry ze względu na ich łatwą ekspozycję na światło.

Metoda fotodynamiczna ma także aspekt diagnostyczny. Po naświetlaniu fotouczalacza odpowiednią długością fali świetlnej część zaabsorbowanej energii jest z powrotem emitowana w procesie fluorescencji. Fluorescencja pozwala zatem na dokładne wskazanie chorych komórek (to metoda PDD – photodynamic diagnosis).
Badania zespołu profesor Alicji Ratusznej, w których bierze udział między innymi Agnieszka Szurko, Anna Mrozek-Wilczkiewicz oraz Marzena Rams-Baron, skupiają się na poszukiwaniu nowych, syntetycznych barwników. Oprócz testowania leków, projektuje się także coraz efektywniejsze nośniki terapeutyków, które transportują go do wnętrza chorej komórki. Te interdyscyplinarne (biologiczno-fizyczno-chemiczne) badania prowadzi się w świetnie wyposażonych laboratoriach ŚMCEBI.

Zastosowanie terapii fotodynamicznej jest bezinwazyjne, nieszkodliwie dla pacjenta i mniej obciążające psychicznie (bo stosowane w warunkach ambulatoryjnych), a także tańsze. Jest zatem alternatywą dla chemioterapii, radioterapii oraz leczenia operacyjnego.

Teaser

Wydział Matematyki, Fizyki i Chemii to miejsce, w którym poznasz tajemnice wszechświata i zasady, które nim rządzą. Od atomów po galaktyki – od cząstek elementarnych po czarne dziury. Nauczysz się języka, którym opowiedziany jest świat. Zdobędziesz punkt podparcia, dzięki któremu poruszysz ziemię.

Gra w fizykę

W 2014 roku wartość światowego rynku gier komputerowych wyniosła ponad 81 miliardów dolarów. Wirtualne światy wymagają coraz lepszego sprzętu – im doskonalszy software, tym potężniejszy hardware. Według prawa Moore’a, założyciela firmy Intel, moc obliczeniowa komputerów podwaja się co dwa lata. Istnieją jednak granice rozwoju: wytyczają je osiągalna technologicznie miniaturyzacja oraz prawa naszej fizyki. Powoli docieramy do tego progu – coraz trudniej jest konstruować coraz lepsze komputery, ewolucja mikroprocesorów opartych na tranzystorach nieubłaganie spowalnia.

Screenshot from 2015-05-28 17_07_51Wyjątek od prawa Moore’a stanowią procesory kart graficznych – GPU (Graphics Processing Unit). Wykonują one obliczenia niezbędne do symulacji trójwymiarowego świata i przerzucenia go na dwuwymiarowy ekran, odciążając (lub praktycznie zastępując) główny procesor komputera. Najbardziej obciążającym procesem jest nie tyle renderowanie grafiki, co symulowanie fizycznych praw. Jeśli nasz wirtualny awatar doprowadza do zmiany w otaczającej go przestrzeni (wjeżdża samochodem w budynek lub powoduje wybuch mostu), to zaistniałe skutki tej zmiany muszą być takie same, jakie byłyby w świecie rzeczywistym. Kamień nie unosi się samoistnie, woda nie płynie w górę – a to dlatego, że oddziałuje na nie siła ciążenia – takie są prawa newtonowskiej fizyki. Symulacje dotyczą także najdrobniejszych elementów świata przedstawionego, między innymi zjawisk atmosferycznych – nawet mgła musi rozwiewać się w ściśle określony sposób. Aby uzyskać efekt realizmu karta symuluje – między innymi – dynamikę punktu materialnego, bryły sztywnej, obiektów elastycznych oraz płynów.

Takich obliczeń dokonuje (prawie) każda karta graficzna zamontowana w powszechnie używanych komputerach osobistych. Procesor najlepszego obecnie na rynku sprzętu (GeForce GTX TITAN X) zbudowany jest z ponad 3 000 rdzeni. Moc hardware’u to nie wszystko – niezbędny jest jeszcze odpowiedni software, który pomaga zoptymalizować moc obliczeniową. CUDA (Compute Unified Device Architecture), bezpłatne oprogramowanie – opracowane przez firmę NVIDIA – pozwala na obliczenia równoległe, czyli wielu – a nawet bardzo wielu – wątków w ramach jednego procesu/zadania.

Architektura obliczeniowa CUDA, oparta na językach programowania C i C++, jest stosunkowo łatwo dostępna dla każdego posiadacza karty graficznej NVIDIA i pozwala dokonywać dowolnych symulacji na swoim sprzęcie (im mniej rdzeni procesora, tym liczy ona wolniej – niemniej jest to z powodzeniem wykonalne w warunkach domowych). Kursy CUDA są prowadzone na Uniwersytecie Śląskim.

Z metody tej korzystają naukowcy na całym świecie, między innymi do obliczeń potrzebnych w astrofizyce, biologii, chemii, a także przy określaniu dynamiki płynów i rekonstrukcji obrazu w tomografii komputerowej. Tym ostatnim zagadnieniem zajmuje się zespół pracujący pod kierunkiem dr hab. Marcina Kostura z Zakładu Fizyki Teoretycznej Uniwersytetu Śląskiego w Katowicach.

Dynamika płynów jest działem mechaniki zajmującym się ruchem cieczy i siłami, które go powodują. Problem polega na tym, że nawet ruch wody w małej szklance jest tak skomplikowany (bo nie podlega uproszczeniom), że nie jest go w stanie symulować żaden komputer. Z pomocą przychodzą właśnie GPU – procesory kart graficznych. Po co obliczać ruch płynu? Zespół dr hab. Marcina Kostura zajmuje się przygotowaniem symulacji potrzebnych w diagnostyce medycznej.

Tętnice wieńcowe to małe naczynia krwionośne, które dostarczają sercu utlenioną krew, niezbędną do jego funkcjonowania. Kiedy wytworzą się w nich złogi (na przykład z powodu obecności zbyt dużej ilości cholesterolu), światło naczynia zmniejsza się, dochodzi do miażdżycy, następnie do choroby niedokrwiennej i – w konsekwencji – do zawału mięśnia sercowego. Choroby serca są jedną z najczęstszych przyczyn zgonów w krajach Zachodu.

Screenshot from 2015-05-28 17_10_59Opracowywana metoda pozwalać będzie na bezinwazyjne diagnozowanie stanu naczyń wieńcowych, co da z kolei szansę na ocenienie stanu ryzyka zachorowania i zaplanowania strategii leczenia pacjenta. Jak wykonuje się takie badanie? Przekroje uzyskane dzięki badaniu tomografem komputerowym migruje się do programu graficznego, który wizualizuje je w 3D. Dzięki temu otrzymujemy kolorowy, ruchomy obraz fragmentu organizmu człowieka, widoczny w trzech wymiarach. Następnie wyodrębnia się z niego potrzebny fragment – w tym przypadku naczynie wieńcowe – i przenosi do kolejnego programu. Dopiero w symulatorze inicjuje się szereg obliczeń (dokonywanych za pomocą kart graficznych, programu CUDA i metody Lattice-Boltzmanna), które pozwalają przewidzieć, z jaką prędkością krew przepływa przez naczynie, jaki opór wytwarzają przewężenia naczyń, i jaka ilość złogów utrudniających krążenie. Program-symulator, Sailfish, został stworzony przez młodego naukowca z zespołu profesora Marcina Kostura – Michała Januszewskiego. Architektura tego skomplikowanego software’u ma charakter wielopoziomowy: technika ta nazywa się generacją kodu w czasie rzeczywistym. Program w wygodnym, wysokopoziomowym języku python w momencie uruchomienia symulacji dynamicznie tworzy zoptymalizowany kod napisany w CUDA-C, kompiluje go i uruchamia.

Trudności jest wiele. To przede wszystkim skomplikowana dynamika płynów oraz wymiar „prognostyczny” całego przedsięwzięcia. Naczynia wieńcowe mają niewielkie rozmiary, a zmiany miażdżycowe tworzą się w organizmie człowieka na przestrzeni dekad. Jednak najtrudniejszym do pokonania ograniczeniem jest czas. Przygotowanie danych wejściowych i dokonanie symulacji przepływu krwi w naczyniu nie powinno ostatecznie zająć więcej niż 10 minut – im szybsza bowiem jest diagnoza lekarza w warunkach zagrożenia życia pacjenta, tym większa szansa na jego uratowanie. Jeśli uda się pokonać wszystkie te trudności, to możliwym stanie się dostarczenie lekarzom precyzyjnej, ilościowej informacji o wpływie obserwowanej patologii na przepływ krwi, co pozwoli na przewidywanie i zapobieganie chorób serca, a także ich skuteczniejsze leczenie.

Badania prowadzone w laboratoriach Śląskiego Międzyuczelnianego Centrum Edukacji i Badań Interdyscyplinarnych w Chorzowie łączą fizykę teoretyczną, informatykę stosowaną oraz elementy wiedzy medycznej. Nasza rzeczywistość – świat, w którym funkcjonujemy – jest złożony z fragmentów pozornie do siebie nieprzystających, a faktycznie nierozłącznych. Komplementarne podejście jest jedyną droga do rozwikłania zagadek wszechświata.

Jakkolwiek wdrożenie gotowego systemu byłoby nieocenione dla medycyny, to – jak podkreśla dr hab. Marcin Kostur – najważniejsze jest badanie otaczającej nas rzeczywistości. Cała reszta wynika z poznania.