Przejdź do treści

Publikacje

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Definitions and comprehensive assessment of fault isolability in expert-based diagnostic systems

Artykuł analizuje aktualny stan badań nad metodami wnioskowania diagnostycznego oraz oceną rozróżnialności uszkodzeń. Autorzy zwracają uwagę na rozbieżności terminologiczne, które pojawiają się w literaturze naukowej. W pracy zdefiniowano relacje rozróżnialności par uszkodzeń dla metod wnioskowania opartych na kolumnach (sygnaturach uszkodzeń) i wierszach (obserwowanych symptomach), wykorzystujących zarówno binarną, jak i wielowartościową ocenę residuów. Dodatkowo rozważono możliwość rozróżniania uszkodzeń na podstawie analizy sekwencji ich symptomów. W celu pełniejszej oceny i porównania różnych rozwiązań systemów diagnostycznych zaproponowano dwie nowe miary rozróżnialności uszkodzeń. Ich wartości ilościowe zależą od rodzaju relacji rozróżnialności dla danej pary uszkodzeń. Aby zilustrować proponowane podejście, autorzy przedstawili przykład porównania i oceny rozróżnialności uszkodzeń w różnych wariantach wnioskowania diagnostycznego w układzie szeregowym zbiorników buforowych.

Artykuł:

Mechanical Systems and Signal Processing

Rok wydania:

Autorzy z PW:

Jan Maciej Kościelny, Anna Sztyber-Betley

Application of machine learning models for evaluating the impact of roadside advertising on driver discomfort

Bezpieczeństwo ruchu drogowego w dużym stopniu zależy od wpływu reklam przydrożnych na dyskomfort kierowców, ponieważ zbyt duże zmiany parametrów oświetleniowych reklam oraz kontrastu względem otoczenia mogą powodować zmęczenie wzroku oraz obniżać koncentrację kierującego pojazdem. Niniejsza praca uwzględnia istotne czynniki związane z luminancją reklam/otoczenia  i infrastrukturą drogową w celu przetestowania kilku modeli uczenia maszynowego do szacowania dyskomfortu kierowcy wywoływanego przez billboardy reklamowe. Przeprowadzono trening i ocenę czterech modeli klasyfikacyjnych — regresji logistycznej, drzewa decyzyjnego, lasu losowego oraz sieci neuronowej — z wykorzystaniem zbioru danych obejmującego pomiary luminancji reklam/otoczenia oraz charakterystykę dróg. Do oceny modeli wykorzystano dokładność, czułość, swoistość oraz pole pod krzywą ROC (AUC). Wydajność modeli zoptymalizowano metodami regularyzacji LASSO i ElasticNet, walidację modeli przeprowadzono metodą 10-krotnej walidacji krzyżowej. Sieć neuronowa wyróżniała się równowagą pomiędzy odsetkiem wyników fałszywie pozytywnych i fałszywie negatywnych, osiągając 93,18% dokładności, czułość na poziomie 96,97% oraz swoistość na poziomie 81,82%. Regresja logistyczna uzyskała dokładność 86,36%, lecz wykazała niższą swoistość (45,45%), co zwiększyło odsetek wyników fałszywie pozytywnych. Natomiast drzewo decyzyjne osiągnęło najniższą zdolność klasyfikacyjną (75,00% dokładności, 72,18% AUC), podczas gdy model lasu losowego wypadł dość dobrze (79,55% dokładności, 81,13% AUC). Głównymi czynnikami przewidującymi dyskomfort kierowcy były maksymalna luminancja reklamy, kontrast względem otoczenia oraz średnia luminancja reklam, natomiast charakterystyka drogi miała niewielki wpływ. W szczególności sieci neuronowe pokazują, że algorytmy uczenia maszynowego mogą z dużą precyzją oceniać poziom dyskomfortu kierowców wobec reklam w pasie drogowym. Wyniki te dostarczają informacji pomocnych przy formułowaniu zasad mających na celu zwiększenie bezpieczeństwa ruchu i optymalizację warunków oświetlenia w pasie drogowym. W przyszłych badaniach należy rozważyć zaawansowane konfiguracje głębokich sieci neuronowych oraz systemy wykrywania dyskomfortu w czasie rzeczywistym w dynamicznych warunkach jazdy.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Marcin Chrzanowicz, Piotr Tomczuk, Piotr Jaskowski 

Tri-omic single-cell mapping of the 3D epigenome and transcriptome in whole mouse brains throughout the lifespan

Badanie genomowych podstaw programów transkrypcyjnych jest od dawna przedmiotem badań. W publikacji opisujemy metodę jednokomórkową, ChAIR, do mapowania dostępności chromatyny, interakcji chromatynowych i ekspresji RNA jednocześnie. Po walidacji w hodowanych komórkach, zastosowaliśmy ChAIR do całych mózgów myszy i nakreśliliśmy skoordynowaną dynamikę epigenomu, trójwymiarowego (3D) genomu i transkryptomu podczas dojrzewania i starzenia. W szczególności, interakcje chromatyny skoncentrowane na genach i stany otwartej chromatyny zapewniły trójwymiarowy mechanizm epigenomiczny leżący u podstaw transkrypcji specyficznej dla typu komórki i ujawniły przestrzennie rozdzieloną specyficzność. Co ważne, skład krótkozasięgowych i ultradługich kontaktów chromatynowych w poszczególnych komórkach jest znacząco skorelowany z aktywnością transkrypcyjną, stanem otwartej chromatyny i gęstością fałdowania genomu. Ta właściwość genomowa, wraz z powiązanymi właściwościami komórkowymi, różni się w neuronach i komórkach nieneuronalnych w różnych regionach anatomicznych przez całe życie, co sugeruje rozbieżne mechanizmy mechano-genomowe w komórkach mózgu. Nasze wyniki pokazują solidność ChAIR w identyfikacji i analizie jednokomórkowych stanów epigenomicznych 3D transkrypcji specyficznej dla typu komórki w złożonych tkankach.


Współpraca Laboratorium Bioinformatyki i Genomiki Obliczeniowej obejmowała: Life Sciences Institute, Zhejiang University, Hangzhou, Chiny; Institute of Reproduction and Development, Fudan University, Shanghai, Chiny; Department of Genome Sciences, University of Washington, Seattle, WA, USA.

Artykuł:

Nature Methods

Rok wydania:

Autorzy z PW:

Krzysztof Banecki, Dariusz Plewczyński

Stabilization toward air and structure determination of pyrophoric ZnR2 compounds via supramolecular encapsulation

Związki dialkilocynkowe (ZnR₂, gdzie R = Me lub Et) są szeroko stosowanymi reagentami w syntezie organicznej oraz chemii materiałów. Jednakże w warunkach standardowych występują one jako piroforyczne ciecze, które gwałtownie reagują z wodą i tlenem obecnymi w powietrzu. Znacząco utrudnia to posługiwanie się tymi związkami w codziennej pracy laboratoryjnej. W niniejszym artykule prezentujemy, że reaktywne związki dialkilocynkowe mogą zostać efektywnie enkapsulowane w monokrystalicznych matrycach, stworzonych z odpowiednio zaprojektowanych związków koordynacyjnych. Takie unieruchomienie cząsteczek ZnR₂ umożliwia nie tylko ich szczegółową charakterystykę strukturalną w nowym, ograniczonym otoczeniu, ale także skutecznie zabezpiecza je przed dostępem powietrza, otwierając drogę do bezpieczniejszego oraz bardziej efektywnego wykorzystania tych niebezpiecznych reagentów chemicznych. Co więcej, specyficzne warunki stwarzane wewnątrz subnanometrycznych wnęk w opracowanym układzie supramolekularnym umożliwiają selektywne wychwycenie cząsteczek ZnMe₂ z mieszaniny ZnMe₂ i ZnEt₂ umożliwiając jej efektywne rozdzielenie. 

Artykuł:

Science advances

Rok wydania:

Autorzy z PW:

Michał Terlecki, David Fairen-Jimenez, Wojciech Bury, Krzysztof Budny-Godlewski, Jan Nawrocki, Marek Kościelski, Janusz Lewiński

Dyscyplina:

Polarization Gratings Aided Common‐Path Hilbert Holotomography for Label‐Free Lipid Droplets Content Assay

W niniejszym artykule przedstawiono nowatorską metodę wspomaganą przez siatki polaryzacyjne – holo-tomografię Hilberta wspólnej drogi (CP-HHT) – do bez-znacznikowego mikroskopowego obrazowania trójwymiarowego rozkładu współczynnika załamania światła. W odpowiedzi na ograniczenia obecnych metod holo-tomografii, wykorzystano rozszerzoną przepustowość informacyjną z pomocą spiralnej transformacji Hilberta. Zastosowanie polaryzacyjnych siatek dyfrakcyjnych w układzie umożliwia pełną kontrolę ustawień holograficznych, takich jak gęstość i przesunięcie prążków interferecyjnych w hologramie, co zapewnia elastyczną demodulację hologramów przy zachowaniu prostoty i niezawodności systemu. Skuteczność systemu została przetestowana przy użyciu fantomu skrawka mózgu wydrukowanego w technologii 3D (wykonanego za pomocą polimeryzacji dwufotonowej) oraz utrwalonych komórek HeLa wzbogaconych o cholesterol i kwasy oleinowe. Analiza rekonstrukcji przy użyciu fantomu mózgu wskazuje, że metoda Hilberta zapewnia lepszą rozdzielczość przestrzenną niż metoda transformacji Fouriera, oferując znacząco rozszerzoną zawartość informacyjną pomiarów. Podejście CP-HHT wykazuje unikalną (niemożliwą do osiągnięcia przy fluorescencji) zdolność do pomiaru kropli lipidowych wzbogaconych w cholesterol i kwas oleinowy oraz wskazuje, że wykazują one mierzalne różnice w wartościach współczynnika załamania. Wyniki te sugerują, że metoda ta jest czuła na zmienność zawartości lipidów obojętnych, oferując obiecujące możliwości analizy heterogeniczności kropli lipidowych i wspierając jej potencjał w bezznacznikowym obrazowaniu subkomórkowym, tym samym potwierdzając wszechstronność i użyteczność systemu CP-HHT w szerszych zastosowaniach bioobrazowania in vitro.  

Artykuł:

Laser & Photonics Reviews

Rok wydania:

Autorzy z PW:

Piotr Zdańkowski, Julianna Winnik, Mikołaj Rogalski, Marcin Marzejon, Emilia Wdowiak, Michał Józwik, Maciej Trusiak 

Stakeholder perceptions of biodiversity in urban residential areas

Czy przyroda w mieście oznacza tylko schludnie przystrzyżony trawnik i równo posadzone tuje? A może naturalistyczne przestrzenie z gęstą roślinnością, martwym drewnem i siedliskami dla owadów mają szansę stać się nową normą? Nasze badanie przeprowadzone w warszawskich dzielnicach pokazuje, że odpowiedź nie jest jednoznaczna – i że bardzo wiele zależy od tego, kto patrzy na zieleń.

W ramach badania zapytaliśmy 144 osoby z czterech grup interesariuszy – architektów, architektów krajobrazu, pracowników administracji publicznej i lokalnych aktywistów – jak postrzegają różne elementy bioróżnorodności w mieście. Uczestnicy oceniali m.in. obecność wielowarstwowej roślinności, martwego drewna, owadów i struktur przyjaznych zwierzętom, a także wyrażali swoje preferencje wobec projektów zieleni pokazanych na fotomontażach.

Co mówią wyniki?

81% badanych wykazuje pozytywne nastawienie do przyrody, co jest dobrym punktem wyjścia. Jednak preferencje i obawy znacząco się różnią między grupami:

o lokalni aktywiści najczęściej popierali bioróżnorodne krajobrazy – doceniają naturalność, dzikość i obecność elementów takich jak martwe drewno czy gęsta roślinność.

o architekci i urzędnicy byli bardziej sceptyczni – obawiali się m.in. kwestii bezpieczeństwa, estetyki oraz kosztów utrzymania.

o architekci krajobrazu zajmowali stanowisko pośrednie – rozumieją korzyści płynące z bioróżnorodności, ale podchodzą do niej ostrożnie.

Co z tego wynika?

Nasze badanie pokazuje, że promowanie bioróżnorodnych przestrzeni miejskich wymaga dialogu i zrozumienia różnych punktów widzenia. Kluczowe jest także rozbijanie mitów – na przykład, że gęsta roślinność jest zawsze niebezpieczna czy „niechlujna”. W rzeczywistości to właśnie takie elementy jak bujna zieleń, martwe drewno czy obecność owadów mogą przynosić realne korzyści: oczyszczanie powietrza, zwiększenie retencji wody, wsparcie dla zapylaczy i poprawa dobrostanu mieszkańców.

Artykuł:

Journal of Environmental Management

Rok wydania:

Autorzy z PW:

Jakub Heciak

Bigger, Regularized, Optimistic: scaling for compute and sample efficient continuous control

Efektywność wykorzystania próbek (sample efficiency) w uczeniu ze wzmocnieniem (RL) była tradycyjnie napędzana przez ulepszenia algorytmiczne. W niniejszej pracy pokazujemy, że skalowanie (architektury) również może prowadzić do znacznych usprawnień. Przeprowadziliśmy szczegółowe badania dotyczące wzajemnego wpływu skalowania pojemności modelu oraz specyficznych dla danej dziedziny usprawnień w RL. Te empiryczne wyniki wpływają na wybory projektowe, które leżą u podstaw naszego zaproponowanego algorytmu BRO (Bigger, Regularized, Optimistic). Kluczową innowacją BRO jest to, że silna regularizacja umożliwia skuteczne skalowanie sieci krytyków, które, połączone z optymistycznym eksplorowaniem, prowadzi do lepszej wydajności. BRO osiąga wyniki na poziomie stanu sztuki, znacząco przewyższając wiodące algorytmy oparte na modelach (model-based) i algorytmy bez modeli (model-free) w 40 złożonych zadaniach z benchmarków DeepMind Control, MetaWorld i MyoSuite. BRO jest pierwszym algorytmem bez modelu, który osiąga niemal optymalne polityki w wyjątkowo trudnych zadaniach Dog i Humanoid.

Materiał konferencyjny:

Advances in Neural Information Processing Systems 37

Rok wydania:

Autorzy z PW:

Michal Nauman, Mateusz Ostaszewski

Simultaneous hydrogen generation and organic oxidation in low-temperature electrolyzers

Elektrolizery niskotemperaturowe odgrywają istotną rolę w różnych procesach elektrochemicznych i przemysłowych, szczególnie w kontekście zrównoważonego magazynowania i konwersji energii. Tradycyjnie reakcją anodową jest wydzielanie tlenu, które wymaga wysokich potencjałów roboczych i wiąże się ze znacznymi kosztami operacyjnymi. Niniejszy przegląd bada obiecujące podejście mające na celu złagodzenie tych wyzwań poprzez wykorzystanie alternatywnych paliw. Przeprowadzono kompleksowy przegląd literatury dotyczącej elektrolizy alkoholi, amin oraz pochodnych biomasy. W niniejszym opracowaniu wyjaśniono potencjał integracji reakcji utleniania pochodnych biomasy z reakcjami wydzielania wodoru, co pozwala na ograniczenie wad tradycyjnej elektrolizy. Dzięki dywersyfikacji podejść elektrochemicznych, reakcje alternatywne oferują możliwość obniżenia potencjału roboczego, a tym samym zmniejszenia zużycia energii i całkowitych kosztów. Ponadto, strategiczny dobór katalizatorów może poprawić kinetykę reakcji i zwiększyć efektywność produkcji wodoru. Przegląd ten podkreśla znaczenie uwzględniania zarówno wydajności technicznej, jak i opłacalności ekonomicznej przy projektowaniu i eksploatacji systemów elektrolizerów.

Artykuł:

Applied Energy

Rok wydania:

Autorzy z PW:

Zuzanna Bojarska, Maria Jarząbek-Karnas, Agata Godula-Jopek, Sławomir Mandrek, Łukasz Makowski

Dyscyplina:

Innovative, satellite-independent, and self-supplied position sensor

Zawsze wykrywające, działające wszędzie i niewymagające konserwacji (czyli uniwersalne) urządzenia czujnikowe to niezwykle cenne rozwiązania. W niniejszej pracy proponujemy właśnie taki uniwersalny koncept czujnika oraz przedstawiamy pomysł sensora, który może działać 24 godziny na dobę, niezależnie od lokalizacji, i jest zdolny do pracy w dowolnym środowisku. Nasze innowacyjne podejście wykorzystuje siłę Coriolisa (siłę pozorną występującą podczas ruchu w układzie obrotowym), która działa na wszystkie poruszające się obiekty i dlatego jest niemal wszechobecna na Ziemi. Siła Coriolisa jest zazwyczaj kojarzona z dużymi zjawiskami, takimi jak huragany, wiry wodne itp. W tej pracy analizujemy jednak odchylenie cząstek naładowanych pod wpływem siły Coriolisa – za pomocą obliczeń analitycznych oraz modelowania numerycznego. To odchylenie prowadzi do powstania różnicy potencjałów, która leży u podstaw siły elektromotorycznej i może być wykorzystana m.in. do takich zastosowań jak monitorowanie położenia, lokalizacja geograficzna, a być może także inne, które dopiero zostaną zaproponowane. Opisano i przeanalizowano łączenie sensorów w macierze szeregowe lub równoległe w celu zwiększenia sygnału wyjściowego. Porównano amplitudę sygnału wyjściowego generowaną przez różne cząstki naładowane (elektron, uran i proton). Wydajność sensora porównano dla różnych zastosowań: na Ziemi, na planetach Układu Słonecznego oraz w maszynach obrotowych. Badania numeryczne i analityczne potwierdzają, że przedstawiona koncepcja sensora może zapoczątkować nowy typ czujników pozycjonujących niezależnych od satelitów.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Jan Szmidt, Lidia Łukasiak, Maciej Haras, Piotr Wiśniewski, Tomasz Skotnicki, Wojciech Knap

Impact of zigzag tape on blade loads and aerodynamic wake in a vertical axis wind turbine: A Delft VAWT case study

Przedmiotem pracy jest numeryczna analiza wpływu taśmy „zig-zag” na skrzydłach wirnika silnika wiatrowego na jego osiągi oraz na geometrię śladu aerodynamicznego. Wyniki pracy konfrontowane były z danymi pochodzącymi z doświadczalnych badań tunelowych wirnika typu Darrieus (VAWT) ze skrzydłami w układzie H. Dwułopatowy model miał średnicę 1.0 m, skrzydła o długości 1.0 m i cięciwie 0,06 m, Liczba Re odniesiona do cięciwy skrzydeł i prędkości lokalnej wynosiła 160 x 103. Badania wykonane w Duńskim Uniwersytecie Technicznym (DTU) obejmowały wyznaczenie charakterystyk profilu użytego w modelu wirnika, charakterystykę wirnika oraz geometrię śladu aerodynamicznego za wirnikiem.

Korzystając ze wspomnianych charakterystyk empirycznych, przy użyciu modelu linii nośnej, wykonano kompleksową analizę osiągów i śladu wirnika. Dodatkowo, w celu oceny wpływu przejścia laminarnego na charakterystyki wirnika wykonano dwuwymiarową analizę CFD z zastosowaniem modeli turbulencji k-omega SST i gamma-Re_theta. Aby warunki symulacji zbliżyć do warunków użytkowania dużych jednostek VAWT badania wykonano poza obszarem przeciągnięcia t.j. przy wyróżniku szybkobieżności (TSR) wynoszącym 4,5.

Wyniki wskazują, że użycie taśmy „zig-zag”: 
- w zakresie podkrytycznych kątów natarcia powoduje linearyzację przebiegu współczynnika siły nośnej w funkcji kąta natarcia przy wyraźnym spadku osiągów aerodynamicznych, na skutek jednoczesnego wzrostu oporu i zmniejszenia siły nośnej, 

- taśma „zig-zag” jest źródłem asymetrii w śladzie aerodynamicznym za wirnikiem i wywiera wpływ na intensywność procesu dyssypacji wirów w śladzie,

-zanieczyszczenia skrzydeł wirnika, modelowane w badaniach za pomocą taśmy „zig-zag”, ma wpływ na osiągi wirnika i właściwości śladu aerodynamicznego.  Wyniki stąd uzyskane dostarczają cennych informacji przydatnych przy projektowaniu i optymalizacji turbin wiatrowych.

Artykuł:

Energy

Rok wydania:

Autorzy z PW:

Jan Michna, Krzysztof Rogowski 

Quasi-Solid Electrolytes with Flexible Branches and Rigid Skeletons for High-Temperature Li Metal Batteries

Quasi-stałe elektrolity mogą całkowicie odmienić przyszłość baterii litowo-metalicznych o wysokiej gęstości energii. Mają jednak ograniczenia z działaniem w wysokich temperaturach, ponieważ wtedy zachodzi wiele niekorzystnych reakcji chemicznych, zwłaszcza z katodami pracującymi przy wysokim napięciu. W niniejszej pracy opracowano niepalny quasi-stały elektrolit (QSE), wykorzystując metodę kopolimeryzacji bezpośrednio podczas tworzenia materiału (tzw. in situ). Elektrolit ten zawiera kopolimer z elastycznymi odgałęzieniami i sztywnym szkieletem oraz plastyfikatory o ograniczonej palności na bazie pochodnych fluoru i fosforu. Elastyczne odgałęzienia zmniejszają krystaliczność i ułatwiają migrację jonów litu, podczas gdy sztywny szkielet zapewnia doskonałą stabilność w wysokich temperaturach. Zoptymalizowany plastyfikator fluorowo-fosforowy skutecznie wychwytuje wysoce reaktywne rodniki tlenowe i hydroksylowe oraz zapewnia szerokie okno elektrochemiczne (do 4,7 V względem Li⁺/Li), co przekłada się na wysoką stabilność interfejsu i bezpieczeństwo pracy. W efekcie otrzymany QSE wykazuje znakomite właściwości fizykochemiczne i elektrochemiczne, umożliwiając odwracalne osadzanie i usuwanie litu oraz dobrą kompatybilność z katodami. Dzięki zastosowaniu niepalnego QSE uzyskano bardzo dobre rezultaty: bateria z katodą LiFePO₄ zachowała aż 82,3% pojemności po 1000 cyklach pracy przy wysokiej gęstości prądowej (5 C) i temperaturze 80°C. Dobrą kompatybilność z katodami wysokonapięciowymi potwierdzono poprzez stabilne cykliczne ładowanie i rozładowywanie ogniw z LiCoO₂ przez ponad 400 cykli przy wysokim napięciu odcięcia 4,5 V i podwyższonej temperaturze 60 °C.

Artykuł:

ACS Applied Materials & Interfaces

Rok wydania:

Autorzy z PW:

Ewa Zygadło-Monikowska 

Dyscyplina:

Luminescent Alkylaluminium Anthranilates Reaching Unity Quantum Yield in the Condensed Phase

Związki fluorescencyjne bazujące na pierwiastkach grup głównych mają ogromne znaczenie, ponieważ łączą w sobie korzystne właściwości elektrochemiczne, fotofizyczne i spektroskopowe z wysoką naturalną występowalnością wielu z tych pierwiastków. W późnych latach 80. związek Alq3 (tris(8-hydroksychinolinato)glin) został po raz pierwszy wykorzystany do skonstruowania cienkowarstwowej diody elektroluminescencyjnej, stąd w kolejnych latach większość badań była skupiona na modyfikacji ligandu 8-hydroksychinolinowego. Dopiero ostatnia dekada była okresem rozwoju nowych luminoforów opartych na związkach glinu charakteryzujących się porównywalnymi lub ulepszonymi właściwościami fotofizycznymi. W artykule przedstawiono efektywną i prostą metodę syntezy serii unikatowych tetramerycznych chiralnych na atomie metalu alkiloglinowych pochodnych kwasu antranilowego o wzorze ogólnym [(R'-anth)AlR]₄. Otrzymane związki wykazują rekordową wydajność kwantową luminescencji sięgającą 100% w ciele stałym, poszerzając tym samym wiedzę na temat dotąd niedostatecznie zbadanej fotochemii kompleksów wielordzeniowych. Prostota modyfikacji ligandu umożliwia dalszą modyfikację układu w celu osiągnięcia większej stabilności chemicznej oraz stwarza sposobność kontrolowanej regulacji właściwości optycznych, co jest istotne z punktu widzenia potencjalnych zastosowań.

Artykuł:

Angewandte Chemie-International Edition

Rok wydania:

Autorzy z PW:

Janusz Lewiński, Maria Jędrzejewska, Vadim Szejko 

Dyscyplina: