Przejdź do treści

Publikacje

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Analyzing of different repowering methods on the example of 300 MW existing steam cycle power plant using gatecycle™ software

Ze względu na obecną sytuację dotyczącą bezpieczeństwa energetycznego i ograniczeń emisji dwutlenku węgla (CO₂), a także zauważalny wzrost globalnego zużycia energii elektrycznej, modernizacja i rozbudowa istniejących elektrowni (repowering) staje się coraz bardziej istotnym rozwiązaniem wspierającym transformację energetyczną. Dotychczasowe badania nad repoweringiem starych elektrowni parowych koncentrowały się głównie na parametrach termodynamicznych i redukcji emisji, często odnosząc się do konkretnych instalacji. Wciąż jednak pozostaje wiele niewyjaśnionych kwestii dotyczących wyboru optymalnej technologii. 

W niniejszej pracy omówiono różne koncepcje repoweringu istniejących elektrowni parowych, ze szczególnym uwzględnieniem elektrowni o mocy 300 MW, zlokalizowanej na dużej wysokości nad poziomem morza w Armenii. Rozważane koncepcje obejmowały zastosowanie trzech turbin gazowych: Siemens V84.2, ABB GT11N2 oraz Alstom (obecnie GE) GT13E2. Analizę modeli przeprowadzono w dwóch etapach: 1) ocenę parametrów termodynamicznych i emisji CO₂ dla modelu elektrowni, 2) obliczenia parametrów termodynamicznych przy poziomach mocy netto równych 100 %, 90 %, 80 %, 70 %, 60 % i 50 %. Przeprowadzone badania pozwoliły zidentyfikować dwie główne koncepcje repoweringu: pierwszą, ukierunkowaną na zwiększenie mocy wytwarzania energii elektrycznej, oraz drugą, skoncentrowaną na poprawie sprawności elektrowni poprzez zmniejszenie strumienia masy paliwa.

Artykuł:

Energy

Rok wydania:

Autorzy z PW:

Artur Harutyunyan, Krzysztof Badyda, Marcin Wołowicz 

Eco-friendly and cytocompatible graphene composite based on water-soluble biopolymers for modern printed electronics and beyond

Rosnące zapotrzebowanie na zrównoważoną elektronikę wynika z potrzeby ułatwienia gospodarki odpadami elektronicznymi, ograniczenia stosowania toksycznych materiałów oraz minimalizacji wpływu na środowisko, a także z chęci rozwoju nowych zastosowań technologicznych. W niniejszym badaniu zbadano sześć biopolimerów — alginian sodu (SA), karboksymetylocelulozę (CMC), hydroksyetylocelulozę (HEC), metylocelulozę (MC), chitosan rozpuszczalny w wodzie pochodzenia morskiego (CS) oraz chitosan rozpuszczalny w wodzie pochodzenia grzybowego (CF) — jako matryce polimerowe do opracowania zrównoważonych, wysoko przewodzących i cytokompatybilnych kompozytów na bazie grafenu przeznaczonych do sitodruku. Przeprowadziliśmy też optymalizację dyspersji grafenu w badanych roztworach wodnych przy użyciu surfaktantu SDS oraz dwóch różnych metod sonikacji, co miało na celu poprawę drukowalności, pokrycia powierzchni i przewodności elektrycznej warstwy. Testy reologiczne i analiza napięcia powierzchniowego posłużyły do scharakteryzowania kompozytów, które dedykowane były do druku na podłożach papierowych, aby uzyskać w pełni biodegradowalne struktury. Testy elektryczne, analiza SEM oraz mikroskopowa wykazały, że sonikacja sondą ultradźwiękową jest bardziej skuteczna w rozbijaniu aglomeratów grafenu. Warstwy oparte na CMC wykazały się najniższą rezystancją powierzchniową (58 Ω/□). Testy przyspieszonego starzenia wykazały niewielkie zmiany rezystancji, wskazując na okres trwałości naszych warstw wynoszący około 1 rok. Testy cytotoksyczności wykazały potencjalną możliwość zastosowania tych kompozytów w urządzeniach medycznych mających kontakt ze skórą człowieka. Uzyskane wyniki podkreślają obiecujący potencjał naturalnych biopolimerów jako zrównoważonych matryc polimerowych w opracowywaniu biodegradowalnej elektroniki, przyczyniając się jednocześnie do ograniczenia negatywnego wpływu na środowisko.

Artykuł:

Sustainable Materials and Technologies

Rok wydania:

Autorzy z PW:

Aleksandra Anna Kądziela, Katarzyna Wójkowska, Arkadiusz Jeznach, Daniel Janczak, Małgorzata Jakubowska, Monika Staniszewska, Sandra Katarzyna Lepak-Kuc

Global chromatin reorganization and regulation of genes with specific evolutionary ages during differentiation and cancer

Komórki nowotworowe cechują się wysoką plastycznością, co sprzyja ich adaptacji do zmieniających się warunków. Geny związane z podstawowymi procesami komórkowymi wyewoluowały u pradawnych organizmów, natomiast bardziej wyspecjalizowane geny pojawiły się później — wraz z powstaniem wielokomórkowości (geny metazoan) lub nawet dopiero po wyewoluowaniu ssaków. Analizy transkryptomiczne wykazały, że w nowotworach aktywowane są geny o starożytnym pochodzeniu, natomiast geny metazoan ulegają wyciszeniu. Pomimo istotności tych obserwacji, mechanizmy leżące u ich podstaw pozostają niezbadane. W niniejszym badaniu analizujemy lokalne i globalne mechanizmy epigenomowe, które mogą regulować geny w zależności od ich okresu ewolucyjnego. Wykorzystując dane o wieku ewolucyjnym genów, charakteryzujemy krajobraz epigenomowy, regulację ekspresji genów oraz organizację chromatyny w kilku typach komórek: ludzkich embrionalnych komórkach macierzystych, pierwotnych zdrowych limfocytach B, pierwotnych złośliwych komórkach B pacjentów z przewlekłą białaczką limfocytową oraz próbkach pierwotnych raka jelita grubego. Identyfikujemy zmiany topologiczne w organizacji chromatyny podczas różnicowania, obserwując wzorce represji przez kompleks Polycomb i zatrzymania polimerazy RNA II, które zostają odwrócone w procesie onkogenezy. Poza nierandomną organizacją genów i cech chromatynowych w trójwymiarowym epigenomie sugerujemy, że te wzorce prowadzą do preferencyjnych interakcji między genami o starożytnym, pośrednim i niedawnym pochodzeniu, odpowiednio mediowanych przez polimerazę RNA II, kompleks Polycomb oraz otoczkę jądrową. Nasze wyniki rzucają nowe światło na regulację genów według ich wieku ewolucyjnego i sugerują, że organizacja ta ulega zmianom podczas różnicowania i onkogenezy.

Artykuł:

Nucleic Acids Research

Rok wydania:

Autorzy z PW:

Dariusz Plewczyński, Kaustav Sengupta 

It is not Risky, it is Healthy. Assessing of Soil Enzymatic Activity, Heavy Metal Contamination, and Health Risk for Urban Gardens Land Development in Warsaw, Poland

Ogrodnictwo miejskie w gęsto zaludnionych miastach pełni ważną rolę — wspiera dobrostan społeczny, bioróżnorodność, a czasem lokalną produkcję żywności. Jednak tereny ogrodów są zagrożone zanieczyszczeniem powietrza i gleby w obszarach zurbanizowanych, gdzie bliskość głównych dróg, kolei, lotnisk i działalności przemysłowej zwiększa ryzyko skażenia. Badanie, przeprowadzone w sześciu ogrodach działkowych i społecznych w Warszawie, obejmowało ocenę gleby, a w tym zawartości potencjalnie toksycznych pierwiastków (PTE) metodą spektrofotometryczną, toksyczności gleby i ryzyka zdrowotnego przy użyciu testu OECD 208 oraz metody identyfikacji zagrożeń US EPA, a także ocenę jakości powietrza - zbadano stężenie pyłu PM 2.5 mierzonego na wysokości 1,5 m za pomocą skalibrowanego nefelometru. Wyniki wykazały, że stężenia PTE w glebie pozostawały niskie, a aktywność dehydrogenaz i testy fitotoksyczności nie wykazały efektów toksycznych. Zarówno aktywność mikroorganizmów, jak i wzrost roślin nie były zaburzone przez poziom zanieczyszczenia, co sugeruje, że ogrody te utrzymują zdrowe ekosystemy. Dodatkowo, ocena ryzyka zdrowotnego potwierdziła brak istotnych zagrożeń związanych z kontaktem z glebą ogrodową — zarówno dla dorosłych, jak i dla dzieci. Obniżenie poziomu pyłu PM 2.5 w obrębie ogrodów dodatkowo podkreśla ich rolę jako ochronnych, zielonych przestrzeni. Wyniki te wspierają tezę, że ogrody miejskie, nawet w rejonach narażonych na miejskie emisje zanieczyszczeń, nie stwarzają istotnego zagrożenia dla środowiska ani zdrowia, czyniąc je bezpiecznymi i wartościowymi elementami funkcjonalnej struktury miasta. Badanie przeprowadził zespół naukowców z Politechniki Warszawskiej i SGGW w ramach projektu U-Garden finansowanego przez NCN jako międzynarodowy grant z funduszy JPI Urban Europe ENUTC 2021.

Artykuł:

Land Degradation & Development

Rok wydania:

Autorzy z PW:

Maria Zuzanna Kaczorowska, Damian Derewońko, Maciej Lasocki, Tomasz Dzieduszyński

Evolutionary divergence in CTCF-mediated chromatin topology drives transcriptional innovation in humans

Topologia chromatyny może wpływać na regulację genów, jednak wciąż słabo rozumiemy, w jaki sposób ewolucyjne różnice w strukturze chromatyny ukształtowały krajobrazy regulacji genów, prowadząc do powstania unikalnych cech człowieka. Miejsca wiązania białka CTCF (CCCTC-binding factor) determinują topologię chromatyny poprzez tworzenie domen i pętli. W niniejszej pracy pokazano, że w trakcie ewolucji naczelnych doszło do różnic ewolucyjnych w topologii chromatyny zależnej od CTCF, zarówno w skali domen, jak i pętli, co ujawnia odmienne mechanizmy kształtowania krajobrazów regulacyjnych. Domeny, które uległy rozbieżności specyficznej dla człowieka, prowadzą do szerokiej reorganizacji krajobrazu transkrypcyjnego. Z kolei zróżnicowane pętle CTCF są zgodne z aktywnością enhancerów specyficzną dla gatunku, wpływając na połączenia między enhancerami a genami docelowymi w sposób jednocześnie skoordynowany i ograniczony. W ramach tego skoordynowanego mechanizmu wykazano, że pętle CTCF specyficzne dla człowieka odgrywają istotną rolę w kształtowaniu różnorodności izoform transkryptów, co ma znaczenie funkcjonalne dla podatności na choroby. Dodatkowo potwierdzono funkcję tych pętli CTCF za pomocą organoidów ludzkiego przodomózgowia. Praca ta pogłębia zrozumienie ewolucji genetycznej z perspektywy architektury genomu.

Artykuł:

Nature Communications

Rok wydania:

Autorzy z PW:

Dariusz Plewczyński

Category Adaptation Meets Projected Distillation in Generalized Continual Category Discovery

Uogólnione ciągłe odkrywanie kategorii (GCCD, Generalized Continual Category Discovery) dotyczy procesu uczenia się z kolejno napływających, częściowo oznakowanych zbiorów danych, przy jednoczesnym odkrywaniu nowych kategorii. Tradycyjne metody opierają się na destylacji cech (feature distillation), aby zapobiec zapominaniu wcześniej nabytej wiedzy. Jednak taka strategia ogranicza zdolność modelu do adaptacji i skutecznego rozróżniania nowych kategorii. Aby temu zaradzić, autorzy wprowadzają nowatorską technikę, która łączy uczący się projektor (learnable projector) z procesem destylacji cech, co zwiększa zdolność adaptacji modelu, nie powodując utraty wcześniej przyswojonej wiedzy. Powstałe w ten sposób przesunięcie rozkładu danych dla wcześniej poznanych kategorii jest kompensowane przez pomocniczą sieć adaptacji kategorii (auxiliary category adaptation network). Wyniki pokazują, że chociaż każdy z elementów przynosi niewielkie korzyści samodzielnie, ich połączenie – nazwane CAMP (Category Adaptation Meets Projected distillation) – znacząco poprawia równowagę między uczeniem się nowych informacji a zachowaniem starych. CAMP wykazuje lepszą wydajność w porównaniu z innymi metodami w różnych scenariuszach GCCD i inkrementalnego uczenia się klas (Class Incremental Learning). Kod źródłowy metody jest dostępny w serwisie GitHub.

Książka:

Computer Vision – ECCV 2024, Proceedings, Lecture Notes In Computer Science, vol. XI

Rok wydania:

Autorzy z PW:

Grzegorz Rypeść, Daniel Marczak, Tomasz Trzciński

SVD calibration of inertial sensors

W pracy przedstawiono nową metodę kalibracji czujników inercyjnych (akcelerometrów, żyroskopów, magnetometrów) opartą na odpowiednim przetwarzaniu danych pomiarowych zebranych przy różnym zorientowaniu czujników względem mierzonej wartości wektorowej o stałym module. Zaproponowane podejście, oparte na koncepcji "dekompozycji kształtu i ruchu", pozwala na algebraiczne wyznaczenie kluczowych parametrów kalibracyjnych, w tym błędów zera, współczynników wzmocnienia oraz wzajemnej orientacji osi pomiarowych. Metoda ta skutecznie eliminuje konieczność wcześniejszej znajomości pozycji (orientacji) pomiarowych przez efektywne ich wyznaczanie bezpośrednio z danych pomiarowych, co stanowi istotne ułatwienie procesu kalibracji w praktycznych zastosowaniach. 

Algorytm kalibracji opiera się na dekompozycji według wartości osobliwych (SVD) oraz uogólnionym zagadnieniu wartości własnych. W pracy przedstawiono dowód poprawności algorytmu oraz przeanalizowano jego stabilność numeryczną. Dodatkowo zaprezentowano przykład zastosowania metody do kalibracji cyfrowego kompasu, ilustrując jej praktyczne możliwości. Przedstawione w pracy wyniki symulacji numerycznych potwierdzają skuteczność proponowanego podejścia oraz pozwalają na szczegółową analizę jego właściwości. Efektywność i przydatność opracowanego algorytmu zweryfikowano dodatkowo w eksperymencie przeprowadzonym w warunkach rzeczywistych.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Marek Wojciech Rupniewski

HyTract: Advancing tractography for neurosurgical planning with a hybrid method integrating neural networks and a path search algorithm

Pojawienie się zaawansowanych technik rezonansu magnetycznego (MRI) otworzyło obiecujące możliwości badania złożoności neurofizjologii mózgu, w tym sieci połączeń nerwowych. Bardziej kompleksowe zrozumienie tej sieci dostarcza nieocenionych informacji o podstawowej architekturze strukturalnej i dynamicznych funkcjach ludzkiego mózgu. W konsekwencji, określanie lokalizacji włókien nerwowych, znane jako traktografia, stało się przedmiotem dużego zainteresowania zarówno w badaniach podstawowych, jak i w praktycznych zastosowaniach, takich jak planowanie przedoperacyjne. Niniejsza praca przedstawia nową metodę traktografii, HyTract, skonstruowaną przy użyciu sztucznych sieci neuronowych i algorytmu wyszukiwania ścieżki. Nasze wyniki pokazują, że metoda ta może dokładnie identyfikować lokalizację włókien nerwowych w bliskim sąsiedztwie pola operacyjnego. W porównaniu z dobrze ugruntowanymi metodami, traktografie obliczone przy użyciu HyTract wykazują średnią odległość euklidesową równą 9 lub mniejszą, co wskazuje na dobrą dokładność rekonstrukcji traktów. Co więcej, jej architektura zapewnia możliwość wyjaśnienia uzyskanych traktów i ułatwia ich adaptację do nowych zadań.

Artykuł:

Neural Networks

Rok wydania:

Autorzy z PW:

Ewa Niewiadomska-Szynkiewicz

Engineering Magnetic Anisotropy: The Role of Centrifugal Casting and Magnetic Fields in Strontium Ferrites

Publikacja przedstawia wpływ metody odlewania odśrodkowego w zewnętrznym polu magnetycznym na mikrostrukturę i właściwości magnetycznie twardych ferrytów strontu. Wytwarzano tzw. magnesy wiązane poprzez odlewanie zawiesiny proszku ferrytowego w żywicy epoksydowej oraz magnesy spiekane, gdzie masę lejną stanowiła zawiesina wodna cząstek proszku, a otrzymane kształtki poddawano spiekaniu. Zastosowano proszki o różnej wielkości cząstek, a odlewanie prowadzono przy dwóch różnych szybkościach obrotowych. Dzięki temu określono wpływ tych parametrów na gęstość, mikrostrukturę oraz na orientację cząstek – teksturę krystalograficzną i anizotropię magnetyczną. Stwierdzono, że magnesy wytwarzane z proszku zawierającego głównie małe, jednodomenowe cząstki charakteryzują się większa remanencją w kierunku osi obrotu kształtki. Oznacza to, że cząstki układają się kierunkiem łatwego namagnesowania (osią „c” struktury tetragonalnej) równolegle do osi obrotu. W magnesach zawierających głównie duże, wielodomenowe cząstki proszku obserwowano ukierunkowanie obwodowe tzn. remanencja osiągała największe wartości w kierunku prostopadłym do osi próbki i stycznym do jej powierzchni. Zwiększenie szybkości obrotowej prowadziło do zwiększenia anizotropii właściwości magnetycznych. W magnesach wiązanych występowała silniejsza anizotropia magnetyczna i tekstura krystalograficzna niż w magnesach spiekanych. Badania dowiodły, że odlewanie odśrodkowe w zewnętrznym polu magnetycznym może być skuteczną metodą wytwarzania magnesów spiekanych, a także magnesów wiązanych o strukturze gradientowej i kontrolowanej teksturze.

Artykuł:

Metallurgical and Materials Transactions A-Physical Metallurgy and Materials Science

Rok wydania:

Autorzy z PW:

Marta Lipińska, Tomasz Płociński, Waldemar Kaszuwara, Bartosz Michalski, Justyna Zygmuntowicz

Entropy generation and exergy destruction in transient and compressible steam flow through ISA 1932 measuring nozzle

W systemach pomiarowych, w których strumień masy wyznacza się na podstawie spadku ciśnienia, dotąd rzadko analizowano dokładne straty energii. W naszym badaniu skupiliśmy się na tym, ile entropii powstaje i ile „użytecznej” energii (egzergii) tracimy, gdy przegrzana para przepływa przez dyszę pomiarową typu ISA 1932 przy zadanym strumieniu. Do analizy wykorzystaliśmy podejście oparte na drugiej zasadzie termodynamiki, które pozwala ocenić straty w przepływie ściśliwym i nieustalonym. Zachowanie przepływu obliczyliśmy przy użyciu dwóch modeli turbulencji z rodziny RANS: k-ω SST 2006 i realizowalnego k-ε. Wyniki porównaliśmy z wartościami uzyskanymi wg norm przemysłowych. Za punkt odniesienia przyjęliśmy sytuację niezakłóconego przepływu w rurociągu. Okazało się, że choć oba modele dają podobne wartości strumienia energii, to tempo powstawania entropii i utraty egzergii różni się nawet o 55%. Analiza pokazała, że udział entropii generowanej przez wymianę ciepła jest praktycznie pomijalny w porównaniu z całkowitą ilością entropii. Najwyższe zmierzone tempo powstawania entropii wyniosło 45,33 W/(m·K), a odpowiadające mu tempo utraty egzergii 4 190 W – niemal w całości spowodowane rozpraszaniem lepkościowym. Wyniki te odpowiadają wartościom bezwymiarowej całkowitej generacji entropii dla rozpatrywanej liczby Reynoldsa Re.

Artykuł:

Energy

Rok wydania:

Autorzy z PW:

Krzysztof J. Wołosz

Economic viability of mobile electricity storage facilities serving as an alternative means of electricity sharing by providing time-shifting ancillary service

Zapewnienie warunków do zwiększenia tzw. autokonsumpcji energii – czyli zużywania jej w miejscu produkcji przez odbiorcę końcowego – jest kluczowe, aby zmaksymalizować jego korzyści ekonomiczne, wynikające z posiadania odnawialnych źródeł energii. Jednym z rozwiązań, które pozwalają realizować takie działanie, są magazyny energii elektrycznej. W praktyce jednak pojawia się problem, gdy podmioty mają wiele rozproszonych lokalizacji i chcą zwiększyć autokonsumpcję, jednocześnie nie sprzedając nadwyżek energii do sieci. W takim przypadku trzeba szukać innych sposobów transportu energii między tymi punktami. Jedną z opcji jest wykorzystanie mobilnych magazynów energii elektrycznej. Aby mogły one zastąpić tradycyjną metodę dystrybucji energii (wymagającą sprzedaż nadwyżek do sieci), konieczne jest sprawdzenie, czy takie rozwiązanie ma sens techniczny i ekonomiczny. W artykule zaprezentowano metodykę oceny dziennych kosztów transportu energii między lokalizacjami z wykorzystaniem floty specjalnie zaprojektowanych pojazdów elektrycznych, które przewożą w swojej powierzchni ładunkowej bateryjne mobilne magazyny energii elektrycznej. W pierwszej kolejności zbadano techniczną wykonalność takiej usługi sieciowej, a następnie przeanalizowano opłacalność całego procesu dla dwóch kategorii pojazdów z pojemnością znamionową bateryjnych mobilnych magazynów energii od 24 kWh do 192 kWh. Na podstawie otrzymanych wyników stwierdzono, że możliwe jest świadczenie takiej usługi w formie przesuwania obciążenia w czasie (load time-shifting). Jednak rozwiązanie to zaczyna być opłacalne dopiero przy cenie energii elektrycznej przekraczającej 1,00 EUR/kWh (obecna cena zakupu energii elektrycznej z usługami dystrybucyjnymi wynosi około 0,2 EUR/kWh). Podmiot, który zdecyduje się na takie przenoszenie energii między lokalizacjami, może osiągnąć zysk od 605 EUR aż do 116 000 EUR. Lepsze rezultaty uzyskuje się w scenariuszach, w których wykorzystuje się pojazdy o większym potencjale energetycznym – czyli z większą pojemnością baterii i mniejszą masą urządzeń w torze mocy (przetwornice energoelektroniczne, rozdzielnice, przewody itp.).

Artykuł:

Energy Conversion and Management

Rok wydania:

Autorzy z PW:

Krzysztof Zagrajek 

Learning Permutation Symmetry of a Gaussian Vector with gips in R

Badanie ukrytych struktur w danych jest dużym wyzwaniem we współczesnej statystyce i uczeniu maszynowym. Wprowadzamy pakiet gips w języku R, który identyfikuje symetrie podgrup permutacji w wektorach Gaussowskich. Pakiet gips ma dwa główne cele: analizę eksploracyjną w odkrywaniu ukrytych symetrii permutacyjnych oraz estymację macierzy kowariancji pod warunkiem symetrii permutacyjnej. Jest konkurencyjny w stosunku do kanonicznych metod redukcji wymiarowości, oferując jednocześnie nową interpretację wyników. gips implementuje nowatorską procedurę wyboru modelu Bayesowskiego dla wektorów Gaussowskich, które są niezmiennicze względem podgrupy permutacji, opisanej w pracy Graczyk, Ishi, Kołodziejek i Massam (2022b), The Annals of Statistics, 50 (3) (2022).

Artykuł:

Journal of Statistical Software

Rok wydania:

Autorzy z PW:

Adam Przemysław Chojecki, Bartosz Kołodziejek

Dyscyplina: