Przejdź do treści

Publikacje

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Search for New Resonances Decaying to Pairs of Merged Diphotons in Proton-Proton Collisions at s=13  TeV

Przedstawiono wyniki poszukiwań rozszerzonego sektora Higgsa z dwiema nowymi cząstkami, X i ϕ, w procesie X→ϕϕ→(γγ)(γγ). Zastosowano nowatorskie sieci neuronowe do klasyfikacji zdarzeń zawierających połączone pary fotonów (dwufotonów) oraz do wyznaczania mas dwufotonów. Analiza opiera się na danych ze zderzeń proton–proton przy energii √s = 13 TeV zarejestrowanych detektorem CMS, odpowiadających skumulowanej świetlności 138 fb⁻¹. Nie zaobserwowano sygnałów wskazujących na istnienie takich rezonansów. Ustalono górne ograniczenia na przekrój czynny produkcji dla mas mₓ w zakresie 300–3000 GeV oraz stosunku mϕ/mₓ od 0,5% do 2,5%, co stanowi najczulsze dotychczas poszukiwania w tym kanale.

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Krzysztof Poźniak, Wojciech Zabołotny 

AlCoCrFeNiTi0.2 High-Entropy Alloy Under Plasma Nitriding: Complex Microstructure Transformation, Mechanical and Tribological Enhancement

W niniejszej pracy stop o wysokiej entropii AlCoCrFeNiTi₀.₂ (HEA) poddano azotowaniu plazmowemu w celu zbadania mikrostruktury i właściwości mechanicznych wysokoentropowych azotków tworzących się w warstwie wierzchniej materiału. Pomiary XRD ujawniły przemianę strukturalną BCC → FCC, z jednoczesnym zanikiem fazy σ i pojawieniem się heksagonalnego azotku glinu. Dalsze badania próbek po azotowaniu, obejmujące SEM, EDS i EBSD, wykazały segregację pierwiastków do wielu faz FCC o zbliżonych stałych sieci, takich jak azotek o strukturze typu NaCl — (AlCrCoFeNiTi₀.₂)N — będący azotkiem wysokiej entropii. Obserwacje te są zgodne z analizą teoretyczną opartą na obliczeniach KKR-CPA. Proces azotowania plazmowego prowadził również do powstania wysokiej porowatości powierzchniowej, jednak badania ściskania mikrowież i nanoindentacji wykazały obecność zlokalizowanych obszarów o znacznie podwyższonej twardości. Zaobserwowano także istotne obniżenie współczynnika tarcia. Wyniki te nie tylko pogłębiają wiedzę na temat procesu azotowania złożonych stopów, takich jak dwufazowe HEA, ale także wskazują na potencjał wykorzystania wysokoentropowych azotków wytwarzanych metodą azotowania w produkcji supertwardych warstw wierzchnich, co może znacząco poprawić właściwości mechaniczne materiałów przeznaczonych do pracy w wymagających warunkach.

Artykuł:

Metallurgical and Materials Transactions A-Physical Metallurgy and Materials Science

Rok wydania:

Autorzy z PW:

Mateusz Włoczewski, Krzysztof Kulikowski, Dariusz Jarząbek 

Search for Fractionally Charged Particles in Proton-Proton Collisions at √𝑠=13  TeV

Przedstawiono wyniki poszukiwań cząstek o ułamkowym ładunku elektrycznym, czyli posiadających ładunek mniejszy niż 1 𝑒. Kluczowym parametrem do wykrycia sygnału był niewielki ubytek energii rejestrowany w detektorze śledzącym. Analizowany zbiór danych odpowiada całkowitej świetlności zintegrowanej 138 fb⁻¹ zebranej podczas zderzeń proton–proton przy energii √𝑠=13 TeV w latach 2016–2018 w ośrodku CERN LHC. Jest to pierwsze badanie w LHC, które poszukuje nowych cząstek o ładunku pomiędzy 𝑒/3 a 0,9 𝑒, obejmujące także rozszerzenie wcześniejszych wyników dla ładunku 2 𝑒/3. 

Na podstawie analizy wykluczono na poziomie ufności 95% istnienie takich cząstek o masach do 640 GeV i ładunkach tak małych jak 𝑒/3. Wyniki stanowią najbardziej rygorystyczne ograniczenia uzyskane do tej pory dla rozpatrywanego trybu produkcji typu Drell–Yan. 

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Krzysztof Poźniak, Wojciech Zabołotny 

Modelling and identification of hysteresis of Vacuum Packed Particles Torsional Damper

W niniejszej pracy przedstawiono modelowanie i identyfikację zachowania histerezowego w tłumiku drgań skrętnych wykorzystującym pakowany próżniowo granulat (VPPTD, Vacuum Packed Particles Torsional Damper). Tłumik wypełniony został granulatem polimerowym z ABS (akrylonitryl-butadien-styrenu). Opisywane urządzenie należy do grupy innowacyjnych tłumików półaktywnych, charakteryzujących się możliwością regulacji tłumienia w czasie rzeczywistym. Przeprowadzono serię eksperymentów mających na celu zbadanie odpowiedzi tłumika w różnych warunkach obciążenia i poziomie podciśnienia. Do opisu nieliniowych właściwości histerezowych tłumika zastosowano zmodyfikowany model Bouc–Wena (MB-W, Modified Bouc–Wen). Parametry tego modelu zostały zidentyfikowane na podstawie danych eksperymentalnych przy użyciu algorytmu ewolucyjnego. Zidentyfikowane parametry zmodyfikowanego modelu Bouc–Wena opisano jako funkcje podciśnienia. Zaproponowany model został zweryfikowany eksperymentalnie, potwierdzając jego skuteczność w przewidywaniu zachowania histerezowego tłumika w różnych warunkach pracy. Praca ta stanowi wkład w lepsze zrozumienie i modelowanie złożonych nieliniowości występujących w tłumikach opartych na próżniowo pakowanych granulatach (VPPs, Vacuum Packed Particles).

Artykuł:

Journal of Sound and Vibration

Rok wydania:

Autorzy z PW:

Dominik Rodak, Mateusz Żurawski, Mariusz Pyrz, Robert Zalewski 

New developments and future prospects in commercial tool condition monitoring systems

Rosnące zapotrzebowanie na automatyzację procesów obróbkowych, wynikające ze wzrostu kosztów pracy oraz zaostrzających się wymagań jakościowych, sprawia, że monitorowanie procesów staje się nieodzownym elementem nowoczesnej produkcji. Znaczna liczba prac badawczych została poświęcona zagadnieniu monitorowania stanu narzędzia skrawającego (TCM – Tool Condition Monitoring), czego wyrazem jest stały napływ publikacji prezentujących nowe rozwiązania w tym zakresie. Jednocześnie, pomimo szerokiej dostępności komercyjnych systemów monitorowania stanu narzędzi (TCMS – Tool Condition Monitoring Systems) i wdrożenia części z nich w przemyśle, opracowania przeglądowe i porównawcze tych systemów pozostają nieliczne.

Celem artykułu jest wypełnienie tej luki poprzez przedstawienie aktualnego stanu i perspektyw rozwoju komercyjnych systemów TCMS. W pierwszej części omówiono główne założenia i funkcje tych systemów, a następnie szczegółowo zaprezentowano rozwiązania dostępne na rynku. Osobne sekcje poświęcono problemom technicznym związanym z czujnikami stosowanymi w systemach TCMS oraz analizie skuteczności stosowanych strategii monitorowania. Szczególną uwagę zwrócono na lukę pomiędzy rozwiązaniami komercyjnymi a systemami opisywanymi w literaturze naukowej.

W artykule przeanalizowano również potencjalne kierunki rozwoju TCMS, obejmujące postęp w technologiach czujnikowych, metodach ekstrakcji cech sygnałów oraz tworzeniu modeli sztucznej inteligencji opartych na dużych zbiorach danych gromadzonych w środowisku przemysłowego Internetu Rzeczy (IIoT). Przewiduje się, że rozwój tych obszarów przyczyni się do zbliżenia rozwiązań laboratoryjnych do praktycznych zastosowań przemysłowych.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Joanna Kossakowska-Skajster, Krzysztof Jemielniak 

Advancements in DNA Tagging and Storage: Techniques, Applications, and Future Implications

Technologie oparte na DNA, wykorzystywane do uwierzytelniania przedmiotów i przechowywania danych, stają się ciekawą alternatywą dla klasycznych systemów identyfikacji, jednak ich praktyczne zastosowanie wciąż napotyka poważne przeszkody techniczne i kosztowe. W artykule przeanalizowano istniejące metody znakowania i zapisu informacji w DNA, porównując ich możliwości, opłacalność i przydatność w realnych warunkach. Autorzy pokazują, że zastosowania te mają zupełnie odmienne wymagania, przez co nie da się stworzyć jednej uniwersalnej technologii – znakowanie przedmiotów wymaga innych rozwiązań niż przechowywanie danych. W przypadku znakowania DNA największym problemem są bardzo wysokie koszty (od 1 do nawet 100 dolarów za pojedynczą weryfikację, podczas gdy istniejące technologie kosztują zaledwie 1–10 centów) oraz długi czas odczytu (od 30 minut do ponad 6 godzin zamiast natychmiastowego wyniku). Z tego powodu takie metody mają sens jedynie w niszowych zastosowaniach, np. zabezpieczeniach leków czy towarów luksusowych. Dodatkowo wiele komercyjnych rozwiązań nie zostało opisanych w recenzowanych publikacjach, co utrudnia ocenę ich faktycznej skuteczności. Spośród obecnych technologii największy potencjał mają metody izotermicznego powielania DNA (LAMP, RPA) połączone z wykrywaniem kolorymetrycznym, które mogą sprawdzić się w terenie, natomiast do przechowywania danych najlepiej nadają się platformy sekwencjonowania Illumina. Brak standardów i wspólnych wytycznych ogranicza jednak rozwój obu obszarów, utrudnia kompatybilność i sprzyja nieudokumentowanym deklaracjom skuteczności. Autorzy podkreślają, że pełne wdrożenie takich technologii wymaga odejścia od prób konkurowania z obecnymi systemami pod względem ceny i szybkości i skoncentrowania się na aplikacjach, w których DNA może stanowić dodatkową warstwę zabezpieczeń, uzupełniając istniejące metody identyfikacji.

Artykuł:

Wiley Interdisciplinary Reviews-Computational Molecular Science

Rok wydania:

Autorzy z PW:

Wojciech Mazurczyk

Adaptive fixturing of non-rigid workpieces for coordinate measurements

Nowoczesna metrologia wielkości geometrycznych polega na zastosowaniu współrzędnościowych systemów pomiarowych, które ulegają ciągłej ewolucji i dopasowują się do rosnących potrzeb w zakresie kontroli jakości przemysłowych procesów wytwórczych, szczególnie w przemyśle precyzyjnym, lotniczym i motoryzacyjnym. Obecnie współrzędnościowa technika pomiarowa pozwala na szybkie wyznaczanie wymiarów, odchyłek kształtu i położenia części maszyn o często skomplikowanej, przestrzennej konstrukcji.

Dokładność pomiarów skomplikowanych geometrycznie części maszyn i urządzeń zależy od wielu czynników. Jednym z nich, a często pomijanym w rachunku błędów, jest odkształcalność elementu mierzonego spowodowana mocowaniem podczas pomiaru. Dotyczy to w szczególności elementów o małej sztywności. 

W artykule przedstawiono nową metodę mocowania przedmiotu mierzonego, która polega na zastosowaniu aktywnych podpór oraz algorytmu wyznaczającego ich optymalne rozmieszczenie oraz reakcję mocowania. W celu eksperymentalnego potwierdzenia skuteczności zaproponowanego podejścia zaprezentowano badania doświadczalne oraz symulacyjne. Zastosowanie opracowanego adaptacyjnego mocowania pozwoliło na ośmiokrotne zmniejszenie błędu związanego z oddziaływaniem grawitacji na przedmioty mierzone. Metoda jest w pełni skalowalna i może być stosowana również w przypadku przedmiotów o różnych wymiarach i kształtach.

Artykuł:

Precision Engineering-Journal of the International Societies for Precisionengineering and Nanotechnology

Rok wydania:

Autorzy z PW:

Adam Woźniak

Magnesium-hemp concrete is less vapor-permeable than lime-hemp concrete while the cup method is still problematic

Cement magnezowy tlenochlorkowy (CMT) stanowi alternatywne, rzadziej stosowane spoiwo do biokompozytów konopnych, oferujące wyższą wytrzymałość mechaniczną w porównaniu z tradycyjnym spoiwem wapiennym. Jednak właściwości wilgotnościowe kompozytów konopnych zawierających CMT były dotychczas badane jedynie w ograniczonym zakresie. W niniejszej pracy przedstawiono badania eksperymentalne porównujące paroprzepuszczalność betonów konopnych ze spoiwami magnezowymi i wapiennymi, dostarczając cennych informacji zarówno o ich właściwościach związanych z transportem wilgoci, jak i o zastosowanej metodzie pomiarowej. Materiały te budzą szczególne zainteresowanie ze względu na bardziej zrównoważony charakter i niższy ślad środowiskowy w porównaniu z tradycyjnymi betonami, cegłami i zaprawami. Wyniki pokazują, że paroprzepuszczalność betonów konopnych wiązanych spoiwem magnezowym jest zbliżona do przepuszczalności płyt gipsowo-kartonowych, natomiast betony konopne wiązane wapnem charakteryzują się dwukrotnie większą przepuszczalnością. Pomiary transportu pary wodnej pozwoliły również na krytyczną ocenę powszechnie stosowanej metody naczynia (miseczkowej). Badania wykazały, że dla analizowanych materiałów warunki określone w normie ISO 12572:2016 nie zostały w pełni spełnione. Szczególnie w naczyniach suchych, gdzie sorbenty powinny zapewniać wilgotność względną (RH) bliską zeru, zmierzone wartości mieściły się w zakresie 10–30 %. Wykazano przy tym, że chlorek wapnia zapewniał lepsze warunki osuszania (10–20 % RH) niż żel krzemionkowy (15–30 % RH).

Artykuł:

Building and Environment

Rok wydania:

Autorzy z PW:

Piotr Łapka, Łukasz Cieślikiewicz, Karol Pietrak 

 

 

Phonon anharmonicity and thermal expansion in two-dimensional graphene/MoS2 and graphene/WS2 heterostructures: DFT and Raman study

Anharmoniczność jest kluczową cechą wszelkich ciał stałych, która przejawia się zależnością częstotliwości drgań ich atomów od maksymalnych wychyleń. Z praktycznego punktu widzenia ma to istotny wpływ na zjawiska fizyczne w ciałach stałych takie jak ich rozszerzalność termiczna, a także zależna od temperatury przewodność cieplna. W tej pracy kompleksowo zbadano anharmoniczność fononów (tj. elementarnych drgań sieci krystalicznej) w dwuwymiarowych, jednowarstwowych strukturach MoS₂, WS₂ oraz w ich heterostrukturach z dodatkiem warstwy grafenu, wykorzystując do tego celu zaawansowane obliczenia ab-initio (z pierwszych zasad) i spektroskopię Ramana. Przedstawione podejście teoretyczne pozwala wyjątkowo dokładnie przewidzieć częstotliwości fononów w tych układach oraz ich zależności temperaturowe, a uzyskane wyniki są bardzo dobrze zgodne z danymi eksperymentalnymi. Dodatkowo w przypadku heterostruktur wykazano, że wielkość siły tarcia między jej poszczególnymi warstwami ma istotny wpływ na rozszerzalność termiczną całej struktury, prowadząc do nawet dziesięciokrotnej różnicy rozszerzalności wzdłuż warstwy w temperaturze pokojowej. Ponadto ujawniono istotny wpływ tzw. oddziaływań czterofononowych na zależność temperaturową fononów - odpowiadają one za około jedną trzecią całkowitej zmienności częstotliwości fononów ω w funkcji temperatury (wyrażonej jako współczynnik dω/dT) w jednowarstwowych materiałach MoS₂ i WS₂, mimo że czynnik ten był powszechnie pomijany w dotychczasowych pracach teoretycznych. Efekt ten zmienia się zauważalnie, gdy jednowarstwowe struktury zostaną przykryte dodatkową warstwą grafenu (tworząc heterostruktury) - w połączeniu z istotną zmianą rozszerzalności termicznej może to spłaszczyć całkowite nachylenia zmienności temperaturowej dω/dT nawet o 20%. Nasza praca wprowadza nowatorskie podejście do obliczania anharmoniczności fononów w złożonych, wielowarstwowych strukturach dwuwymiarowych, które może również wspomóc wyznaczanie ich makroskopowych właściwości termicznych.

Artykuł:

Acta Materialia

Rok wydania:

Autorzy z PW:

Konrad Wilczyński, Arkadiusz P. Gertych, Mariusz Zdrojek

Dyscyplina:

Torque Control of a Highly-Saturated IPMSM Drive Using the Flux Linkage Control Scheme and an Augmented-State-Feedback Controller

Jakość sterowania momentem obrotowym jest bardzo ważna w układach napędowych, szczególnie w zastosowaniach motoryzacyjnych. W połączeniu z maksymalizacją momentu stanowi ona pożądaną cechę, która zapewnia efektywną energetycznie pracę całego układu napędowego. W maszynach projektowanych z myślą o wysokiej gęstości mocy pojawiają się zjawiska nasycenia własnego i skrośnego, które – jeśli nie zostaną uwzględnione – prowadzą do pogorszenia jakości sterowania momentem oraz ogólnych charakterystyk pracy napędu. W odpowiedzi na ten problem artykuł proponuje nowe podejście do sterowania momentem silnika synchronicznego o zanurzonych magnesach trwałych (IPMSM), oparte na regulatorze ze sprzężeniem od rozszerzonego wektora stanu (ASFC) z regulacją strumieni skojarzonych z uzwojeniami. W przeciwieństwie do klasycznych układów regulacji prądu opartych na regulatorach PI, proponowane rozwiązanie umożliwia uproszczenie modelu matematycznego obiektu regulacji. Dzięki temu możliwe jest zastosowanie stacjonarnego i liniowego regulatora o stałych parametrach. Przedstawiono model matematyczny badanego silnika (Toyota Prius czwartej generacji) wraz z procedurą maksymalizacji momentu. Omówiono szczegółowo strukturę ASFC i sposób jego syntezy. Wyniki eksperymentalne potwierdzają doskonałą jakość śledzenia zadanego momentu oraz szerokie pasmo przenoszenia układu regulacji momentu uzyskane dzięki proponowanemu regulatorowi ASFC.

Artykuł:

IEEE Transactions on Industrial Electronics

Rok wydania:

Autorzy z PW:

Michał Gierczyński, Łukasz Jan Niewiara, Rafał Jakubowski, Mirosław Seredyński, Maciej Jaworski, Emil Kupiec, Lech Grzesiak 

Estimating the limit state space of quasi-nonlinear Fuzzy Cognitive Maps

Quasi-nieliniowe rozmyte mapy kognitywne (q-FCM) uogólniają klasyczne rozmyte mapy kognitywne (FCM) poprzez wprowadzenie współczynnika nieliniowości kontrolującego zbieżność modelu. Chociaż konfiguracja q-FCM może zapobiegać powstawaniu unikalnych atraktorów punktowych, wiedza na temat zachowania dynamicznego pozostaje ograniczona. W niniejszej pracy proponujemy dwa iteracyjne algorytmy umożliwiające oszacowanie przestrzeni stanów granicznych dowolnego modelu q-FCM. Algorytmy te wyznaczają precyzyjne dolne i górne ograniczenia wartości aktywacji poszczególnych węzłów mapy w każdej iteracji, bez wykorzystywania informacji o warunkach początkowych. W efekcie można określić, które wartości aktywacji nigdy nie zostaną przyjęte przez dany węzeł mapy, niezależnie od warunków początkowych. Ponadto algorytmy te mogą pomóc w ocenie, czy klasyczny model FCM zbiegnie do unikalnego atraktora punktowego. Drugim wynikiem przedstawionym w pracy jest wykazanie, że pokrycie stanów węzłów w sieci maleje wraz ze zbliżaniem się współczynnika nieliniowości do jego maksymalnej wartości. Równocześnie duże wartości pokrycia nie muszą przekładać się na lepsze zdolności aproksymacyjne, zwłaszcza w przypadku problemów nieliniowych. Wynik ten wskazuje na istnienie kompromisu pomiędzy nieliniowością modelu a liczbą osiągalnych stanów.

Artykuł:

Applied Soft Computing

Rok wydania:

Autorzy z PW:

Agnieszka Jastrzębska 

Macroeconomic nowcasting (st)ability: Evidence from vintages of time-series data

Nowcasting to zadanie analizy szeregów czasowych, którego celem jest prognozowanie bieżącego stanu obserwowanego zjawiska. Jest ono kluczowe w przypadku złożonych systemów, w których uzyskanie natychmiastowych pomiarów jest trudne lub niemożliwe. Wiodącą dziedziną opierającą się na algorytmach nowcastingu to makroekonomia. W przypadku danych makroekonomicznych elementem szczególnie odróżniającym nowcasting od innych zastosowań prognostycznych jest struktura zbioru informacji, znana jako data vintage. Odnosi się ona do sposobu publikacji danych - początkowo udostępnianych jako wartości wstępne, a następnie stopniowo korygowanych. Rewizje te zwiększają trudność analizy, ponieważ mogą powodować zmiany w dynamice i interakcjach między zmiennymi. W pracy analizujemy zjawisko substitution bias, które występuje, gdy specyfikacje modeli oparte na różnych vintages tego samego szeregu czasowego różnią się, prowadząc do odmiennych wyników prognoz. Wykazujemy empirycznie, że prognozowanie w trybie pseudo-real-time nie jest substytutem prognozowania w rzeczywistym czasie. W przeciwieństwie do innych badań wykorzystujących obserwacje z aktualnych vintages jako zamiennik danych real-time, nasze wyniki wskazują, że to nie dane pseudo-real-time, lecz dane wstępne mogą stanowić dobrą alternatywę, gdy bieżące wydania danych nie są dostępne lub są trudne do pozyskania. Wnioskujemy, że wybór metody predykcji powinien zależeć od tego, czy celem jest prognoza wczesnego, czy późniejszego wydania danych. W tym kontekście dopasowanie statusu rewizji zestawów treningowych i ewaluacyjnych prowadzi do istotnego wzrostu dokładności i redukcji błędów prognozy. Metody real-time są zasadniczo preferowane, gdy prognozowane mają być wartości wstępne. Ma to duże znaczenie w praktyce, ponieważ terminowość jest dla uczestników rynku ważniejsza niż całkowita eliminacja obciążenia. Z kolei metody pseudo-real-time są bardziej odpowiednie do prognozowania danych po późniejszych rewizjach, charakteryzujących się mniejszym błędem systematycznym; sprawdzają się lepiej tam, gdzie ograniczanie szumu jest ważniejsze niż utrzymywanie przepływu danych w czasie rzeczywistym. Obszerne studium przypadku z zakresu danych makroekonomicznych potwierdza tę tezę. Przyjmując, że wczesne publikacje reprezentują rzeczywiste wartości zmiennej objaśnianej, modele trenowane na danych real-time osiągają współczynnik korelacji rang Spearmana równy 0,9511 (±0,0332) oraz współczynnik korelacji Pearsona 0,9528 (±0,0622). Modele trenowane na danych wstępnych uzyskują bardzo zbliżone wyniki: Spearman 0,952 (±0,029) oraz Pearson 0,9488 (±0,0638). Natomiast modele oparte na danych z aktualnych vintages wypadają nieco słabiej, osiągając odpowiednio 0,9046 (±0,1047) dla korelacji rang Spearmana i 0,876 (±0,1607) dla korelacji Pearsona.

Artykuł:

Expert Systems with Applications

Rok wydania:

Autorzy z PW:

Elżbieta Jowik, Agnieszka Jastrzębska