Przejdź do treści
Na zdjęciu kobieta stojąca przy półce z książkami i trzymająca książkę

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Multilabel all-relevant feature selection using lower bounds of conditional mutual information

W pracy rozważamy problem wyboru wszystkich istotnych zmiennych w zadaniu klasyfikacji wielo-etykietowej. Zadanie to jest bardziej ogólne niż problem wyboru minimalnego optymalnego zbioru zmiennych, gdzie zadaniem jest identyfikacja najmniejszego możliwego podzbioru zmiennych, który umożliwia predykcje etykiet. W rozpatrywanym przez nas podejściu, celem jest identyfikacja wszystkich atrybutów powiązanych ze zmiennymi celu. Jest to ważny problem w takich dziedzinach jak medycyna czy bioinformatyka. W artykule opisano formalnie problem wyboru wszystkich cech w kontekście klasyfikacji wieloetykietowej, stosując podejście teorio-informacyjne. Zaproponowano miarę istotności cech oraz efektywną metodę jej obliczania, opartą na dolnym oszacowaniu warunkowej informacji wzajemnej. Kolejnym praktycznym wyzwaniem było oddzielenie cech istotnych od nieistotnych. W tym celu zaproponowano procedurę testowania opartą na schemacie permutacyjnym. Ocena empiryczna metod identyfikacji wszystkich istotnych cech wymaga specyficznego podejścia. W badaniach uwzględniono szeroki zakres symulowanych zbiorów danych reprezentujących różne struktury zależności i zawierających różne typy interakcji. Wyniki eksperymentów na symulowanych zbiorach danych oraz dużej bazie klinicznej pokazują, że zaproponowana metoda skutecznie identyfikuje istotne cechy.

Artykuł:

Expert Systems with Applications

Rok wydania:

Autorzy z PW:

Paweł Roman Teisseyre

Robust two-dimensional PCANet with F-norm distance metric

Sieć PCANet jest uproszczoną wersją splotowej sieci neuronowej (CNN). Wykorzystuje ona model głębokiego uczenia w podprzestrzeniach. Typowe filtry PCA używają kwadratowej normy Frobeniusa jako miary odległości stosowanej w procesie uczenia. W związku z tym wykazują one dużą czułość na odstające wartości danych. Typowa sieć PCANet napotyka trudności w wyodrębnianiu informacji strukturalnych wzdłuż wierszy i kolumn cyfrowej reprezentacji obrazów, bowiem filtry muszą być uprzednio zwektoryzowane. Aby rozwiązać te problemy zaproponowano bardziej odporną, dwukierunkową, dwuwymiarową wersję PCANet (RBDPCANet), w której filtry wykorzystują zmodyfikowaną odległość łagodzącą negatywny wpływ wartości odstających na wynik analiz porównawczych obrazów. Dodatkowo, w funkcji celu uwzględnia się jednocześnie związek między błędami rekonstrukcji a odległościami projekcji. Po krótkim opisie koncepcji PCANet oraz przedstawienia związanych z poruszoną tematyką prac, opisano metodologię generowania trzech jąder splotowych w postaci algorytmów RBDPCANet-1, RBDPCANet-2 i RBDPCANet-3. Te jądra buduje się iteracyjnie, są one odpowiednie do implementacji numerycznych. Każdy z trzech algorytmów używa innej funkcji celu w procesie optymalizacji. Pokazano, że w zadaniach rozpoznawania obrazów, opracowane metody charakteryzują się lepszą odpornością na szumy w porównaniu z klasycznym podejściem PCANet. Wykazano poprawność formalną opracowanych metod oraz wykazano odporność algorytmów na obroty obrazów. Skuteczność zaproponowanej metodologii została zweryfikowana z wykorzystaniem obrazów pochodzących z publicznie dostępnych zbiorów danych. Obszerne wyniki eksperymentalne wykazały, że zaproponowane algorytmy RBDPCANet nie tylko znacząco poprawiają efektywność klasyfikacji obrazów, ale również charakteryzują się silną odpornością na  przesłonięcia, zmiany oświetlenia, zmiany orientacji itp. 

Artykuł:

Knowledge-Based Systems

Rok wydania:

Autorzy z PW:

Teresa Zielińska

Transition to detonation in hydrogen-air mixtures due to shock focusing in a 3-wall 90-deg corner

W pracy przedstawiono eksperymentalne badania przejścia do detonacji spowodowanego skupieniem fali uderzeniowej w reflektorze - narożu trójściennym o kącie 90° pomiędzy ścianami w mieszaninach wodoru i powietrza (17.5–60% H2) będących początkowo w temperaturze 298 K i ciśnieniu 1 bar. Reflektor umieszczono po jednej stronie rury o długości 2 m i średnicy wewnętrznej 0,14 m. Druga strona rury była wyposażona w źródło zapłonu oraz sekcję przyspieszania płomienia. Fala uderzeniowa docierała do reflektora z prędkością w zakresie 580–970 m/s, a reflektor został umieszczony symetrycznie względem osi rury. Badania wykazały, że przejście do detonacji spowodowane skupieniem fali uderzeniowej silnie zależy od jej prędkości i może być zainicjowane w mieszaninie stechiometrycznej przy prędkości fali uderzeniowej VS= 605 m/s, co odpowiada liczbie Macha M=1,485, czyli 59,9% prędkości dźwięku w produktach spalania. Opóźnienie zapłonu zarejestrowane podczas przejścia do detonacji wynosiło rzędu kilku mikrosekund. Zakres detonacyjności zarejestrowany dla reflektora trójściennego wynosił 15–70% H2 w powietrzu, w porównaniu do zakresu 18–59% H2 obserwowanego w badaniach z reflektorze klinowym o kącie ścian 90° przy tych samych warunkach początkowych. Dodatkowo współczynnik skalowania krytycznej prędkości fali uderzeniowej między oboma typami reflektorów był niemal stały i wynosił 0,84 w całym badanym zakresie mieszanin. Wysoka zdolność skupiająca trójściennego reflektora została potwierdzona przez minimalne ciśnienie przejścia do detonacji zarejestrowane w jego wierzchołku, wynoszące 8,95 MPa w mieszaninie stechiometrycznej. Wartość ta odpowiada niemal 17-krotnemu wzrostowi ciśnienia w porównaniu do warunków za prostopadle odbitą falą uderzeniową. Rozważając skupienie fali uderzeniowej jako główny mechanizm inicjacji detonacji, przedstawione wyniki mogą wyjaśniać różnice w granicach detonacyjności obserwowanych w kanałach z przeszkodami i dla eksperymentów w dużej skali.

Artykuł:

Proceedings of the Combustion Institute

Rok wydania:

Autorzy z PW:

Wojciech Rudy

Printer toner-assisted immobilization of antibodies on PET for genuinely-2D, flexible ELISA spot arrays

Opracowana przez nas technologia laserowego nadruku na przezroczystej folii z poli(tereftalanu etylenu) (PET) do immobilizacji przeciwciał wspomaganej tonerem została po raz pierwszy wykorzystana do wytwarzania dwuwymiarowych matryc na potrzeby wysokoprzepustowej analizy ELISA. W pracy przedstawiono dwa protokoły szybkiego wytwarzania jedno- i wielowarstwowych podłoży immunoenzymatycznych o kontrolowanej przestrzennie zwilżalności. Obejmują one kluczowe etapy: (I) nadruk laserowy (ang. Printing), (II) powierzchniowe utlenianie ozonem generowanym poprzez naświetlanie UV (ang. Irradiation) oraz (III) ultradźwiękowe usuwanie tonera (ang. Delamination) (PID). 

Badanie wykazało, że toner laserowy może być skutecznym i łatwo usuwalnym środkiem ochronnym folii PET przed trwałą hydrofilizacją spowodowaną promieniowaniem UV. Aby potwierdzić skuteczność i możliwości analityczne tej nowatorskiej platformy immunosensorycznej, jako model wybrano pośredni test immunoenzymatyczny typu kanapkowego do oznaczania ludzkiego białka C-reaktywnego (hCRP). Otrzymano zakres dynamiczny obejmujący poziomy CRP od 10 ng∙mL⁻¹ do 5,62 µg∙mL⁻¹, z granicą wykrywalności wynoszącą 0,656 ng∙mL⁻¹, a także doskonałe odzyski sygnału w surowicy ludzkiej (97,3–104,5%), co potwierdza kliniczną przydatność testu w analizie próbek rzeczywistych. 

Dzięki prostocie projektu i wytwarzania, wykorzystaniu łatwo dostępnych materiałów oraz możliwości skalowania, zaprezentowane metody mogą być z powodzeniem stosowane w produkcji podłoży do wysokoprzepustowej immunodiagnostyki oraz elastycznej mikrofluidyki w technologii Lab-on-a-Foil

Artykuł:

Sensors and Actuators B - Chemical

Rok wydania:

Autorzy z PW:

Marcin Drozd, Kamil Żukowski, Katarzyna Tokarska, Mariusz Pietrzak, Zbigniew Brzózka, Elżbieta Malinowska

Common-leg Coupled Inductor Configuration in a Three-level Interleaved DC-DC Medium Voltage SiC-based Converter

Artykuł proponuje i bada alternatywną konfigurację dławików sprzężonych w trójpoziomowym, dwugałęziowym przekształtniku DC-DC. Nowa struktura dławików sprzężonych w ramach jednej gałęzi przekształtnika jest przeanalizowana teoretycznie pod kątem możliwych metod modulacji, koncentrując się na wpływie na tętnienia prądu, straty mocy i zakłócenia zaburzeń wspólnych. Koncepcję zweryfikowano za pomocą dwukierunkowego przekształtnika średniego napięcia na bazie technologii SiC, dedykowanego dla aplikacji magazynowania energii w dwubiegunowej stacji ładowania pojazdów elektrycznych, testowanego przy napięciu do 1 kV i mocy 10 kW.

Badania porównawcze wykazały, że proponowana metoda charakteryzuje się mniejszą objętością w porównaniu z tradycyjnym podejściem wykorzystującym kilka pojedynczych dławików, porównywalnymi parametrami pracy, ale prostszą konstrukcją dławika niż w innych rozwiązaniach z dławikiem sprzężonym. Dodatkowo umożliwia pełną kontrolę prądu w każdej sekcji, co nie jest możliwe w przypadku pojedynczych dławików. Co więcej, zastosowanie proponowanej techniki pozwala całkowicie ograniczyć zakłócenia zaburzeń wspólnych, minimalizując tym samym potrzebę stosowania dodatkowych filtrów.

Podsumowując, proponowana konfiguracja dławika może być skutecznie i konkurencyjnie wykorzystywana w nowoczesnych, trójpoziomowych przekształtnikach DC-DC opartych na technologii SiC.

Artykuł:

IEEE Transactions on Power Electronics

Rok wydania:

Autorzy z PW:

Rafał Kopacz, Rafał Miśkiewicz, Jacek Rąbkowski

Backpropagation through time learning for recurrence-aware long-term cognitive networks

Rozmyta mapa kognitywna (ang. Fuzzy Cognitive Map, FCM) i wywodzące się od niej modele mają ugruntowaną pozycję w dziedzinie uczenia maszynowego. Jednym z rozszerzeń modelu FCM jest niedawno wprowadzony model r-LTCN (ang. Recurrence-aware Long-term Cognitive Network). Został on zaprojektowany do zadania regresji wielokryterialnej. Jest to płytka rekurencyjna sieć neuronowa, w której wszystkie neurony odpowiadające kolejnym punktom w czasie są połączone z warstwą decyzyjną. r-LTCN wykorzystuje specjalną regułę wnioskującą. W odróżnieniu do sposobu działania prostego modelu FCM, reguła w modelu r-LTCN pozwala uniknąć problemów związanych ze zbieżnością algorytmu. Opublikowany artykuł przedstawia zmodyfikowany algorytm uczenia oparty o wsteczną propagację błędu w czasie (ang. backpropagation through time, BPTT). Jest on przeznaczony do trenowania modeli r-LTCN do zadań regresji wielokryterialnej.

Artykuł:

Knowledge-Based Systems

Rok wydania:

Autorzy z PW:

Agnieszka Jastrzębska

High Performance Tensegrity - Inspired Metamaterials and Structures

W odpowiedzi na obecne trendy w rozwoju nowych materiałów i konstrukcji, niniejszy tom bada koncepcję metamateriałów i metastruktur o ekstremalnych właściwościach mechanicznych, inspirowanych systemami tensegrity.

Koncepcja materiałów ekstremalnych jest tutaj stosowana do komórkowych siatek tensegrity w różnych skalach. Struktury tensegrity posiadają liczne zalety: są lekkie, mają wysoki stosunek sztywności do masy, są podatne na sterowanie, mogą być stosowane w inteligentnych i adaptacyjnych systemach oraz wykazują nietypowe właściwości mechaniczne. Przedstawione w książce badania skupiają się na strukturach tensegrity, których wewnętrzna architektura przypomina struktury komórkowe metamateriałów, ale które są przeznaczone do zastosowań w inżynierii lądowej w skalach niemateriałowych. Zaproponowana jest metodologia badania ekstremalnych właściwości mechanicznych takich struktur, oparta na podejściach dyskretnych i kontynualnych, obejmująca także dyskusję na temat efektów skali. Dowiedziono, że podobnie jak metamateriały oparte na tensegrity, metastruktury tensegrity mogą wykazywać ekstremalne właściwości mechaniczne.

Książka ta jest skierowana do badaczy i naukowców pracujących nad metamateriałami i systemami tensegrity, rozwijających rozwiązania do absorpcji energii w przemyśle budowlanym i transportowym. Wyniki opisane w tej monografii mogą być również użyteczne w innych dziedzinach nauk stosowanych, takich jak inżynieria lądowa, robotyka i inżynieria materiałowa.

Książka:

High Performance Tensegrity - Inspired Metamaterials and Structures, wyd. Taylor & Francis Group

Rok wydania:

Autorzy z PW:

Anna Al Sabouni-Zawadzka

Using the Random Forest-Based Research Method for Prioritizing Project Stakeholders

To studium przypadku dotyczy wyzwań związanych z priorytetyzacją interesariuszy projektów z wykorzystaniem metody badawczej bazującej na lasach losowych (Random Forest-Based Research Method - RFRM). Ze względu na złożoność projektów oraz ograniczenia czasowe i zasobowe, do przeprowadzenia priorytetyzacji niezbędne są skuteczne narzędzia i metody. Nowe metody badawcze, które można wykorzystać do wykonywania takich zadań, są ważne dla rozwoju badań w dziedzinie zarządzania i ewaluacji projektów. Wśród nowych technik analizy danych, które warto rozważyć przy opracowywaniu i wdrażaniu metod badawczych, znajdują się rozwiązania oparte na algorytmach losowego lasu zaliczanych do uczenia maszynowego. Wyzwania z tym związane odnoszą się w szczególności do możliwości przeprowadzania obiektywnej oceny modeli losowego lasu zbudowanych dla potrzeb RFRM oraz wykorzystywanych do określania priorytetów interesariuszy przy zastosowaniu analiz dużych empirycznych zbiorów danych. Opracowanie tego rodzaju narzędzi ma kluczowe znaczenie dla dalszego rozwoju metod badawczych.

Książka:

Using the Random Forest-Based Research Method for Prioritizing Project Stakeholders, wyd. SAGE Publications

Rok wydania:

Autorzy z PW:

Tadeusz A. Grzeszczyk

Measurements of Groomed-Jet Substructure of Charm Jets Tagged by D0 Mesons in Proton-Proton Collisions at s=13  TeV

Zrozumienie roli masy partonu i czynników koloru Casimira w kaskadzie partonowej chromodynamiki kwantowej stanowi istotny krok w charakteryzacji właściwości emisyjnych ciężkich kwarków. Ostatnie postępy eksperymentalne w technikach substruktury jetów umożliwiły wyodrębnienie i scharakteryzowanie emisji gluonów z ciężkich kwarków. W tej pracy przedstawiono pierwsze bezpośrednie eksperymentalne ograniczenie na funkcję podziału kwarków typu charm, uzyskane poprzez pomiar uciętego współczynnika współdzielenia pędu pierwszego podziału w jetach typu charm, oznaczonych przez odtworzony mezon D0. Pomiar przeprowadzono w zderzeniach proton-proton przy √𝑠=13 TeV, w niskim przedziale poprzecznego pędu jetu od 15 do 30 GeV/c, gdzie właściwości emisyjne są wrażliwe na efekty masy partonu. Ponadto, podano kąt otwarcia pierwszej emisji perturbacyjnej kwarka typu charm, a także liczbę emisji perturbacyjnych, których doświadcza. Porównania do pomiarów próbki jetów inkluzywnych pokazują większą funkcję podziału dla kwarków typu charm w porównaniu do gluonów i kwarków lekkich. Kwarki typu charm również doświadczają mniejszej liczby emisji perturbacyjnych w kaskadzie partonowej, co skutkuje zmniejszonym prawdopodobieństwem emisji pod dużymi kątami.

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Deja Kamil, Łukasz Graczykowski, Monika Jakubowska, Małgorzata Janik, Maja Karwowska, Adam Kisiel, Georgy Kornakov, Julian Myrcha, Janusz Oleniacz, Rokita Przemysław, Trzciński Tomasz

Measurement of the lifetime and Λ separation energy of 3ΛH

Najdokładniejsze dotychczasowe pomiary czasu życia HΛ3, czyli trójcząstki HΛ3, oraz energii separacji Λ, oznaczanej BΛ, uzyskano, korzystając z danych ze zderzeń Pb-Pb przy sNN=5.02 TeV zebranych przez ALICE przy LHC. HΛ3 został zrekonstruowany poprzez jego rozpad na dwa naładowane ciała mezonowe (HΛ3→He3+π- oraz proces sprzężony ładunkowo). Zmierzone wartości czasu życia τ=[253±11(stat)±6(syst)] ps i energii separacji BΛ=[102±63(stat)±67(syst)] keV zgadzają się z przewidywaniami teorii pól efektywnych i potwierdzają, że struktura HΛ3 jest zgodna z układem słabo związanym.

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Deja Kamil, Łukasz Graczykowski, Monika Jakubowska, Małgorzata Janik, Maja Karwowska, Adam Kisiel, Georgy Kornakov, Julian Myrcha, Janusz Oleniacz, Rokita Przemysław, Trzciński Tomasz

 

First Measurement of Antideuteron Number Fluctuations at Energies Available at the Large Hadron Collider

Przedstawiono pierwsze pomiary fluktuacji liczby antydeuteronów zdarzenie po zdarzeniu w zderzeniach ciężkich jonów o wysokiej energii. Pomiar wykonano w pobliżu środka rapidograficznego (|?|<0.8) jako funkcji centralności zderzenia w zderzeniach Pb-Pb przy sNN=5.02 TeV, korzystając z detektora ALICE. Zaobserwowano istotną ujemną korelację między wyprodukowanymi antyprotonami i antydeuteronami we wszystkich centralnościach zderzenia. Wyniki porównano z obliczeniami koalescencji najnowszej generacji. Choć opisuje on stosunek wielokrotnych kumulantów dystrybucji liczby antydeuteronów, nie potrafi on dokładnie opisać magnitudy korelacji między produkcją antyprotonów i antydeuteronów. Z drugiej strony obliczenia modelu termostatystycznego opisują wszystkie zmierzone obserwable w granicach niepewności tylko dla wielkości korelacji, które różnią się od tych opisujących wydajności protonów i podobny pomiar fluktuacji liczby netto-protonów.

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Rokita Przemysław, Deja Kamil, Trzciński Tomasz, Łukasz Graczykowski, Małgorzata Janik, Maja Karwowska, Adam Kisiel, Georgy Kornakov, Julian Myrcha, Janusz Oleniacz, 

Approximating Fair Division on D-Claw-Free Graphs

W pracy bada się problem sprawiedliwej alokacji niepodzielnych dóbr, które tworzą graf, a części grafu, które są rozdzielane między agentów, są spójnymi podgrafami tego grafu. W pracy skoncentrowano się na dwóch kryteriach sprawiedliwości: tzw. kryterium maksiminimalnym oraz kryterium proporcjonalności. Wiadomo, że alokacje spełniające te kryteria mogą nie istnieć dla wielu grafów, w tym dla grafów pełnych i cykli. Naturalne jest więc poszukiwanie alokacji przybliżonych czyli alokacji gwarantujących każdemu agentowi określoną część satysfakcjonującej go wartości. W pracy pokazano, że jeśli graf dóbr nie zawiera gwiazdy o d+1 krawędziach (gdzie d > 1) jako indukowanego podgrafu, to istnieje alokacja przypisująca każdemu agentowi spójną część grafu wartości co najmniej 1/d satysfakcjonującej go wartości w kryterium maksiminimalnym. Aby udowodnić to twierdzenie, pokazano pewien rezultat dotyczący aproksymacji proporcjonalnych alokacji i twierdzenie o redukcji dla dziedzicznych klas grafów, które mogą mieć znaczenie w pokazaniu innych wyników w tej dziedzinie.

Materiał konferencyjny:

Elkind Edith (red.): Proceedings of the Thirty-Second International Joint Conference on Artificial Intelligence, Macao, SAR, 19-25 August 2023, 2023, International Joint Conferences on Artificial Intelligence

Rok wydania:

Autorzy z PW:

Zbigniew Lonc

Dyscyplina: