Przejdź do treści

Publikacje

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Observation of a resonant structure near the D+ s D− s threshold in the B+ → D+ s D− s K+ decay

Przeprowadzono analizę amplitudy rozpadu B+→Ds+Ds-K+ w celu zbadania po raz pierwszy jego pośrednich udziałów rezonansowych, wykorzystując dane dotyczące zderzeń proton-proton zebrane za pomocą detektora LHCb przy energiach środka masy wynoszących 7, 8, i 13 TeV. W niezmiennym widmie masowym Ds+Ds- obserwuje się strukturę piku bliskiego progu, określaną jako X(3960), z istotnością większą niż 12 odchyleń standardowych. Zmierzone masy, szerokość i liczby kwantowe struktury wynoszą odpowiednio 3956 ± 5 ± 10 MeV, 43 ± 13 ± 8 MeV i JPC = 0++, gdzie pierwsza niepewność ma charakter statystyczny, a druga systematyczny. Właściwości nowej struktury są zgodne z najnowszymi przewidywaniami teoretycznymi dotyczącymi stanu złożonego z kwarków CC¯ss¯. Dowody na dodatkową strukturę znajdują się wokół 4140 MeV w niezmiennej masie Ds+Ds-, co może być spowodowane albo przez nowy rezonans z przypisaniem 0++, albo przez efekt sprzężonego kanału J/ψφ↔Ds+Ds-.

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Rafał Krawczyk

SAR and Orthophoto Image Registration with Simultaneous SAR-based Altitude Measurement for Airborne Navigation Systems

W artykule poruszono dwa istotne zagadnienia związane z wykorzystaniem obrazowania radarowego z syntetyczną aperturą (SAR) do poprawy odporności pokładowych systemów nawigacji na zakłócanie sygnału globalnego systemu pozycjonowania (GPS). Pierwszy związany jest z problemem automatycznego oszacowania korekcji trajektorii na podstawie rejestracji obrazu. Autorzy proponują dedykowaną dla systemów SAR metodę zwaną Cumulative Minimum Square Distance Matching (CMSDM). Pozwala na oszacowanie w czasie rzeczywistym błędu trajektorii systemu nawigacji inercyjnej (INS), a co za tym idzie, umożliwia oszacowanie korekcji w przypadku braku sygnału globalnego systemu nawigacji satelitarnej (GNSS) lub jego zakłócenia. Intensywne badania symulacyjne i przetwarzanie danych w rzeczywistych warunkach wykazały znaczną poprawę i przyspieszenie przetwarzania w porównaniu z najnowocześniejszą techniką. Do prawidłowego działania systemu nawigacji opartego na algorytmie CMSDM konieczna jest dokładna znajomość wysokości platformy powietrznej. W przypadku zakłóconego sygnału GNSS może to nie być możliwe do osiągnięcia tradycyjnymi metodami. Zatem drugim zagadnieniem poruszanym w tym artykule jest szacowanie wysokości platformy pokładowej na podstawie obrazów SAR. Również i w tym przypadku eksperyment wykazał, że zaproponowane rozwiązanie sprawdza się prawidłowo i może stanowić cenne źródło danych nawigacyjnych. 

Artykuł:

IEEE Transactions on Geoscience and Remote Sensing

Rok wydania:

Autorzy z PW:

Artur Gromek, Damian Gromek, Jacek Gambrych, Karol Abratkiewicz, Maciej Wielgo, Piotr Jerzy Samczyński

Fuzzy Cognitive Map-Driven Comprehensive Time-Series Classification

W artykule przedstawiono kompleksowe podejście do klasyfikacji szeregów czasowych. Proponowany model wykorzystuje rozmytą mapę kognitywną (FCM) jako silnik klasyfikacyjny. Wstępnie przetworzone dane wejściowe zasilają zastosowany FCM. Odpowiedzi map, po procedurze postprocessingu, są wykorzystywane do obliczenia ostatecznej decyzji klasyfikacyjnej. Dane szeregów czasowych są przygotowywane przy użyciu techniki ruchomego okna w celu uchwycenia przepływu czasu w procedurze szkoleniowej. Do obliczenia wymaganych parametrów modelu używamy algorytmu wstecznej propagacji błędów. Cztery parametry modelu wymagają dostrojenia. Dla konstrukcji modelu kluczowe są dwa: 1) rozmiar FCM (liczba koncepcji) i 2) rozmiar okna (dla techniki ruchomego okna). Pozostałe dwa są ważne dla uczenia modelu: 1) liczba epok i 2) szybkość uczenia się (dla uczenia). Warto zwrócić uwagę na dwa wyróżniające aspekty proponowanego modelu: 1) oddzielenie silnika klasyfikacyjnego od przetwarzania wstępnego i końcowego oraz 2) przechwytywanie przepływu czasu dla danych z przestrzeni koncepcyjnej. Proponowany klasyfikator łączy w sobie kluczową zaletę modelu FCM, jaką jest interpretowalność modelu, z doskonałą wydajnością klasyfikacji przypisaną specjalnie zaprojektowanym etapom przetwarzania przed i po. W artykule przedstawiono przeprowadzone eksperymenty, które wykazały, że proponowany model dobrze radzi sobie z szeroką gamą najnowocześniejszych algorytmów klasyfikacji szeregów czasowych.

Artykuł:

IEEE Transactions on Cybernetics

Rok wydania:

Autorzy z PW:

Agnieszka Jastrzębska, Władysław Homenda

Zero time waste in pre-trained early exit neural networks

Problem redukcji czasu przetwarzania dużych modeli uczenia głębokiego stanowi fundamentalne wyzwanie w wielu aplikacjach praktycznych. Metody wczesnego wyjścia dążą do tego celu, dodając dodatkowe Klasyfikatory Wewnętrzne (ICs) do warstw pośrednich sieci neuronowej. ICs mogą szybko zwracać prognozy dla prostych przykładów i w rezultacie zmniejszać średni czas wnioskowania całego modelu. Jednakże, jeśli konkretny IC nie zdecyduje się na wcześniejsze zwrócenie odpowiedzi, jego prognozy są odrzucane, a jego obliczenia są efektywnie marnowane. Aby rozwiązać ten problem, wprowadzamy Zero Time Waste (ZTW), nowatorskie podejście, w którym każdy IC ponownie wykorzystuje prognozy zwrócone przez swoich poprzedników poprzez (1) dodanie bezpośrednich połączeń między ICs oraz (2) łączenie poprzednich wyników w sposób zespołowy. Przeprowadzamy obszerne eksperymenty obejmujące różne tryby, zbiory danych i architektury, aby wykazać, że ZTW osiąga znacznie lepszy kompromis między dokładnością, a czasem wnioskowania w porównaniu z innymi metodami wczesnego wyjścia. Na zbiorze danych ImageNet uzyskuje ono lepsze wyniki niż najlepsza metoda bazowa w 11 na 16 przypadków, osiągając nawet do 5 punktów procentowych poprawy przy niskim budżecie obliczeniowym.

Artykuł:

Neural Networks

Rok wydania:

Autorzy z PW:

Tomasz Trzciński, Filip Szatkowski

BERTrand—peptide:TCR binding prediction using Bidirectional Encoder Representations from Transformers augmented with random TCR pairing

Pojawienie się eksperymentów sekwencjonowania receptora komórek T (TCR) umożliwiło znaczący wzrost dostępnych danych dotyczących wiązania peptydów z TCR, dzięki modelom uczenia maszynowego. Wysokiej jakości modele predykcyjne dla stałej sekwencji epitopu są możliwe, o ile dostępne są wystarczające ilości znanych sekwencji TCR wiążących się z peptydem. Jednak ich wydajność znacząco spada dla wcześniej niewidzianych peptydów. W ramach badania przygotowano zbiór danych znanych wiązań peptydów z TCR i zwiększono go o negatywne odchylenia utworzone z repertuarów limfocytów T dawców zdrowych. Wykorzystano metody głębokiego uczenia powszechnie stosowane w Przetwarzaniu Języka Naturalnego, aby wytrenować część modelu predykcyjnego wiązania peptydów z TCR z stopniem uogólnienia między-peptydowego (0,69 AUROC). Wyniki wskazują, że BERTrand przewyższa opublikowane metody podczas oceny sekwencji peptydów, które nie były używane podczas trenowania modelu.

Artykuł:

Bioinformatics

Rok wydania:

Autorzy z PW:

Dariusz Plewczyński, Oleksandr Myronov

cudaMMC: GPU-enhanced multiscale Monte Carlo chromatin 3D modelling

Badanie struktury 3D chromatyny dostarcza nowych wglądów w regulację transkrypcyjną. Wraz z rozwojem metod sekwencjonowania następnej generacji 3C, takich jak ChiA-PET i Hi-C, wzrost wolumenu danych podkreślił potrzebę bardziej efektywnych algorytmów modelowania przestrzennego chromatyny. W niniejszym badaniu przedstawiono metodę cudaMMC, opartą na podejściu Monte Carlo z symulowanym wyżarzaniem i wzbogaconą o obliczenia przyspieszane przez GPU, aby efektywnie generować zespoły struktur 3D chromatyny.

Obliczenia cudaMMC wykazują znacznie szybszą wydajność przy lepszej stabilności w porównaniu z naszą wcześniejszą metodą na tym samym stanowisku roboczym. cudaMMC znacząco redukuje również czas obliczeń wymagany do generowania zespołów dużych modeli chromatyny, co czyni go niezastąpionym narzędziem do badania przestrzennego ukształtowania chromatyny.

Oprogramowanie open-source, instrukcje obsługi oraz przykładowe dane są dostępne bezpłatnie na https://github.com/SFGLab/cudaMMC.


 

Artykuł:

Bioinformatics

Rok wydania:

Autorzy z PW:

Dariusz Plewczyński, Krzysztof Kaczmarski, Michał Własnowolski, Damian Roszczyk, Pawel Grabowski

SurvSHAP(t): Time-dependent explanations of machine learning survival models

Modele przetrwania oparte na uczeniu maszynowym i głębokim uczeniu wykazują podobne lub nawet lepsze zdolności przewidywania czasu zdarzenia w porównaniu z klasycznymi metodami uczenia statystycznego, ale są zbyt złożone, aby mogły być interpretowane przez ludzi. Istnieje kilka dostępnych wyjaśnień modeli agnostycznych wobec modelu, aby przezwyciężyć ten problem; jednak żadne z nich nie wyjaśnia bezpośrednio przewidywania funkcji przetrwania. W niniejszej pracy wprowadzamy SurvSHAP(t), pierwsze wyjaśnienie zależne od czasu, które umożliwia interpretację czarnych skrzynek modeli przetrwania. Jest oparte na SHapley Additive exPlanations z solidnymi podstawami teoretycznymi i szerokim uznaniem wśród praktyków uczenia maszynowego. Proponowane metody mają na celu zwiększenie precyzji diagnostyki i wsparcie ekspertów dziedzinowych w podejmowaniu decyzji. Eksperymenty na danych syntetycznych i medycznych potwierdzają, że SurvSHAP(t) może wykrywać zmienne z efektem zależnym od czasu, a jego agregacja jest lepszym wyznacznikiem ważności zmiennych dla przewidywania niż SurvLIME. SurvSHAP(t) jest agnostyczny względem modelu i może być stosowany do wszystkich modeli z funkcjonalnym wyjściem. Zapewniamy dostępną implementację wyjaśnień zależnych od czasu w języku Python pod adresem https://github.com/MI2DataLab/survshap.

Artykuł:

Knowledge-Based Systems

Rok wydania:

Autorzy z PW:

Przemysław Biecek, Mateusz Krzyziński, Mikołaj Spytek, Hubert Baniecki 

Evaluation of machine learning methods for impostor detection in web applications

Zastosowanie metod uczenia maszynowego (ML) w wieloczynnikowej autoryzacji staje się coraz popularniejsze. Jednakże w literaturze brakuje wszechstronnej metodologii oceny systemów biometrycznych opartych na uczeniu maszynowym. Niniejsza praca proponuje ogólną metodologię oceny systemów opartych na ML w zakresie rozpoznawania/wykrywania oszustów za pomocą cech biometrycznych. Obejmuje to tworzenie zbiorów uczących i testowych z odpowiednim równowagą wielkości (proporcji) między tymi zbiorami, wybór liczby instancji pochodzących od różnych użytkowników, ocenę wpływu liczby oszustów na ich wskaźnik wykrywalności oraz wpływ liczby rekordów reprezentujących zachowanie użytkownika. Ponadto proponujemy, w jaki sposób rzeczywiste dane (ewentualnie dotknięte próbami przejęcia konta) mogą być wykorzystane do rozszerzenia danych rejestracyjnych w celu wsparcia wykrywania oszustów. Proponowane podejście zostało wykorzystane do systematycznej porównania szerokiego zakresu metod ML i statystycznych.

Artykuł:

Expert Systems with Applications

Rok wydania:

Autorzy z PW:

Jacek Mańdziuk, Maciej Grzenda, Marcin Luckner, Stanisław Kaźmierczak

Training Novel Adaptive Fuzzy Cognitive Map by Knowledge-Guidance Learning Mechanism for Large-Scale Time-Series Forecasting

Fuzzy Cognitive Map (FCM) to model reprezentacji wiedzy oparty na grafach, w którym połączenia węzłów (krawędzie) reprezentują zależności przyczynowo-skutkowe między elementami wiedzy związanymi z węzłami.

W artykule proponujemy nową metodę uczenia do szkolenia FCM, prowadzącą do adaptacyjnego FCM składającego się z kilku pod-FCM-ów. Może on wybierać różne pod-FCM-y w różnych momentach. W scenariuszu aktywnego przetwarzania, w którym mamy do czynienia z dużym szeregiem czasowym, w którym nowe dane są ciągle generowane, model prognozowania zbudowany na starych danych powinien być aktualizowany, gdy pojawiają się nowe dane. Ponadto, ponowne szkolenie FCM od podstaw wiąże się z zwiększaniem obciążenia obliczeniowego, co staje się poważną przeszkodą w wielu praktycznych scenariuszach. Aby przezwyciężyć wspomniane wyżej wady, niniejsze badanie oferuje oryginalne ustawienie projektowe, w którym FCM jest aktualizowany za pomocą mechanizmu uczenia opartego na wiedzy po raz pierwszy. W porównaniu z istniejącymi klasycznymi modelami prognozowania, proponowany model wykazuje wyższą dokładność i efektywność. Jego zwiększona wydajność jest demonstrowana poprzez serię zgłoszonych badań eksperymentalnych.

Artykuł:

IEEE Transactions on Cybernetics

Rok wydania:

Autorzy z PW:

Agnieszka Jastrzębska, Władysław Homenda

Lossless Clamp Circuit with Turn-off Voltage and Current Reduction in High Step-up DC/DC Converter with Coupled Inductor

Praca dotyczy przetwornika prądu stałego (DC-DC) PWM o wysokiej gęstości mocy, wysokim wzmocnieniu napięcia i miękkim przełączaniu z wykorzystaniem indukcyjności zaciekłej jako przetwornik do źródeł niskonapięciowych w systemach generacji energii. Indukcyjność rozproszenia jest włączona do rezonansowego obwodu, co zmniejsza liczbę komponentów. Zastosowanie kondensatora podwyższającego połączonego szeregowo z uzwojeniami wtórnymi cewki z zaczepem powoduje duże wzmocnienie napięcia przy niskim współczynniku zwoju sprzężonej cewki. Poprzez zastosowanie rezonansowego obwodu spustowego, nie tylko tłumione są skoki napięcia na tranzystorze, ale uzyskuje się także miękkie przełączanie tranzystora oraz wyłączanie diod przy zerowym prądzie. Praca w trybie rezonansowym prowadzi do niskich strat mocy w przełącznikach, zapewniając wysoką sprawność w szerokim zakresie mocy wyjściowej. Dzięki miękkiemu przełączaniu tranzystor może być sterowany wysoką częstotliwością, co umożliwia skonsolidowany projekt przetwornika o wysokiej gęstości mocy. Zasady działania przetwornika zostały również przeanalizowane teoretycznie. Ostatecznie, przetwornik został zweryfikowany za pomocą modelu laboratoryjnego o mocy 300 W i częstotliwości przełączania 200 kHz.

Artykuł:

IEEE Transactions on Power Electronics

Rok wydania:

Autorzy z PW:

Michał Harasimczuk, Rafał Kopac

Phase-assisted multi-material two-photon polymerization for extended refractive index range

Polimeryzacja dwufotonowa (TPP) to technika druku 3D umożliwiająca wytwarzanie struktur w skali submikrometrycznej. Prawie bez ograniczeń kształtu, funkcjonalność konstrukcji jest definiowana głównie przez żywicę produkcyjną stosowaną w procesie utwardzania.

W artykule przedstawiono nowatorską wielomateriałową procedurę TPP opartą na metodzie obrazowania fazowego równania transportu intensywności w celach wyrównania. Proponowana metoda wykorzystuje sprzęt już obecny w większości konfiguracji produkcyjnych TPP, zapewniając kompletne i bezpłatne rozwiązanie do produkcji wielu materiałów. W rezultacie niedokładność położenia sięga mniej niż 0,5 μm. W celach demonstracyjnych projektowana, wytwarzana i weryfikowana jest konstrukcja wielomateriałowa pod względem geometrii i dokładności rozkładu współczynnika załamania światła. Wielomateriałowy obiekt jest wykonany z dwóch polimerów w dwóch cyklach rozwojowych, skutecznie rozszerzając dostępny zakres współczynnika załamania światła.


 

Artykuł:

Additive Manufacturing

Rok wydania:

Autorzy z PW:

Arkadiusz Kuś, Emilia Wdowiak, Juan Martinez-Carranza, Michał Ziemczonok

Boron-doped diamond nanosheet volume-enriched screen-printed carbon electrodes: a platform for electroanalytical and impedimetric biosensor applications

Artykuł skupia się na opracowaniu nowej elektrody opartej na boron-doped diamond nanosheet full-volume-enriched screen-printed carbon electrodes (BDDPE) do zastosowania jako impedancyjny biosensor. Badanie przedstawia dwuetapowy proces modyfikacji obejmujący elektroredukcję soli diazoniowej na BDDPE i immobilizację przeciwciał za pomocą krzyżujących się łączników o zerowej długości dla selektywnego impedancyjnego biosensora Haemophilus influenzae (Hi). Wprowadzenie diamond nanosheets do BDDPE prowadzi do zwiększonego transferu ładunku i zachowania elektrochemicznego, co wykazuje znacznie poprawioną powierzchnię elektrochemicznie aktywną w porównaniu z niezmodyfikowanymi ekranowanymi elektrodami drukowanymi (średnio o 44% i 10% dla [Ru(NH3)6]Cl2 i K3[Fe(CN)6], odpowiednio). Przedstawiony system detekcji wykazuje wysoką swoistość wobec białka D w bakteriach Hi, co potwierdzono przez negatywne kontrole przeciwko potencjalnym zakłóceniom z innych patogenów, z oszacowanym limitem tolerancji na zakłócenia poniżej 12%. Granica detekcji Hi za pomocą spektroskopii impedancyjnej wynosiła 1 CFU/mL (zmierzona przy − 0.13 V w stosunku do pseudo-odniesienia BDDPE), co osiągnięto w ciągu poniżej 10 min, włączając w to 5-minutowe inkubowanie próbki w obecności analitu.

Artykuł:

Microchimica Acta

Rok wydania:

Autorzy z PW:

Monika Janik