Przejdź do treści
Na zdjęciu kobieta stojąca przy półce z książkami i trzymająca książkę

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

High Performance Tensegrity - Inspired Metamaterials and Structures

W odpowiedzi na obecne trendy w rozwoju nowych materiałów i konstrukcji, niniejszy tom bada koncepcję metamateriałów i metastruktur o ekstremalnych właściwościach mechanicznych, inspirowanych systemami tensegrity.

Koncepcja materiałów ekstremalnych jest tutaj stosowana do komórkowych siatek tensegrity w różnych skalach. Struktury tensegrity posiadają liczne zalety: są lekkie, mają wysoki stosunek sztywności do masy, są podatne na sterowanie, mogą być stosowane w inteligentnych i adaptacyjnych systemach oraz wykazują nietypowe właściwości mechaniczne. Przedstawione w książce badania skupiają się na strukturach tensegrity, których wewnętrzna architektura przypomina struktury komórkowe metamateriałów, ale które są przeznaczone do zastosowań w inżynierii lądowej w skalach niemateriałowych. Zaproponowana jest metodologia badania ekstremalnych właściwości mechanicznych takich struktur, oparta na podejściach dyskretnych i kontynualnych, obejmująca także dyskusję na temat efektów skali. Dowiedziono, że podobnie jak metamateriały oparte na tensegrity, metastruktury tensegrity mogą wykazywać ekstremalne właściwości mechaniczne.

Książka ta jest skierowana do badaczy i naukowców pracujących nad metamateriałami i systemami tensegrity, rozwijających rozwiązania do absorpcji energii w przemyśle budowlanym i transportowym. Wyniki opisane w tej monografii mogą być również użyteczne w innych dziedzinach nauk stosowanych, takich jak inżynieria lądowa, robotyka i inżynieria materiałowa.

Książka:

High Performance Tensegrity - Inspired Metamaterials and Structures, wyd. Taylor & Francis Group

Rok wydania:

Autorzy z PW:

Anna Al Sabouni-Zawadzka

Using the Random Forest-Based Research Method for Prioritizing Project Stakeholders

To studium przypadku dotyczy wyzwań związanych z priorytetyzacją interesariuszy projektów z wykorzystaniem metody badawczej bazującej na lasach losowych (Random Forest-Based Research Method - RFRM). Ze względu na złożoność projektów oraz ograniczenia czasowe i zasobowe, do przeprowadzenia priorytetyzacji niezbędne są skuteczne narzędzia i metody. Nowe metody badawcze, które można wykorzystać do wykonywania takich zadań, są ważne dla rozwoju badań w dziedzinie zarządzania i ewaluacji projektów. Wśród nowych technik analizy danych, które warto rozważyć przy opracowywaniu i wdrażaniu metod badawczych, znajdują się rozwiązania oparte na algorytmach losowego lasu zaliczanych do uczenia maszynowego. Wyzwania z tym związane odnoszą się w szczególności do możliwości przeprowadzania obiektywnej oceny modeli losowego lasu zbudowanych dla potrzeb RFRM oraz wykorzystywanych do określania priorytetów interesariuszy przy zastosowaniu analiz dużych empirycznych zbiorów danych. Opracowanie tego rodzaju narzędzi ma kluczowe znaczenie dla dalszego rozwoju metod badawczych.

Książka:

Using the Random Forest-Based Research Method for Prioritizing Project Stakeholders, wyd. SAGE Publications

Rok wydania:

Autorzy z PW:

Tadeusz A. Grzeszczyk

Measurements of Groomed-Jet Substructure of Charm Jets Tagged by D0 Mesons in Proton-Proton Collisions at s=13  TeV

Zrozumienie roli masy partonu i czynników koloru Casimira w kaskadzie partonowej chromodynamiki kwantowej stanowi istotny krok w charakteryzacji właściwości emisyjnych ciężkich kwarków. Ostatnie postępy eksperymentalne w technikach substruktury jetów umożliwiły wyodrębnienie i scharakteryzowanie emisji gluonów z ciężkich kwarków. W tej pracy przedstawiono pierwsze bezpośrednie eksperymentalne ograniczenie na funkcję podziału kwarków typu charm, uzyskane poprzez pomiar uciętego współczynnika współdzielenia pędu pierwszego podziału w jetach typu charm, oznaczonych przez odtworzony mezon D0. Pomiar przeprowadzono w zderzeniach proton-proton przy √𝑠=13 TeV, w niskim przedziale poprzecznego pędu jetu od 15 do 30 GeV/c, gdzie właściwości emisyjne są wrażliwe na efekty masy partonu. Ponadto, podano kąt otwarcia pierwszej emisji perturbacyjnej kwarka typu charm, a także liczbę emisji perturbacyjnych, których doświadcza. Porównania do pomiarów próbki jetów inkluzywnych pokazują większą funkcję podziału dla kwarków typu charm w porównaniu do gluonów i kwarków lekkich. Kwarki typu charm również doświadczają mniejszej liczby emisji perturbacyjnych w kaskadzie partonowej, co skutkuje zmniejszonym prawdopodobieństwem emisji pod dużymi kątami.

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Deja Kamil, Łukasz Graczykowski, Monika Jakubowska, Małgorzata Janik, Maja Karwowska, Adam Kisiel, Georgy Kornakov, Julian Myrcha, Janusz Oleniacz, Rokita Przemysław, Trzciński Tomasz

Measurement of the lifetime and Λ separation energy of 3ΛH

Najdokładniejsze dotychczasowe pomiary czasu życia HΛ3, czyli trójcząstki HΛ3, oraz energii separacji Λ, oznaczanej BΛ, uzyskano, korzystając z danych ze zderzeń Pb-Pb przy sNN=5.02 TeV zebranych przez ALICE przy LHC. HΛ3 został zrekonstruowany poprzez jego rozpad na dwa naładowane ciała mezonowe (HΛ3→He3+π- oraz proces sprzężony ładunkowo). Zmierzone wartości czasu życia τ=[253±11(stat)±6(syst)] ps i energii separacji BΛ=[102±63(stat)±67(syst)] keV zgadzają się z przewidywaniami teorii pól efektywnych i potwierdzają, że struktura HΛ3 jest zgodna z układem słabo związanym.

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Deja Kamil, Łukasz Graczykowski, Monika Jakubowska, Małgorzata Janik, Maja Karwowska, Adam Kisiel, Georgy Kornakov, Julian Myrcha, Janusz Oleniacz, Rokita Przemysław, Trzciński Tomasz

 

First Measurement of Antideuteron Number Fluctuations at Energies Available at the Large Hadron Collider

Przedstawiono pierwsze pomiary fluktuacji liczby antydeuteronów zdarzenie po zdarzeniu w zderzeniach ciężkich jonów o wysokiej energii. Pomiar wykonano w pobliżu środka rapidograficznego (|?|<0.8) jako funkcji centralności zderzenia w zderzeniach Pb-Pb przy sNN=5.02 TeV, korzystając z detektora ALICE. Zaobserwowano istotną ujemną korelację między wyprodukowanymi antyprotonami i antydeuteronami we wszystkich centralnościach zderzenia. Wyniki porównano z obliczeniami koalescencji najnowszej generacji. Choć opisuje on stosunek wielokrotnych kumulantów dystrybucji liczby antydeuteronów, nie potrafi on dokładnie opisać magnitudy korelacji między produkcją antyprotonów i antydeuteronów. Z drugiej strony obliczenia modelu termostatystycznego opisują wszystkie zmierzone obserwable w granicach niepewności tylko dla wielkości korelacji, które różnią się od tych opisujących wydajności protonów i podobny pomiar fluktuacji liczby netto-protonów.

Artykuł:

Physical Review Letters

Rok wydania:

Autorzy z PW:

Rokita Przemysław, Deja Kamil, Trzciński Tomasz, Łukasz Graczykowski, Małgorzata Janik, Maja Karwowska, Adam Kisiel, Georgy Kornakov, Julian Myrcha, Janusz Oleniacz, 

Approximating Fair Division on D-Claw-Free Graphs

W pracy bada się problem sprawiedliwej alokacji niepodzielnych dóbr, które tworzą graf, a części grafu, które są rozdzielane między agentów, są spójnymi podgrafami tego grafu. W pracy skoncentrowano się na dwóch kryteriach sprawiedliwości: tzw. kryterium maksiminimalnym oraz kryterium proporcjonalności. Wiadomo, że alokacje spełniające te kryteria mogą nie istnieć dla wielu grafów, w tym dla grafów pełnych i cykli. Naturalne jest więc poszukiwanie alokacji przybliżonych czyli alokacji gwarantujących każdemu agentowi określoną część satysfakcjonującej go wartości. W pracy pokazano, że jeśli graf dóbr nie zawiera gwiazdy o d+1 krawędziach (gdzie d > 1) jako indukowanego podgrafu, to istnieje alokacja przypisująca każdemu agentowi spójną część grafu wartości co najmniej 1/d satysfakcjonującej go wartości w kryterium maksiminimalnym. Aby udowodnić to twierdzenie, pokazano pewien rezultat dotyczący aproksymacji proporcjonalnych alokacji i twierdzenie o redukcji dla dziedzicznych klas grafów, które mogą mieć znaczenie w pokazaniu innych wyników w tej dziedzinie.

Materiał konferencyjny:

Elkind Edith (red.): Proceedings of the Thirty-Second International Joint Conference on Artificial Intelligence, Macao, SAR, 19-25 August 2023, 2023, International Joint Conferences on Artificial Intelligence

Rok wydania:

Autorzy z PW:

Zbigniew Lonc

Dyscyplina:

Document Understanding Dataset and Evaluation (DUDE)

Pragniemy ponownej oceny obecnych metodologii i podjęcia wyzwania, jakim jest stworzenie bardziej praktycznych metod porównań w domenie Rozumienia Dokumentów. Zbiór i metodologia DUDE ma na celu postawienie nowych wyzwań w zakresie zrozumienia Dokumentów Bogatych Wizualnie. Przedstawiamy zbiór danych z nowymi rodzajami pytań, odpowiedzi i układem dokumentów w oparciu o wielobranżowe, wielodomenowe i wielostronicowe Dokumenty Bogate Wizualnie o różnym pochodzeniu i dacie. Co więcej, przesuwamy granice obecnych metod, tworząc wielozadaniowe i wielodomenowe konfiguracje ewaluacji, które dokładniej symulują rzeczywiste sytuacje, w których pożądane są silne uogólnienia i adaptacje w warunkach niskich zasobów. DUDE ma na celu ustanowienie nowego standardu jako bardziej praktycznego, długotrwałego punktu odniesienia dla społeczności i mamy nadzieję, że doprowadzi to do przyszłych rozszerzeń i wkładu, które odpowiadają na wyzwania świata rzeczywistego. Na koniec nasza praca pokazuje, jak ważne jest znalezienie skuteczniejszych sposobów modelowania języka, obrazów i układu w Rozumieniu Dokumentów.

Materiał konferencyjny:

2023 IEEE/CVF International Conference on Computer Vision - ICCV 2023. Proceedings, 2023, Institute of Electrical and Electronics Engineers

Rok wydania:

Autorzy z PW:

Paweł Józiak

Dyscyplina:

Wastewater Treatment with the Fenton Process. Principles and Applications

Obecność trudno rozkładalnych związków organicznych w ściekach stanowi globalny problem. Procesy pogłębionego utleniania, w tym proces Fentona, są alternatywnymi technologiami stosowanymi do oczyszczania ścieków i wody. Książka ta przedstawia podstawy teoretyczne procesu Fentona, omawia główne czynniki wpływające na skuteczność tej technologii, obejmuje aplikacje, obliczenia kinetyczne i termodynamiczne oraz prezentuje przegląd możliwości prowadzenia procesu w sposób heterokatalityczny. Pokazuje, że heterogeniczny proces Fentona prowadzony z zastosowaniem różnych związków żelaza, w tym nanocząstkek, jako nowatorskie kompleksowe rozwiązanie jest wysoce efektywny, przyjazny dla środowiska i może być odpowiedni do oczyszczania ścieków komunalnych oraz przemysłowych.

Tematyka:

  • Szczegółowy opis heterogenicznego procesu Fentona i jego zastosowań
  • Analiza zalet i wad różnych dostępnych katalizatorów oraz ich przydatności do konkretnych procesów
  • Analiza ekonomiczna procesu Fentona w pakiecie gotowym do użycia dla praktyków przemysłowych, do adaptacji do już istniejących technologii przemysłowych
  • Promocja nowoczesnego rozwiązania problemu degradacji niebezpiecznych związków poprzez ekologiczne i przyjazne dla środowiska procesy oraz zastosowanie katalizatora, który może być poddany recyklingowi
  • Wyjaśnienie skomplikowanych danych w zrozumiały i przyjazny dla czytelnika sposób

Książka jest przeznaczona dla profesjonalistów, naukowców, studentów wyższych lat studiów licencjackich i magisterskich w dziedzinie inżynierii środowiska, nauki o materiałach, chemii oraz dla osób zajmujących się zarządzaniem ściekami.

Książka:

Wastewater Treatment with the Fenton Process. Principles and Applications, Taylor & Francis Group

Rok wydania:

Autorzy z PW:

Dominika Bury, Michał Jakubczak, Jan Bogacki, Piotr Marcinowski, Agnieszka Jastrzębska

Active Visual Exploration Based on Attention-Map Entropy

Aktywne eksplorowanie wzrokowe rozwiązuje problem ograniczonych możliwości sensorów w rzeczywistych scenariuszach, gdzie kolejne obserwacje są aktywnie wybierane na podstawie otoczenia. Aby poradzić sobie z tym problemem, wprowadzamy nową technikę o nazwie Entropia Mapy Uwagi (AME). Wykorzystuje ona wewnętrzną niepewność modelu opartego na transformatorach do określenia najbardziej informatywnych obserwacji. W przeciwieństwie do istniejących rozwiązań, nie wymaga dodatkowych składników funkcji straty, co upraszcza proces treningu. Poprzez eksperymenty, które naśladują sensory podobne do siatkówki oka, pokazujemy, że taki uproszczony trening znacząco poprawia wyniki rekonstrukcji, segmentacji i klasyfikacji na dostępnych publicznie zbiorach danych.

Materiał konferencyjny:

Elkind Edith (red.): Proceedings of the Thirty-Second International Joint Conference on Artificial Intelligence, Macao, SAR, 19-25 August 2023, 2023, International Joint Conferences on Artificial Intelligence

Rok wydania:

Autorzy z PW:

Tomasz Trzciński

Adapt Your Teacher: Improving Knowledge Distillation for Exemplar-free Continual Learning

W naszej pracy badamy naukę przykładową bez wzorców (CIL) z uczeniem ze zrozumienia (KD) jako strategię regularyzacji, mającą na celu zapobieżenie zapominaniu. Metody oparte na KD są skutecznie stosowane w CIL, ale często mają trudności z regularyzacją modelu bez dostępu do wzorców danych treningowych z poprzednich zadań. Nasza analiza wykazuje, że ten problem wynika z istotnych zmian reprezentacji w sieci nauczycielskiej podczas pracy z danymi spoza dystrybucji. Powoduje to duże błędy w składniku straty KD, prowadząc do pogorszenia wyników w CIL. Zainspirowani niedawnymi metodami adaptacji w czasie testowania, wprowadzamy Adaptację Nauczyciela (TA), metodę, która jednocześnie aktualizuje nauczyciela i główny model podczas treningu przyrostowego. Nasza metoda bezproblemowo integruje się z podejściami CIL opartymi na KD i pozwala na spójne poprawianie ich wyników na wielu testach CIL bez wzorców.

Materiał konferencyjny:

Proceeedins of the IEEE/CVF International Conference on Computer Vision Workshops (ICCVW 2023), 2023, Institute of Electrical and Electronics Engineers

Rok wydania:

Autorzy z PW:

Tomasz Trzciński

BlendFields: Few-Shot Example-Driven Facial Modeling

Tworzenie wiernych wizualizacji ludzkich twarzy wymaga uchwycenia zarówno ogólnych, jak i drobnych detali geometrii i wyglądu twarzy. Istniejące metody są albo oparte na danych, co wymaga obszernego zbioru danych, który nie jest publicznie dostępny dla społeczności badawczej, albo nie są w stanie uchwycić drobnych szczegółów, ponieważ opierają się na geometrycznych modelach twarzy, które nie mogą reprezentować szczegółowych detali tekstury za pomocą dyskretyzacji siatki i liniowej deformacji zaprojektowanej do modelowania tylko ogólnej geometrii twarzy. Przedstawiamy metodę, która łączy te dwie kwestie, czerpiąc inspirację z tradycyjnych technik grafiki komputerowej. Nieznane wyrazy twarzy są modelowane poprzez mieszanie wyglądu z ograniczonego zestawu skrajnych pozycji. Ten proces mieszania jest wykonywany poprzez pomiar lokalnych zmian objętościowych w tych wyrazach i lokalne odtwarzanie ich wyglądu, kiedy podobny wyraz jest wykonywany podczas testu. Pokazujemy, że nasza metoda uogólnia się na niewidziane wcześniej wyrażenia twarzy, dodając drobne szczegóły do gładkich deformacji wolumetrycznych twarzy, oraz demonstrujemy, jak może być stosowana także do innych obiektów niż twarze.

Materiał konferencyjny:

Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2023, Institute of Electrical and Electronics Engineers

Rok wydania:

Autorzy z PW:

Tomasz Trzciński

Detection of Out-of-Distribution Samples Using Binary Neuron Activation Patterns

Głębokie sieci neuronowe (ang. Deep Neraul Networks, DNN) osiągają znakomite wyniki w różnych zastosowaniach. Pomimo licznych wysiłków środowiska badawczego, próbki spoza dystrybucji (ang. Out-of-Distribution OoD) pozostają istotnym ograniczeniem klasyfikatorów wykorzystujących DNN. Zdolność do identyfikowania nieznanych próbek jako nowych jest kluczowa w aplikacjach krytycznych dla bezpieczeństwa, takich jak samochody autonomiczne, bezzałogowe pojazdy powietrzne i roboty. Istniejące podejścia do wykrywania próbek spoza dystrybucji traktują DNN jako czarną skrzynkę i oceniają wyłącznie wynikową pewność predykcji modelu. Niestety, ta metoda często zawodzi, ponieważ DNN nie są trenowane, aby zmniejszać swoją pewność dla próbek spoza dystrybucji. W tej pracy przedstawiono nową metodę wykrywania próbek spoza dystrybucji. Nasza metoda jest motywowana analizą teoretyczną binarnych wzorców aktywacji neuronów (ang. Neuron Activation Patterns, NAP) w architekturach wykorzystujących funkcję aktywacji ReLU. Zaproponowana metoda nie wprowadza wysokiego obciążenia obliczeniowego ze względu na binarną reprezentację wzorców aktywacji wyodrębnionych z warstw konwolucyjnych sieci neuronowej. Przeprowadzone badania eksperymentalne pokazały jej wysoką skuteczność na różnych architekturach sieci neuronowych oraz siedmiu zbiorach testowych.

Materiał konferencyjny:

Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2023, Institute of Electrical and Electronics Engineers

Rok wydania:

Autorzy z PW:

Krystian Radlak