Przejdź do treści

Publikacje

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Adaptive fixturing of non-rigid workpieces for coordinate measurements

Nowoczesna metrologia wielkości geometrycznych polega na zastosowaniu współrzędnościowych systemów pomiarowych, które ulegają ciągłej ewolucji i dopasowują się do rosnących potrzeb w zakresie kontroli jakości przemysłowych procesów wytwórczych, szczególnie w przemyśle precyzyjnym, lotniczym i motoryzacyjnym. Obecnie współrzędnościowa technika pomiarowa pozwala na szybkie wyznaczanie wymiarów, odchyłek kształtu i położenia części maszyn o często skomplikowanej, przestrzennej konstrukcji.

Dokładność pomiarów skomplikowanych geometrycznie części maszyn i urządzeń zależy od wielu czynników. Jednym z nich, a często pomijanym w rachunku błędów, jest odkształcalność elementu mierzonego spowodowana mocowaniem podczas pomiaru. Dotyczy to w szczególności elementów o małej sztywności. 

W artykule przedstawiono nową metodę mocowania przedmiotu mierzonego, która polega na zastosowaniu aktywnych podpór oraz algorytmu wyznaczającego ich optymalne rozmieszczenie oraz reakcję mocowania. W celu eksperymentalnego potwierdzenia skuteczności zaproponowanego podejścia zaprezentowano badania doświadczalne oraz symulacyjne. Zastosowanie opracowanego adaptacyjnego mocowania pozwoliło na ośmiokrotne zmniejszenie błędu związanego z oddziaływaniem grawitacji na przedmioty mierzone. Metoda jest w pełni skalowalna i może być stosowana również w przypadku przedmiotów o różnych wymiarach i kształtach.

Artykuł:

Precision Engineering-Journal of the International Societies for Precisionengineering and Nanotechnology

Rok wydania:

Autorzy z PW:

Adam Woźniak

Magnesium-hemp concrete is less vapor-permeable than lime-hemp concrete while the cup method is still problematic

Cement magnezowy tlenochlorkowy (CMT) stanowi alternatywne, rzadziej stosowane spoiwo do biokompozytów konopnych, oferujące wyższą wytrzymałość mechaniczną w porównaniu z tradycyjnym spoiwem wapiennym. Jednak właściwości wilgotnościowe kompozytów konopnych zawierających CMT były dotychczas badane jedynie w ograniczonym zakresie. W niniejszej pracy przedstawiono badania eksperymentalne porównujące paroprzepuszczalność betonów konopnych ze spoiwami magnezowymi i wapiennymi, dostarczając cennych informacji zarówno o ich właściwościach związanych z transportem wilgoci, jak i o zastosowanej metodzie pomiarowej. Materiały te budzą szczególne zainteresowanie ze względu na bardziej zrównoważony charakter i niższy ślad środowiskowy w porównaniu z tradycyjnymi betonami, cegłami i zaprawami. Wyniki pokazują, że paroprzepuszczalność betonów konopnych wiązanych spoiwem magnezowym jest zbliżona do przepuszczalności płyt gipsowo-kartonowych, natomiast betony konopne wiązane wapnem charakteryzują się dwukrotnie większą przepuszczalnością. Pomiary transportu pary wodnej pozwoliły również na krytyczną ocenę powszechnie stosowanej metody naczynia (miseczkowej). Badania wykazały, że dla analizowanych materiałów warunki określone w normie ISO 12572:2016 nie zostały w pełni spełnione. Szczególnie w naczyniach suchych, gdzie sorbenty powinny zapewniać wilgotność względną (RH) bliską zeru, zmierzone wartości mieściły się w zakresie 10–30 %. Wykazano przy tym, że chlorek wapnia zapewniał lepsze warunki osuszania (10–20 % RH) niż żel krzemionkowy (15–30 % RH).

Artykuł:

Building and Environment

Rok wydania:

Autorzy z PW:

Piotr Łapka, Łukasz Cieślikiewicz, Karol Pietrak 

 

 

Phonon anharmonicity and thermal expansion in two-dimensional graphene/MoS2 and graphene/WS2 heterostructures: DFT and Raman study

Anharmoniczność jest kluczową cechą wszelkich ciał stałych, która przejawia się zależnością częstotliwości drgań ich atomów od maksymalnych wychyleń. Z praktycznego punktu widzenia ma to istotny wpływ na zjawiska fizyczne w ciałach stałych takie jak ich rozszerzalność termiczna, a także zależna od temperatury przewodność cieplna. W tej pracy kompleksowo zbadano anharmoniczność fononów (tj. elementarnych drgań sieci krystalicznej) w dwuwymiarowych, jednowarstwowych strukturach MoS₂, WS₂ oraz w ich heterostrukturach z dodatkiem warstwy grafenu, wykorzystując do tego celu zaawansowane obliczenia ab-initio (z pierwszych zasad) i spektroskopię Ramana. Przedstawione podejście teoretyczne pozwala wyjątkowo dokładnie przewidzieć częstotliwości fononów w tych układach oraz ich zależności temperaturowe, a uzyskane wyniki są bardzo dobrze zgodne z danymi eksperymentalnymi. Dodatkowo w przypadku heterostruktur wykazano, że wielkość siły tarcia między jej poszczególnymi warstwami ma istotny wpływ na rozszerzalność termiczną całej struktury, prowadząc do nawet dziesięciokrotnej różnicy rozszerzalności wzdłuż warstwy w temperaturze pokojowej. Ponadto ujawniono istotny wpływ tzw. oddziaływań czterofononowych na zależność temperaturową fononów - odpowiadają one za około jedną trzecią całkowitej zmienności częstotliwości fononów ω w funkcji temperatury (wyrażonej jako współczynnik dω/dT) w jednowarstwowych materiałach MoS₂ i WS₂, mimo że czynnik ten był powszechnie pomijany w dotychczasowych pracach teoretycznych. Efekt ten zmienia się zauważalnie, gdy jednowarstwowe struktury zostaną przykryte dodatkową warstwą grafenu (tworząc heterostruktury) - w połączeniu z istotną zmianą rozszerzalności termicznej może to spłaszczyć całkowite nachylenia zmienności temperaturowej dω/dT nawet o 20%. Nasza praca wprowadza nowatorskie podejście do obliczania anharmoniczności fononów w złożonych, wielowarstwowych strukturach dwuwymiarowych, które może również wspomóc wyznaczanie ich makroskopowych właściwości termicznych.

Artykuł:

Acta Materialia

Rok wydania:

Autorzy z PW:

Konrad Wilczyński, Arkadiusz P. Gertych, Mariusz Zdrojek

Dyscyplina:

Torque Control of a Highly-Saturated IPMSM Drive Using the Flux Linkage Control Scheme and an Augmented-State-Feedback Controller

Jakość sterowania momentem obrotowym jest bardzo ważna w układach napędowych, szczególnie w zastosowaniach motoryzacyjnych. W połączeniu z maksymalizacją momentu stanowi ona pożądaną cechę, która zapewnia efektywną energetycznie pracę całego układu napędowego. W maszynach projektowanych z myślą o wysokiej gęstości mocy pojawiają się zjawiska nasycenia własnego i skrośnego, które – jeśli nie zostaną uwzględnione – prowadzą do pogorszenia jakości sterowania momentem oraz ogólnych charakterystyk pracy napędu. W odpowiedzi na ten problem artykuł proponuje nowe podejście do sterowania momentem silnika synchronicznego o zanurzonych magnesach trwałych (IPMSM), oparte na regulatorze ze sprzężeniem od rozszerzonego wektora stanu (ASFC) z regulacją strumieni skojarzonych z uzwojeniami. W przeciwieństwie do klasycznych układów regulacji prądu opartych na regulatorach PI, proponowane rozwiązanie umożliwia uproszczenie modelu matematycznego obiektu regulacji. Dzięki temu możliwe jest zastosowanie stacjonarnego i liniowego regulatora o stałych parametrach. Przedstawiono model matematyczny badanego silnika (Toyota Prius czwartej generacji) wraz z procedurą maksymalizacji momentu. Omówiono szczegółowo strukturę ASFC i sposób jego syntezy. Wyniki eksperymentalne potwierdzają doskonałą jakość śledzenia zadanego momentu oraz szerokie pasmo przenoszenia układu regulacji momentu uzyskane dzięki proponowanemu regulatorowi ASFC.

Artykuł:

IEEE Transactions on Industrial Electronics

Rok wydania:

Autorzy z PW:

Michał Gierczyński, Łukasz Jan Niewiara, Rafał Jakubowski, Mirosław Seredyński, Maciej Jaworski, Emil Kupiec, Lech Grzesiak 

Estimating the limit state space of quasi-nonlinear Fuzzy Cognitive Maps

Quasi-nieliniowe rozmyte mapy kognitywne (q-FCM) uogólniają klasyczne rozmyte mapy kognitywne (FCM) poprzez wprowadzenie współczynnika nieliniowości kontrolującego zbieżność modelu. Chociaż konfiguracja q-FCM może zapobiegać powstawaniu unikalnych atraktorów punktowych, wiedza na temat zachowania dynamicznego pozostaje ograniczona. W niniejszej pracy proponujemy dwa iteracyjne algorytmy umożliwiające oszacowanie przestrzeni stanów granicznych dowolnego modelu q-FCM. Algorytmy te wyznaczają precyzyjne dolne i górne ograniczenia wartości aktywacji poszczególnych węzłów mapy w każdej iteracji, bez wykorzystywania informacji o warunkach początkowych. W efekcie można określić, które wartości aktywacji nigdy nie zostaną przyjęte przez dany węzeł mapy, niezależnie od warunków początkowych. Ponadto algorytmy te mogą pomóc w ocenie, czy klasyczny model FCM zbiegnie do unikalnego atraktora punktowego. Drugim wynikiem przedstawionym w pracy jest wykazanie, że pokrycie stanów węzłów w sieci maleje wraz ze zbliżaniem się współczynnika nieliniowości do jego maksymalnej wartości. Równocześnie duże wartości pokrycia nie muszą przekładać się na lepsze zdolności aproksymacyjne, zwłaszcza w przypadku problemów nieliniowych. Wynik ten wskazuje na istnienie kompromisu pomiędzy nieliniowością modelu a liczbą osiągalnych stanów.

Artykuł:

Applied Soft Computing

Rok wydania:

Autorzy z PW:

Agnieszka Jastrzębska 

Macroeconomic nowcasting (st)ability: Evidence from vintages of time-series data

Nowcasting to zadanie analizy szeregów czasowych, którego celem jest prognozowanie bieżącego stanu obserwowanego zjawiska. Jest ono kluczowe w przypadku złożonych systemów, w których uzyskanie natychmiastowych pomiarów jest trudne lub niemożliwe. Wiodącą dziedziną opierającą się na algorytmach nowcastingu to makroekonomia. W przypadku danych makroekonomicznych elementem szczególnie odróżniającym nowcasting od innych zastosowań prognostycznych jest struktura zbioru informacji, znana jako data vintage. Odnosi się ona do sposobu publikacji danych - początkowo udostępnianych jako wartości wstępne, a następnie stopniowo korygowanych. Rewizje te zwiększają trudność analizy, ponieważ mogą powodować zmiany w dynamice i interakcjach między zmiennymi. W pracy analizujemy zjawisko substitution bias, które występuje, gdy specyfikacje modeli oparte na różnych vintages tego samego szeregu czasowego różnią się, prowadząc do odmiennych wyników prognoz. Wykazujemy empirycznie, że prognozowanie w trybie pseudo-real-time nie jest substytutem prognozowania w rzeczywistym czasie. W przeciwieństwie do innych badań wykorzystujących obserwacje z aktualnych vintages jako zamiennik danych real-time, nasze wyniki wskazują, że to nie dane pseudo-real-time, lecz dane wstępne mogą stanowić dobrą alternatywę, gdy bieżące wydania danych nie są dostępne lub są trudne do pozyskania. Wnioskujemy, że wybór metody predykcji powinien zależeć od tego, czy celem jest prognoza wczesnego, czy późniejszego wydania danych. W tym kontekście dopasowanie statusu rewizji zestawów treningowych i ewaluacyjnych prowadzi do istotnego wzrostu dokładności i redukcji błędów prognozy. Metody real-time są zasadniczo preferowane, gdy prognozowane mają być wartości wstępne. Ma to duże znaczenie w praktyce, ponieważ terminowość jest dla uczestników rynku ważniejsza niż całkowita eliminacja obciążenia. Z kolei metody pseudo-real-time są bardziej odpowiednie do prognozowania danych po późniejszych rewizjach, charakteryzujących się mniejszym błędem systematycznym; sprawdzają się lepiej tam, gdzie ograniczanie szumu jest ważniejsze niż utrzymywanie przepływu danych w czasie rzeczywistym. Obszerne studium przypadku z zakresu danych makroekonomicznych potwierdza tę tezę. Przyjmując, że wczesne publikacje reprezentują rzeczywiste wartości zmiennej objaśnianej, modele trenowane na danych real-time osiągają współczynnik korelacji rang Spearmana równy 0,9511 (±0,0332) oraz współczynnik korelacji Pearsona 0,9528 (±0,0622). Modele trenowane na danych wstępnych uzyskują bardzo zbliżone wyniki: Spearman 0,952 (±0,029) oraz Pearson 0,9488 (±0,0638). Natomiast modele oparte na danych z aktualnych vintages wypadają nieco słabiej, osiągając odpowiednio 0,9046 (±0,1047) dla korelacji rang Spearmana i 0,876 (±0,1607) dla korelacji Pearsona.

Artykuł:

Expert Systems with Applications

Rok wydania:

Autorzy z PW:

Elżbieta Jowik, Agnieszka Jastrzębska 

Tri-omic single-cell mapping of the 3D epigenome and transcriptome in whole mouse brains throughout the lifespan

Badanie genomowych podstaw programów transkrypcyjnych od dawna stanowi kluczowy obszar badań. W niniejszej pracy przedstawiamy metodę jednokomórkową ChAIR, umożliwiającą jednoczesne mapowanie dostępności chromatyny, interakcji chromatynowych oraz ekspresji RNA. Po walidacji na komórkach hodowlanych zastosowaliśmy ChAIR do analiz całych mózgów myszy i odtworzyliśmy skoordynowaną dynamikę epigenomu, trójwymiarowej (3D) organizacji genomu oraz transkryptomu podczas dojrzewania i starzenia. W szczególności interakcje chromatyny zogniskowane na genach oraz stany otwartej chromatyny ujawniły trójwymiarowy epigenomowy mechanizm leżący u podstaw specyficznej dla typu komórki transkrypcji oraz ukazały przestrzennie zróżnicowaną specyficzność. Co istotne, skład kontaktów chromatynowych krótkiego zasięgu i ultradługiego zasięgu w pojedynczych komórkach wykazuje wyjątkowo silną korelację z aktywnością transkrypcyjną, stanem otwartej chromatyny oraz gęstością upakowania genomu. Ta właściwość genomowa, wraz z powiązanymi cechami komórkowymi, różni się między neuronami a komórkami nieneuronalnymi w różnych regionach anatomicznych na przestrzeni całego życia, sugerując odmienne mechanogenomiczne mechanizmy jądrowe funkcjonujące w komórkach mózgu. Nasze wyniki potwierdzają wysoką niezawodność metody ChAIR w ujawnianiu jednokomórkowych trójwymiarowych stanów epigenomowych specyficznej dla typu komórki transkrypcji w złożonych tkankach.

Artykuł:

Nature Methods

Rok wydania:

Autorzy z PW:

Krzysztof Banecki, Dariusz Plewczyński

Review of steam methane reforming as a method of hydrogen production

Artykuł przedstawia porównanie wydajności procesu parowego reformingu metanu w różnych warunkach i przy różnych skalach. Najpierw przeprowadzono analizę bibliometryczną publikacji dotyczących parowego reformingu metanu, na podstawie której opracowano przegląd literatury obejmujący najpopularniejsze zagadnienia (o największej liczbie odczytów i cytowań). Ważnym kryterium wyboru omawianych tematów było to, aby dotyczyły aktualnych, a nie historycznych kierunków badań. Na tej podstawie przegląd podzielono na reforming niekatalityczny i katalityczny, a w części poświęconej reformingowi katalitycznemu uwzględniono również przegląd stosowanych katalizatorów oraz zakres ich zastosowań (pod względem ciśnienia i temperatury pracy, składu paliwa itp.). Kolejnego podziału dokonano według skali realizacji procesu: laboratoryjnej, technicznej i przemysłowej. W artykule opisano metody pokrywania zapotrzebowania na energię do procesu reformingu parowego oraz sposoby oczyszczania otrzymanego gazu syntezowego, aby zwiększyć udział wodoru. Przedstawione w artykule instalacje do reformingu parowego zestawiono pod kątem warunków zachodzenia reakcji, rodzaju użytego katalizatora (lub jego braku), stosunku pary do węgla (s/c), wielkości instalacji, procentowej konwersji metanu oraz lokalizacji instalacji. Ponieważ parowy reforming metanu jest bardzo szerokim zagadnieniem, artykuł syntetyzuje najważniejsze kwestie i wskazuje nadchodzące możliwości rozwoju nowych technologii.

Artykuł:

Energy

Rok wydania:

Autorzy z PW:

Łukasz Szabłowski, Małgorzata Wójcik, Olaf Dybiński 

Artificial Intelligence and Terrestrial Point Clouds for Forest Monitoring

Celem niniejszej pracy jest przedstawienie przeglądu integracji sztucznej inteligencji (AI), w szczególności uczenia głębokiego (DL), z naziemnymi chmurami punktów LiDAR w kontekście monitoringu lasów, a także identyfikacja trendów, najnowszych osiągnięć oraz kierunków rozwoju metod wspieranych przez AI. Najnowsze badania wskazują, że modele DL znacząco przewyższają tradycyjne metody uczenia maszynowego w zadaniach inwentaryzacji leśnej opartych na danych z naziemnego LiDAR-u. Osiągnięto kluczowe postępy m.in. w segmentacji semantycznej, polegającej na przypisywaniu etykiet punktom odpowiadającym różnym strukturom roślinnym (np. liściom, gałęziom, pniom), w segmentacji pojedynczych drzew oraz w klasyfikacji gatunkowej. Główne wyzwania obejmują brak znormalizowanych metryk oceny, ograniczone udostępnianie kodu i danych oraz problemy z replikowalnością badań. Krytycznym zagadnieniem jest konieczność posiadania rozległych danych referencyjnych, co utrudnia opracowywanie i ocenę odpornych modeli AI. W pracy zaproponowano rozwiązania, takie jak tworzenie wielkoskalowych zbiorów benchmarkowych czy wykorzystanie syntetycznych danych treningowych. Obiecujące paradygmaty AI, takie jak grafowe sieci neuronowe (GNN), uczenie semisuperwizyjne, uczenie samonadzorowane oraz modele generatywne wykazują duży potencjał, lecz w zastosowaniach leśnych pozostają nadal niewystarczająco eksplorowane. Przegląd podkreśla transformacyjną rolę AI, zwłaszcza DL, w zwiększaniu dokładności i efektywności monitoringu lasów przy użyciu naziemnych trójwymiarowych chmur punktów. Aby rozwijać tę dziedzinę, konieczne jest tworzenie kompleksowych zbiorów benchmarkowych, otwarte udostępnianie danych i kodu oraz eksploracja nowych architektur i paradygmatów uczenia głębokiego. Działania te są kluczowe dla poprawy replikowalności badań, umożliwienia analiz porównawczych oraz odkrywania nowych możliwości w zarządzaniu i ochronie lasów.

Artykuł:

Current Forestry Reports

Rok wydania:

Autorzy z PW:

Tomasz Trzciński

Task-recency bias strikes back: Adapting covariances in Exemplar-Free Class Incremental Learning

Uczenie przyrostowe bez egzemplarzy (Exemplar-Free Class Incremental Learning, EFCIL) zajmuje się problemem trenowania modelu na sekwencji zadań bez dostępu do danych z wcześniejszych etapów. Współczesne metody reprezentują klasy jako rozkłady Gaussa w przestrzeni utajonej ekstraktora cech, co umożliwia klasyfikację Bayesowską lub trenowanie klasyfikatora poprzez odtwarzanie pseudocech. W pracy wskazujemy jednak dwa istotne problemy ograniczające skuteczność tych podejść, gdy ekstraktor cech jest aktualizowany w kolejnych zadaniach: po pierwsze, nie uwzględniają one faktu, że macierze kowariancji klas zmieniają się i muszą być adaptowane po każdym zadaniu, a po drugie, są podatne na stronniczość względem najnowszego zadania, wynikającą z zapadania wymiarów (dimensionality collapse) podczas treningu. Proponujemy AdaGauss – nową metodę, która adaptuje macierze kowariancji pomiędzy zadaniami i ogranicza stronniczość kolejności zadań dzięki dodatkowej funkcji straty przeciwdziałającej zapadaniu wymiarów. AdaGauss osiąga najlepsze dotychczas wyniki na popularnych benchmarkach i zbiorach danych EFCIL, zarówno przy trenowaniu od podstaw, jak i z wykorzystaniem wstępnie wytrenowanego backbone’u.

Książka:

Advances in Neural Information Processing Systems 37

Rok wydania:

Autorzy z PW:

Grzegorz Rypeść, Tomasz Trzciński

Extending tetrahedral network similarity to carbon: A type-I carbon clathrate stabilized by boron

Klatraty to związki typu gość–gospodarz, zbudowane z wielościennych klatek. Mimo, że są one powszechne wśród związków tworzących sieci tetraedryczne, klatraty o osnowie węglowej pozostają niezrealizowanym celem syntezy. W niniejszej pracy opisano szkielet typu I oparty na węglu – powszechną formę klatratów występującą w wielu związkach zbudowanych z jednostek tetraedrycznych. Zgodnie z koncepcją stabilizacji przy udziale boru, zaprojektowaną na podstawie obliczeń z pierwszych zasad (first-principles), dla układu Ca–B–C pod wysokim ciśnieniem, otrzymano związek Ca₈BₓC₄₆₋ₓ (x ≈ 9) o strukturze typu I w archetypowej sieci krystalicznej Pm3n. Stabilność tej struktury wynika z nieuporządkowanego podstawienia atomów boru w pozycjach pierścieni sześciokątnych w obrębie szkieletu sieci. Otrzymany klatrat, który jest stabilny w warunkach normalnych, poszerza zakres topologicznego podobieństwa sieci wśród układów tetraedrycznych i otwiera możliwości tworzenia szerokiej rodziny związków diamentopodobnych opartych na węglu, o regulowanych właściwościach wynikających z szerokich możliwości podstawień atomów gościa i gospodarza oraz elastyczności struktury szkieletowej.

Artykuł:

Science advances

Rok wydania:

Autorzy z PW:

Piotr Guńka

Dyscyplina:

A Generic Taxonomy for Steganography Methods

Jednolite rozumienie terminów jest niezbędne w każdej dziedzinie nauki — steganografia nie stanowi wyjątku. Ponieważ dziedzina ta jest podzielona na kilka obszarów (np. steganografia sieciowa i steganografia tekstowa), kluczowe znaczenie ma opracowanie ujednoliconej terminologii oraz taksonomii, która nie ogranicza się wyłącznie do pojedynczych zastosowań lub wąskich dziedzin. Pierwsza znacząca próba stworzenia ujednoliconego rozumienia pojęć została podjęta w 2015 roku wraz z wprowadzeniem taksonomii opartej na wzorcach (pattern-based taxonomy) dla steganografii sieciowej. W 2021 roku zaproponowano pierwsze podejście do taksonomii opartej na wzorcach obejmującej wszystkie dziedziny steganografii. Jednak to wstępne podejście nadal miało pewne ograniczenia – m.in. pozostałe niespójności terminologiczne oraz brak wzorców dla kilku obszarów steganografii. Jako konsorcjum, które wcześniej opublikowało badania dotyczące wzorców steganografii, przedstawiamy pierwszą kompleksową taksonomię opartą na wzorcach, dostosowaną do wszystkich znanych domen steganografii, w tym także mniejszych i nowo powstających obszarów, takich jak steganografia systemów plików, IoT/CPS (Internet Rzeczy / Cyber-Physical Systems) oraz steganografia w sztucznej inteligencji i uczeniu maszynowym (AI/ML steganography). Aby nasz wkład był bardziej użyteczny i sprzyjał wykorzystaniu tej taksonomii w badaniach, udostępniamy również ujednoliconą metodę opisu wraz z szczegółowym przewodnikiem (tutorialem) dotyczącym jej praktycznego zastosowania.

Artykuł:

ACM Computing Surveys

Rok wydania:

Autorzy z PW:

Wojciech Mazurczyk