Przejdź do treści
Na zdjęciu kobieta stojąca przy półce z książkami i trzymająca książkę

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Metastable b-Phase Ti–Nb Alloys Fabricated by Powder Metallurgy: Effect of Nb on Superelasticity and Deformation Behavior

Niniejsza praca dotyczy określenia wpływu zawartości Nb na właściwości mechaniczne, superelastyczność oraz mechanizm deformacji metastabilnych stopów Ti-xNb. Materiał badawczy został wytworzony poprzez mechaniczne stopowanie i konsolidację proszków w procesie prasowania na gorąco. Wytworzone materiały cechowały się drobnoziarnistą mikrostrukturą, złożoną z mikrometrycznych ziaren fazy β-Ti oraz węglików TiC. Przeprowadzone badania wykazały, że w zależności od zawartości Nb, odkształcenie plastyczne jest realizowane poprzez trzy mechanizmy: przemianę martenzytyczną, bliźniakowanie oraz poślizg dyslokacji. Złożoność mechanizmów deformacji aktywowanych w czasie odkształcenia plastycznego prowadziła do nieliniowych zmian granicy plastyczności w zależności od udziału Nb w stopie. Określono, że największą wytrzymałością cechują się stopy, w których dochodzi do przemiany martenzytycznej, natomiast stopy, w których dochodzi do bliźniakowania, cechowały się znacznie niższą wytrzymałością, ale znakomitą plastycznością. Ponadto, stwierdzono rozbieżności z danymi literaturowymi względem dokładnego składu stopu a dominującego mechanizmu odkształcenia. Różnice wynikają z przebiegu procesu technologicznego zastosowanego w niniejszej pracy a metodami stosowanymi przez inne grupy badawcze. W trakcie wytwarzania materiału metodami metalurgii proszków może dochodzić do stabilizacji fazy β ze względu na tendencję do adsorbowania tlenu. Dodatkowo, stwierdzono, że efekt superelastyczny może być związany z tym zjawiskiem, ze względu na stabilizację fazy beta wynikającą z obecności tlenu w roztworze stałym. Głównym wynikiem niniejszej pracy jest wykazanie, że zastosowanie technologii metalurgii proszków pozwala osiągnąć silny efekt superelastyczny dla stopu Ti-14Nb. Podobny poziom może być osiągnięty dla stopów o dużo wyższej zawartości Nb w przypadku zastosowania konwencjonalnych metod wytwarzania stopów. Wyniki przedstawione w niniejszej pracy mogą stanowić podstawę do rozwoju nowych superelastycznych metastabilnych stopów β-Ti, zwłaszcza tych produkowanych z wykorzystaniem nowo opracowanych technologii metalurgii proszków i druku addytywnego.

Artykuł:

Metallurgical and Materials Transactions A-Physical Metallurgy and Materials Science

Rok wydania:

Autorzy z PW:

Witold Chromiński

-9 A Comprehensive Study on Hot Deformation Behavior of the Metastable β Titanium Alloy Prepared by Blended Elemental Powder Metallurgy Approach

Zbadano zachowanie stopu Ti-5Al-5Mo-5V-3Cr podczas odkształcania na gorąco, uzyskanego metodą metalurgii proszków elementarnych. Przeprowadzono testy ściskania na gorąco, aby określić zależności naprężenie-odkształcenie w temperaturach od 800 °C do 1000 °C i przy szybkościach odkształcenia od 0,1 do 20 s−1. Na podstawie zebranych danych opracowano model konstytutywny, wykorzystując równanie typu Arrheniusa, oraz wygenerowano mapę energii aktywacji odkształcenia. Stworzono mapy przetwarzania przy użyciu teorii Dynamicznego Modelu Materiału (DMM) i wyznaczono okno przetwarzania wskazujące optymalne parametry gorącego odkształcania w temperaturach między 900 °C a 1000 °C oraz przy szybkościach odkształcenia 0,1-2,0 s−1. Obserwacje mikrostruktury potwierdziły wyniki analizy DMM, pokazując jednorodną i zrekrystalizowaną mikrostrukturę pod parametrami okna przetwarzania. Proces walcowania na gorąco zaprojektowano przy użyciu modelowania metodą elementów skończonych (FEM) i pomyślnie zweryfikowano w testach laboratoryjnych. Parametry walcowania na gorąco wybrane na podstawie wcześniejszej analizy zaowocowały w pełni skompaktowanym materiałem z kontrolowaną mikrostrukturą. Analizowano zależność między parametrami odkształcania, mikrostrukturą, twardością a właściwościami wytrzymałościowymi stopu Ti-5Al-5Mo-5V-3Cr po walcowaniu na gorąco. Walcowanie na gorąco przy użyciu opracowanych parametrów termomechanicznych spowodowało znaczny wzrost wytrzymałości na rozciąganie z 757 do 1009 MPa. Ogólnie rzecz biorąc, niniejsze badanie dostarcza wszechstronnej charakterystyki zachowania stopu Ti-5Al-5Mo-5V-3Cr podczas odkształcania oraz cennych wskazówek do optymalizacji jego parametrów przetwarzania na gorąco.

Artykuł:

Metallurgical and Materials Transactions A-Physical Metallurgy and Materials Science

Rok wydania:

Autorzy z PW:

Michał Kubiś, Bartłomiej Przybyszewski

Cardiac tissue modeling using flow microsystems and nanofiber mats: Evaluating hypoxia-induced cellular and molecular changes

Badania dotyczące regeneracji komórek mięśnia sercowego wymagają modeli, które wiernie odwzorowują tkankę serca, szczególnie w stanach chorobowych. W naszej pracy przedstawiamy nowoopracowany system Heart-on-a-chip, zintegrowany z matami nanowłóknistymi z poliuretanu, który został wykorzystany do symulowania warunków niedotlenienia. Niedotlenienie (czyli hipoksja) jest kluczowym czynnikiem chorób serca. Niedotlenienie w mikrosystemie zostało uzyskane poprzez zastosowanie specjalnie do tego zaprojektowanych kanałów, przez które prowadzono przepływ azotu nad komorami hodowlanymi z hodowlą komórek serca. W badaniach zastosowano dwie linie komórkowe, ludzkie kardiomiocyty oraz szczurze kardiomioblasty (H9c2), na których analizowano wpływ warunków niedotlenienia na przeżywalność komórek, morfologię oraz poziom ATP. Po 5 i 7 godzinach ekspozycji na hipoksję, komórki H9c2 wykazywały wyraźne obniżenie poziomu ATP. Dodatkowo, zaobserwowano znaczące zmniejszenie ekspresji genów takich jak MAP4K, TNNT2, SERCA i SCN5A. W ramach badań opracowaliśmy  system typu Heart-on-a-Chip umożliwiający jednoczesną hodowlę komórek mięśnia sercowego w warunkach hipoksji i normoksji. Zastosowanie takie systemu może dostarczyć głębszego zrozumienia mechanizmów leżących u podstaw chorób serca, takich jak zawał mięśnia sercowego i niewydolność serca.

Artykuł:

Sensors and Actuators B - Chemical

Rok wydania:

Autorzy z PW:

Dominik Kołodziejek, Zuzanna Iwoń, Łopianiak Iwona, Michał Wojasiński, Elżbieta Jastrzębska

Circulating Active Power Flow Analysis in a Hybrid Transformer With the Series Converter Connected to the Primary Side

Hybrydowe transformatory dystrybucyjne (HDT) zostały zaproponowane jako alternatywa dla konwencjonalnych transformatorów (niskoczęstotliwościowych) oraz transformatorów w pełni półprzewodnikowych, łącząc niezawodność transformatorów niskoczęstotliwościowych (LFT) z dodatkowymi funkcjonalnościami zapewnionymi przez przekształtnik energoelektroniczny. Choć istnieje kilka konfiguracji HDT, te, które łączą przekształtnik energoelektroniczny dołączony szeregowo po stronie pierwotnej LFT i przekształtnik energoelektroniczny dołączony równolegle po stronie wtórnej LFT, poprawią warunki pracy LFT. Niemniej jednak, podczas kompensacji spadków napięcia występujących w sieci elektroenergetycznej  występuje niekorzystna cyrkulacja mocy czynnej (CAPF) między głównym LFT a przekształtnikiem energoelektronicznym, co zwiększa całkowitą moc przepływającą przez LFT, co ostatecznie wpływa na ogólną efektywność energetyczną systemu. Artykuł przedstawia analizę różnych warunków pracy HDT, ich związek z CAPF i wpływ na efektywność HDT. Wprowadzono dwie metody redukcji CAPF oraz omówiono ich zalety i wady. Na koniec zaprezentowano układ sterowania dla HDT, który umożliwia pracę w warunkach symetrycznego  i asymetrycznego zasilania oraz przeprowadzono eksperyment na specjalnie zbudowanym stanowisku badawczym.

Artykuł:

IEEE Transactions on Industrial Electronics

Rok wydania:

Autorzy z PW:

Mariusz Malinowski

The Ohm-azing custom-made Transendothelial Electrical Resistance measuring device (and why is it a current sensation?)

Komórki śródbłonka i nabłonka tworzą biologiczne bariery, kontrolujące przepływ substancji między układem krążenia a narządami. Pomiar śródbłonkowej rezystancji elektrycznej (TEER) jest standardową metodą oceny integralności bariery. W pracy przedstawiono nowoczesny system pomiarowy łączący innowacyjne komponenty, dostosowane elektrody oraz intuicyjne oprogramowanie do precyzyjnych pomiarów integralności bariery śródbłonkowej. System został wykorzystany do pomiaru TEER linii komórkowych: RBE-4 (szczurze komórki śródbłonka mikro naczyń mózgowych), PBMEC (pierwotne szczurze komórki śródbłonka mikro naczyń mózgowych), BMEC (szczurze komórki śródbłonka mikro naczyń mózgowych) oraz HIEC-6 (ludzka linia komórkowa nabłonka jelitowego). System zapewnia precyzyjne i stabilne pomiary TEER oraz umożliwia monitorowanie zmian w czasie w kontrolowanych warunkach. Badania wykazały, że urządzenie dostarcza stabilnych wartości pomiarów. Komórki traktowane chlorkiem amonu wykazywały niższe wartości TEER w porównaniu do komórek kontrolnych, co zostało potwierdzone pomiarami przepuszczalności barwnikiem fluoresceinowym i mikroskopią konfokalną. System został zaprojektowany w celu poprawy dokładności i powtarzalności pomiarów TEER. Badania potwierdziły stabilność wyników pomiarów oraz brak znaczącego wpływu zmian pH i temperatury na wyniki. Zastosowanie systemu, umożliwia długotrwałe, czasowe monitorowanie barier komórkowych, dostarczając istotnych informacji o stabilności bariery, przepuszczalności oraz efektach działania substancji farmakologicznych. Opisane urządzenie oferuje wysoką precyzję, czułość oraz efektywność kosztową, stanowiąc alternatywę dla komercyjnie dostępnych systemów pomiarowych TEER. System może być dostosowany do specyficznych potrzeb badawczych, co czyni go wszechstronnym narzędziem w badaniach biologicznych i farmaceutycznych.

Artykuł:

Sensors and Actuators B - Chemical

Rok wydania:

Autorzy z PW:

Tomasz Gajowik

One-Pot Sequential Two-Step Photo-Biocatalytic Deracemization of sec-Alcohols Combining Photocatalytic Oxidation and Bioreduction

Artykuł przedstawia nową foto-biokatalityczną metodę deracemizacji alkoholi II-rzędowych z wykorzystaniem światła widzialnego oraz rekombinowanych dehydrogenaz alkoholowych. W opublikowanej pracy naukowcy naszej Uczelni udowodnili, iż połączenie obu procesów katalitycznych, tj. fotoutleniania racemicznych alkoholi w roztworze 9-fluorenonu w DMSO naświetlanego świałtem niebieskim (440 nm) oraz biotranswodorowania powstających in situ ketonów przy użyciu ww. enzymów, w sekwencyjnej procedurze typu „one-pot”, umożliwia syntezę optycznie czynnych alkoholi z bardzo wysokimi wydajnościami (>90%) oraz nadmiarami enanacjomerycznymi (>99%). Warto dodać, iż nowoopracowana metoda jest skuteczna wobec szerokiego spektrum substratowego, a produkty asymetrycznej foto-biotransformacji stanowią cenne chiralne bloki budulcowe w syntezie wartościowych farmaceutyków.

Ponadto badania nad foto-biokatalitycznymi procesami kaskadowymi doprowadziły do przełomowego odkrycia, a mianowicie nasi naukowcy udowodnili, że rekombinowane komórki E. coli nadprodukujące dehydrogenazy alkoholowe z Rhodococcus ruber (E. coli/ADH-A) oraz Lactobacillus kefir (E. coli/Lk-ADH) wykazują nadspodziewanie wysoką aktywność katalityczną oraz stereoselektywność działania pomimo silnie kwasowego odczynu pH (1.5-2.2) surowej mieszaniny reakcyjnej uzyskiwanej po fotoutlenianiu racemicznych substratów. Racjonalizacja tego dość niespotykanego zjawiska została poparta licznymi eksperymentami walidacyjnymi oraz szczegółową ich analizą, stanowiącą podstawę hipotetycznego mechanizmu powstawania związków siarkowych o potencjalnych właściwościach modulujących wobec ww. enzymów. Wyniki przeprowadzonych badań mogą przyczynić się do zainicjowania nowych zastosowań w chemii bioorganicznej oraz biotechnologii, w tym przede wszystkim odegrać kluczową rolę przy planowaniu stereokontrolowanych syntez enancjomerycznie wzbogaconych związków o wysokiej wartości dodanej otrzymywanych w oparciu o chiralne alkohole.

Artykuł:

ACS Catalysis

Rok wydania:

Autorzy z PW:

Paweł Borowiecki

A new RPLC-ESI-MS method for the determination of eight vitamers of vitamin E

Witamina E składa się z czterech izoform (α-, β-, γ-, δ-) tokoferoli (T) i tokotrienoli (T3), znanych zbiorczo jako tokole. Są one nie tylko bardzo cennymi składnikami ludzkiej diety, ale tez pełnią istotna rolę w zapewnieniu trwałości olejów roślinnych, działając jako środki przeciwutleniające (antyoksydanty).  Obecnie dostępne metody analityczne oparte na chromatografii cieczowej (LC) w odwróconym układzie faz (RPLC) nie pozwalają na rozróżnienie izoform β- i γ-. Z kolei alternatywne metody oparte na normalnym układzie faz (NPLC) wymagają użycia rozpuszczalników organicznych, co z jednej strony komplikuje późniejszą detekcję analitów za pomocą tandemowej spektrometrii masowej (MS/MS), a z drugiej - nie jest przyjazne dla środowiska. W trakcie badań opracowaliśmy nowatorską metodę analizy wszystkich izoform tokoli w układzie RPLC-MS/MS. Nowa metoda została zweryfikowana i zastosowana do analizy ilościowej kilku olejów, w tym oleju z lnianki siewnej (Camelina sativa) przechowywanego w różnych warunkach.

Artykuł:

Food Chemistry

Rok wydania:

Autorzy z PW:

Katarzyna Pawlak, Elżbieta Święcicka-Fuchsel, Kamil Wojciechowski

Application-oriented meta-model of measurement uncertainty

Artykuł dotyczy podstawowego zagadnienia metrologii (nauki o pomiarach), jakim jest ocena niepewności wyników pomiaru. Zaproponowane jest rozwinięcie meta-modelu pomiaru, opublikowanego przez autora w 2013 roku, umożliwiające ocenę tej niepewności nie tylko w aspekcie ilościowym, ale i jakościowym. Aspekt jakościowy przedstawiony jest w kontekście interpretacji koncepcji fundamentalnej niepewności epistemicznej z punktu widzenia instrumentalizmu naukowego; aspekt ilościowy – w kontekście metodyki oceny niepewności pomiarowej, opartej na porównywaniu dwóch modeli matematycznych narzędzia pomiarowego: modelu podstawowego i modelu rozszerzonego. Metodyka ta zilustrowana jest trzema przykładami o charakterze inżynierskim.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Roman Z. Morawski

Artifact-free secondary ion mass spectrometry profiling of a full vertical cavity surface emitting laser structure

Optymalizacja epitaksjalnej struktury laserów z pionową wnęką rezonansową  VCSEL (Vertical-Cavity Surface-Emitting Lasers) jest niezbędna w produkcji bardziej wydajnych przyrządów. Technika spektrometrii masowej jonów wtórnych (SIMS) może dostarczyć istotnych informacji na temat jakości struktury oraz koncentracji i rozkładu domieszek i zanieczyszczeń. Hetero-struktury epitaksjalne VCSEL charakteryzują się stosunkowo dużą grubością (ok 7-8 mikrometrów) i składają się z setek warstw o różnych grubościach od kilku do kilkuset nanometrów i zmieniających się składach chemicznych. W związku z tym, klasyczna technika SIMS jest podatna na różnego rodzaju artefakty, co obniża jakość uzyskiwanych wyników charakteryzacji. W pracy przedstawiono modyfikacje procedur pomiarowych SIMS: wysoki kąt bombardowania zmniejsza efekt mieszania; optymalizacja parametrów ekstrakcji zwiększa stosunek sygnału do szumu z 2.1 do 24.3 dB; polerowanie jonowe i obsługa wiązki utrzymują jakość pomiaru. Dzięki modulacjom energii wiązki jonów profile dla studni kwantowych i barier mają charakter prostokątny, a nie typu gaussowskiego. Surowe dane są wolne od artefaktów i odzwierciedlają realistyczną dystrybucję pierwiastków. Taka dokładność może okazać się nieoceniona dla dalszej optymalizacji wzrostu struktur VCSEL.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Iwona Pasternak, Włodzimierz Strupiński

Dyscyplina:

The topology of persons, and surviving to some degree

Australijscy filozofowie Braddon-Mitchell i Miller wysunęli tezę, że relacja bycia tą samą osobą jest stopniowalna. To oznacza, że np. Ty Czytelniku możesz być jutro tą samą osobą, którą jesteś dzisiaj, ale tylko w połowie. Aby uzasadnić swoją tezę, Braddon-Mitchell i Miller proponują model osoby, który jest rzekomo metafizycznie neutralny. Niniejszy artykuł ma na celu pokazanie, że wbrew autorom ich model zawiera silne założenia metafizyczne. Korzystając z ontologii fenomenologicznej Romana Ingardena, pokazujemy, że w ramach tego modelu osoby istnieją w sposób intencjonalny, co prowadzi w istocie do karykatury, a nie adekwatnego ujęcia osoby. W kontrze do Braddona-Mitchella i Miller argumentujemy, że uzasadnienie przedstawione dla tezy o stopniowalności relacji bycia tą samą osobą w rzeczywistości wymusza zaproponowanie adekwatnego ujęcia osoby. Przedstawiamy holistyczno-topologiczno-dynamiczne ujęcie wypracowane przez Kurta Lewina i pokazujemy, że w tym podejściu to nie relacja bycia tą samą osobą jest stopniowalna, lecz pewna charakterystyka osoby, którą za Lewinem nazywamy wymiarem osoby. W związku z tym odrzucamy zarówno tezę o stopniowalności relacji bycia tą samą osobą, jak i przedstawione przez autorów uzasadnienie tej tezy.

Artykuł:

Synthese

Rok wydania:

Autorzy z PW:

Bartłomiej Skowron, Zbigniew Król

Dyscyplina:

HMZDupFinder: a robust computational approach for detecting intragenic homozygous duplications from exome sequencing data

Homozygotyczne duplikacje przyczyniają się do powstawania chorób genetycznych poprzez zmienianie dawki genów lub zakłócanie regulacji genów i mogą być bardziej szkodliwe dla funkcjonowania organizmu niż heterozygotyczne duplikacje. Wewnątrz-genowe duplikacje eksonów mogą prowadzić do powstawania alleli powodujących utratę funkcji (LoF) lub zyskiwanie funkcji (GoF), które, gdy występują w stanie homozygotycznym, mogą prowadzić do autosomalnie recesywnych (AR) rzadkich chorób genetycznych. Jednak wykrywanie i funkcjonalna interpretacja homozygotycznych duplikacji z danych sekwencjonowania eksomowego (ES) pozostaje wyzwaniem. Opracowaliśmy algorytm, HMZDupFinder, zaprojektowany do wykrywania homozygotycznych duplikacji eksonów z danych ES. Algorytm HMZDupFinder w sposób efektywny przetwarza duże zestawy danych, co umożliwia dokładną identyfikację małych wewnątrzgenowych duplikacji, w tym tych związanych z rzadkimi cechami chorobowymi. HMZDupFinder wykrył 965 homozygotycznych duplikacji zawierających trzy lub mniej eksonów z 8,707 ES z wskaźnikiem czułości 70,9% i precyzją 16,1%. Eksperymentalnie potwierdziliśmy 8/10 rzadkich homozygotycznych duplikacji. Ocena patogenności tych alleli z wariantami liczby kopii umożliwiła identyfikację  trzech klinicznie istotnych homozygotycznych duplikacji, w tym dwóch wpływających na znane geny chorób OMIM: EDAR (MIM# 224900), TNNT1 (MIM# 605355) oraz jeden wariant w nowym kandydackim genie choroby: PAAF1.

Artykuł:

Nucleic Acids Research

Rok wydania:

Autorzy z PW:

Tomasz Gambin

The Structure of Arguments from Deontic Authority and How to Successfully Attack Them

Pomimo rosnącego zainteresowania badaniem argumentów z autorytetu deontycznego mających ogólną formę „(1) 𝛿 jest autorytetem deontycznym w instytucji 𝛺; (2) według 𝛿, powinienem zrobić 𝛼, zatem (3) powinienem zrobić 𝛼”, aktualne modele nie uchwytują złożoności tego typu argumentacji. Istniejące zestawy pytań krytycznych przypisane do tego schematu argumentacyjnego zdają się nie uwzględniać dwóch problemów: czy dana osoba podlega autorytetowi instytucji jeszcze przed nadaniem komunikatu oraz czy polecenie lub nakaz wydane w określonym kontekście instytucjonalnym jest ostatecznie wiążące. W celu zbudowania modelu umożliwiającego rozróżnienie tych dwóch kwestii wprowadzamy (1) zestaw podstawowych pytań krytycznych oraz (2) zestaw szczegółowych pytań dotyczących specyficznych cech, zwanych również „parametrami” środowisk instytucjonalnych, w których formułowane są argumenty z autorytetu deontycznego (wewnątrz-instytucjonalne pytania krytyczne). Parametry te służą identyfikowaniu głównych elementów środowisk instytucjonalnych, dla których typowe jest formułowanie wypowiedzi dyrektywalnych takich jak rozkazy, polecenia, wytyczne i rekomendacje. Materiał ilustracyjny w postaci wybranych orzeczeń Naczelnego Sądu Administracyjnego pomaga nam pokazać, jak parametry te mogą być zastosowane do rekonstrukcji podtypów schematu argumentacji z autorytetu deontycznego z wykorzystaniem przypisanych im pytań krytycznych. W określonych kontekstach instytucjonalnych takie szczegółowe schematy są w stanie uchwycić złożoność odwołań do autorytetu deontycznego i dlatego powinny być stosowane zamiast lub jako uzupełnienie schematów o charakterze ogólnym. Rekonstrukcja szczegółowych schematów argumentacyjnych za pomocą pytań krytycznych pokazuje, w jaki sposób konkretne argumenty z autorytetu deontycznego mogą być skutecznie podważone.

Artykuł:

Argumentation

Rok wydania:

Autorzy z PW:

Marcin Koszowy

Dyscyplina: