Przejdź do treści

Publikacje

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Macroeconomic nowcasting (st)ability: Evidence from vintages of time-series data

Nowcasting to zadanie analizy szeregów czasowych, którego celem jest prognozowanie bieżącego stanu obserwowanego zjawiska. Jest ono kluczowe w przypadku złożonych systemów, w których uzyskanie natychmiastowych pomiarów jest trudne lub niemożliwe. Wiodącą dziedziną opierającą się na algorytmach nowcastingu to makroekonomia. W przypadku danych makroekonomicznych elementem szczególnie odróżniającym nowcasting od innych zastosowań prognostycznych jest struktura zbioru informacji, znana jako data vintage. Odnosi się ona do sposobu publikacji danych - początkowo udostępnianych jako wartości wstępne, a następnie stopniowo korygowanych. Rewizje te zwiększają trudność analizy, ponieważ mogą powodować zmiany w dynamice i interakcjach między zmiennymi. W pracy analizujemy zjawisko substitution bias, które występuje, gdy specyfikacje modeli oparte na różnych vintages tego samego szeregu czasowego różnią się, prowadząc do odmiennych wyników prognoz. Wykazujemy empirycznie, że prognozowanie w trybie pseudo-real-time nie jest substytutem prognozowania w rzeczywistym czasie. W przeciwieństwie do innych badań wykorzystujących obserwacje z aktualnych vintages jako zamiennik danych real-time, nasze wyniki wskazują, że to nie dane pseudo-real-time, lecz dane wstępne mogą stanowić dobrą alternatywę, gdy bieżące wydania danych nie są dostępne lub są trudne do pozyskania. Wnioskujemy, że wybór metody predykcji powinien zależeć od tego, czy celem jest prognoza wczesnego, czy późniejszego wydania danych. W tym kontekście dopasowanie statusu rewizji zestawów treningowych i ewaluacyjnych prowadzi do istotnego wzrostu dokładności i redukcji błędów prognozy. Metody real-time są zasadniczo preferowane, gdy prognozowane mają być wartości wstępne. Ma to duże znaczenie w praktyce, ponieważ terminowość jest dla uczestników rynku ważniejsza niż całkowita eliminacja obciążenia. Z kolei metody pseudo-real-time są bardziej odpowiednie do prognozowania danych po późniejszych rewizjach, charakteryzujących się mniejszym błędem systematycznym; sprawdzają się lepiej tam, gdzie ograniczanie szumu jest ważniejsze niż utrzymywanie przepływu danych w czasie rzeczywistym. Obszerne studium przypadku z zakresu danych makroekonomicznych potwierdza tę tezę. Przyjmując, że wczesne publikacje reprezentują rzeczywiste wartości zmiennej objaśnianej, modele trenowane na danych real-time osiągają współczynnik korelacji rang Spearmana równy 0,9511 (±0,0332) oraz współczynnik korelacji Pearsona 0,9528 (±0,0622). Modele trenowane na danych wstępnych uzyskują bardzo zbliżone wyniki: Spearman 0,952 (±0,029) oraz Pearson 0,9488 (±0,0638). Natomiast modele oparte na danych z aktualnych vintages wypadają nieco słabiej, osiągając odpowiednio 0,9046 (±0,1047) dla korelacji rang Spearmana i 0,876 (±0,1607) dla korelacji Pearsona.

Artykuł:

Expert Systems with Applications

Rok wydania:

Autorzy z PW:

Elżbieta Jowik, Agnieszka Jastrzębska 

Tri-omic single-cell mapping of the 3D epigenome and transcriptome in whole mouse brains throughout the lifespan

Badanie genomowych podstaw programów transkrypcyjnych od dawna stanowi kluczowy obszar badań. W niniejszej pracy przedstawiamy metodę jednokomórkową ChAIR, umożliwiającą jednoczesne mapowanie dostępności chromatyny, interakcji chromatynowych oraz ekspresji RNA. Po walidacji na komórkach hodowlanych zastosowaliśmy ChAIR do analiz całych mózgów myszy i odtworzyliśmy skoordynowaną dynamikę epigenomu, trójwymiarowej (3D) organizacji genomu oraz transkryptomu podczas dojrzewania i starzenia. W szczególności interakcje chromatyny zogniskowane na genach oraz stany otwartej chromatyny ujawniły trójwymiarowy epigenomowy mechanizm leżący u podstaw specyficznej dla typu komórki transkrypcji oraz ukazały przestrzennie zróżnicowaną specyficzność. Co istotne, skład kontaktów chromatynowych krótkiego zasięgu i ultradługiego zasięgu w pojedynczych komórkach wykazuje wyjątkowo silną korelację z aktywnością transkrypcyjną, stanem otwartej chromatyny oraz gęstością upakowania genomu. Ta właściwość genomowa, wraz z powiązanymi cechami komórkowymi, różni się między neuronami a komórkami nieneuronalnymi w różnych regionach anatomicznych na przestrzeni całego życia, sugerując odmienne mechanogenomiczne mechanizmy jądrowe funkcjonujące w komórkach mózgu. Nasze wyniki potwierdzają wysoką niezawodność metody ChAIR w ujawnianiu jednokomórkowych trójwymiarowych stanów epigenomowych specyficznej dla typu komórki transkrypcji w złożonych tkankach.

Artykuł:

Nature Methods

Rok wydania:

Autorzy z PW:

Krzysztof Banecki, Dariusz Plewczyński

Review of steam methane reforming as a method of hydrogen production

Artykuł przedstawia porównanie wydajności procesu parowego reformingu metanu w różnych warunkach i przy różnych skalach. Najpierw przeprowadzono analizę bibliometryczną publikacji dotyczących parowego reformingu metanu, na podstawie której opracowano przegląd literatury obejmujący najpopularniejsze zagadnienia (o największej liczbie odczytów i cytowań). Ważnym kryterium wyboru omawianych tematów było to, aby dotyczyły aktualnych, a nie historycznych kierunków badań. Na tej podstawie przegląd podzielono na reforming niekatalityczny i katalityczny, a w części poświęconej reformingowi katalitycznemu uwzględniono również przegląd stosowanych katalizatorów oraz zakres ich zastosowań (pod względem ciśnienia i temperatury pracy, składu paliwa itp.). Kolejnego podziału dokonano według skali realizacji procesu: laboratoryjnej, technicznej i przemysłowej. W artykule opisano metody pokrywania zapotrzebowania na energię do procesu reformingu parowego oraz sposoby oczyszczania otrzymanego gazu syntezowego, aby zwiększyć udział wodoru. Przedstawione w artykule instalacje do reformingu parowego zestawiono pod kątem warunków zachodzenia reakcji, rodzaju użytego katalizatora (lub jego braku), stosunku pary do węgla (s/c), wielkości instalacji, procentowej konwersji metanu oraz lokalizacji instalacji. Ponieważ parowy reforming metanu jest bardzo szerokim zagadnieniem, artykuł syntetyzuje najważniejsze kwestie i wskazuje nadchodzące możliwości rozwoju nowych technologii.

Artykuł:

Energy

Rok wydania:

Autorzy z PW:

Łukasz Szabłowski, Małgorzata Wójcik, Olaf Dybiński 

Artificial Intelligence and Terrestrial Point Clouds for Forest Monitoring

Celem niniejszej pracy jest przedstawienie przeglądu integracji sztucznej inteligencji (AI), w szczególności uczenia głębokiego (DL), z naziemnymi chmurami punktów LiDAR w kontekście monitoringu lasów, a także identyfikacja trendów, najnowszych osiągnięć oraz kierunków rozwoju metod wspieranych przez AI. Najnowsze badania wskazują, że modele DL znacząco przewyższają tradycyjne metody uczenia maszynowego w zadaniach inwentaryzacji leśnej opartych na danych z naziemnego LiDAR-u. Osiągnięto kluczowe postępy m.in. w segmentacji semantycznej, polegającej na przypisywaniu etykiet punktom odpowiadającym różnym strukturom roślinnym (np. liściom, gałęziom, pniom), w segmentacji pojedynczych drzew oraz w klasyfikacji gatunkowej. Główne wyzwania obejmują brak znormalizowanych metryk oceny, ograniczone udostępnianie kodu i danych oraz problemy z replikowalnością badań. Krytycznym zagadnieniem jest konieczność posiadania rozległych danych referencyjnych, co utrudnia opracowywanie i ocenę odpornych modeli AI. W pracy zaproponowano rozwiązania, takie jak tworzenie wielkoskalowych zbiorów benchmarkowych czy wykorzystanie syntetycznych danych treningowych. Obiecujące paradygmaty AI, takie jak grafowe sieci neuronowe (GNN), uczenie semisuperwizyjne, uczenie samonadzorowane oraz modele generatywne wykazują duży potencjał, lecz w zastosowaniach leśnych pozostają nadal niewystarczająco eksplorowane. Przegląd podkreśla transformacyjną rolę AI, zwłaszcza DL, w zwiększaniu dokładności i efektywności monitoringu lasów przy użyciu naziemnych trójwymiarowych chmur punktów. Aby rozwijać tę dziedzinę, konieczne jest tworzenie kompleksowych zbiorów benchmarkowych, otwarte udostępnianie danych i kodu oraz eksploracja nowych architektur i paradygmatów uczenia głębokiego. Działania te są kluczowe dla poprawy replikowalności badań, umożliwienia analiz porównawczych oraz odkrywania nowych możliwości w zarządzaniu i ochronie lasów.

Artykuł:

Current Forestry Reports

Rok wydania:

Autorzy z PW:

Tomasz Trzciński

Task-recency bias strikes back: Adapting covariances in Exemplar-Free Class Incremental Learning

Uczenie przyrostowe bez egzemplarzy (Exemplar-Free Class Incremental Learning, EFCIL) zajmuje się problemem trenowania modelu na sekwencji zadań bez dostępu do danych z wcześniejszych etapów. Współczesne metody reprezentują klasy jako rozkłady Gaussa w przestrzeni utajonej ekstraktora cech, co umożliwia klasyfikację Bayesowską lub trenowanie klasyfikatora poprzez odtwarzanie pseudocech. W pracy wskazujemy jednak dwa istotne problemy ograniczające skuteczność tych podejść, gdy ekstraktor cech jest aktualizowany w kolejnych zadaniach: po pierwsze, nie uwzględniają one faktu, że macierze kowariancji klas zmieniają się i muszą być adaptowane po każdym zadaniu, a po drugie, są podatne na stronniczość względem najnowszego zadania, wynikającą z zapadania wymiarów (dimensionality collapse) podczas treningu. Proponujemy AdaGauss – nową metodę, która adaptuje macierze kowariancji pomiędzy zadaniami i ogranicza stronniczość kolejności zadań dzięki dodatkowej funkcji straty przeciwdziałającej zapadaniu wymiarów. AdaGauss osiąga najlepsze dotychczas wyniki na popularnych benchmarkach i zbiorach danych EFCIL, zarówno przy trenowaniu od podstaw, jak i z wykorzystaniem wstępnie wytrenowanego backbone’u.

Książka:

Advances in Neural Information Processing Systems 37

Rok wydania:

Autorzy z PW:

Grzegorz Rypeść, Tomasz Trzciński

Extending tetrahedral network similarity to carbon: A type-I carbon clathrate stabilized by boron

Klatraty to związki typu gość–gospodarz, zbudowane z wielościennych klatek. Mimo, że są one powszechne wśród związków tworzących sieci tetraedryczne, klatraty o osnowie węglowej pozostają niezrealizowanym celem syntezy. W niniejszej pracy opisano szkielet typu I oparty na węglu – powszechną formę klatratów występującą w wielu związkach zbudowanych z jednostek tetraedrycznych. Zgodnie z koncepcją stabilizacji przy udziale boru, zaprojektowaną na podstawie obliczeń z pierwszych zasad (first-principles), dla układu Ca–B–C pod wysokim ciśnieniem, otrzymano związek Ca₈BₓC₄₆₋ₓ (x ≈ 9) o strukturze typu I w archetypowej sieci krystalicznej Pm3n. Stabilność tej struktury wynika z nieuporządkowanego podstawienia atomów boru w pozycjach pierścieni sześciokątnych w obrębie szkieletu sieci. Otrzymany klatrat, który jest stabilny w warunkach normalnych, poszerza zakres topologicznego podobieństwa sieci wśród układów tetraedrycznych i otwiera możliwości tworzenia szerokiej rodziny związków diamentopodobnych opartych na węglu, o regulowanych właściwościach wynikających z szerokich możliwości podstawień atomów gościa i gospodarza oraz elastyczności struktury szkieletowej.

Artykuł:

Science advances

Rok wydania:

Autorzy z PW:

Piotr Guńka

Dyscyplina:

A Generic Taxonomy for Steganography Methods

Jednolite rozumienie terminów jest niezbędne w każdej dziedzinie nauki — steganografia nie stanowi wyjątku. Ponieważ dziedzina ta jest podzielona na kilka obszarów (np. steganografia sieciowa i steganografia tekstowa), kluczowe znaczenie ma opracowanie ujednoliconej terminologii oraz taksonomii, która nie ogranicza się wyłącznie do pojedynczych zastosowań lub wąskich dziedzin. Pierwsza znacząca próba stworzenia ujednoliconego rozumienia pojęć została podjęta w 2015 roku wraz z wprowadzeniem taksonomii opartej na wzorcach (pattern-based taxonomy) dla steganografii sieciowej. W 2021 roku zaproponowano pierwsze podejście do taksonomii opartej na wzorcach obejmującej wszystkie dziedziny steganografii. Jednak to wstępne podejście nadal miało pewne ograniczenia – m.in. pozostałe niespójności terminologiczne oraz brak wzorców dla kilku obszarów steganografii. Jako konsorcjum, które wcześniej opublikowało badania dotyczące wzorców steganografii, przedstawiamy pierwszą kompleksową taksonomię opartą na wzorcach, dostosowaną do wszystkich znanych domen steganografii, w tym także mniejszych i nowo powstających obszarów, takich jak steganografia systemów plików, IoT/CPS (Internet Rzeczy / Cyber-Physical Systems) oraz steganografia w sztucznej inteligencji i uczeniu maszynowym (AI/ML steganography). Aby nasz wkład był bardziej użyteczny i sprzyjał wykorzystaniu tej taksonomii w badaniach, udostępniamy również ujednoliconą metodę opisu wraz z szczegółowym przewodnikiem (tutorialem) dotyczącym jej praktycznego zastosowania.

Artykuł:

ACM Computing Surveys

Rok wydania:

Autorzy z PW:

Wojciech Mazurczyk

Analyzing of different repowering methods on the example of 300 MW existing steam cycle power plant using gatecycle™ software

Ze względu na obecną sytuację dotyczącą bezpieczeństwa energetycznego i ograniczeń emisji dwutlenku węgla (CO₂), a także zauważalny wzrost globalnego zużycia energii elektrycznej, modernizacja i rozbudowa istniejących elektrowni (repowering) staje się coraz bardziej istotnym rozwiązaniem wspierającym transformację energetyczną. Dotychczasowe badania nad repoweringiem starych elektrowni parowych koncentrowały się głównie na parametrach termodynamicznych i redukcji emisji, często odnosząc się do konkretnych instalacji. Wciąż jednak pozostaje wiele niewyjaśnionych kwestii dotyczących wyboru optymalnej technologii. 

W niniejszej pracy omówiono różne koncepcje repoweringu istniejących elektrowni parowych, ze szczególnym uwzględnieniem elektrowni o mocy 300 MW, zlokalizowanej na dużej wysokości nad poziomem morza w Armenii. Rozważane koncepcje obejmowały zastosowanie trzech turbin gazowych: Siemens V84.2, ABB GT11N2 oraz Alstom (obecnie GE) GT13E2. Analizę modeli przeprowadzono w dwóch etapach: 1) ocenę parametrów termodynamicznych i emisji CO₂ dla modelu elektrowni, 2) obliczenia parametrów termodynamicznych przy poziomach mocy netto równych 100 %, 90 %, 80 %, 70 %, 60 % i 50 %. Przeprowadzone badania pozwoliły zidentyfikować dwie główne koncepcje repoweringu: pierwszą, ukierunkowaną na zwiększenie mocy wytwarzania energii elektrycznej, oraz drugą, skoncentrowaną na poprawie sprawności elektrowni poprzez zmniejszenie strumienia masy paliwa.

Artykuł:

Energy

Rok wydania:

Autorzy z PW:

Artur Harutyunyan, Krzysztof Badyda, Marcin Wołowicz 

Eco-friendly and cytocompatible graphene composite based on water-soluble biopolymers for modern printed electronics and beyond

Rosnące zapotrzebowanie na zrównoważoną elektronikę wynika z potrzeby ułatwienia gospodarki odpadami elektronicznymi, ograniczenia stosowania toksycznych materiałów oraz minimalizacji wpływu na środowisko, a także z chęci rozwoju nowych zastosowań technologicznych. W niniejszym badaniu zbadano sześć biopolimerów — alginian sodu (SA), karboksymetylocelulozę (CMC), hydroksyetylocelulozę (HEC), metylocelulozę (MC), chitosan rozpuszczalny w wodzie pochodzenia morskiego (CS) oraz chitosan rozpuszczalny w wodzie pochodzenia grzybowego (CF) — jako matryce polimerowe do opracowania zrównoważonych, wysoko przewodzących i cytokompatybilnych kompozytów na bazie grafenu przeznaczonych do sitodruku. Przeprowadziliśmy też optymalizację dyspersji grafenu w badanych roztworach wodnych przy użyciu surfaktantu SDS oraz dwóch różnych metod sonikacji, co miało na celu poprawę drukowalności, pokrycia powierzchni i przewodności elektrycznej warstwy. Testy reologiczne i analiza napięcia powierzchniowego posłużyły do scharakteryzowania kompozytów, które dedykowane były do druku na podłożach papierowych, aby uzyskać w pełni biodegradowalne struktury. Testy elektryczne, analiza SEM oraz mikroskopowa wykazały, że sonikacja sondą ultradźwiękową jest bardziej skuteczna w rozbijaniu aglomeratów grafenu. Warstwy oparte na CMC wykazały się najniższą rezystancją powierzchniową (58 Ω/□). Testy przyspieszonego starzenia wykazały niewielkie zmiany rezystancji, wskazując na okres trwałości naszych warstw wynoszący około 1 rok. Testy cytotoksyczności wykazały potencjalną możliwość zastosowania tych kompozytów w urządzeniach medycznych mających kontakt ze skórą człowieka. Uzyskane wyniki podkreślają obiecujący potencjał naturalnych biopolimerów jako zrównoważonych matryc polimerowych w opracowywaniu biodegradowalnej elektroniki, przyczyniając się jednocześnie do ograniczenia negatywnego wpływu na środowisko.

Artykuł:

Sustainable Materials and Technologies

Rok wydania:

Autorzy z PW:

Aleksandra Anna Kądziela, Katarzyna Wójkowska, Arkadiusz Jeznach, Daniel Janczak, Małgorzata Jakubowska, Monika Staniszewska, Sandra Katarzyna Lepak-Kuc

Global chromatin reorganization and regulation of genes with specific evolutionary ages during differentiation and cancer

Komórki nowotworowe cechują się wysoką plastycznością, co sprzyja ich adaptacji do zmieniających się warunków. Geny związane z podstawowymi procesami komórkowymi wyewoluowały u pradawnych organizmów, natomiast bardziej wyspecjalizowane geny pojawiły się później — wraz z powstaniem wielokomórkowości (geny metazoan) lub nawet dopiero po wyewoluowaniu ssaków. Analizy transkryptomiczne wykazały, że w nowotworach aktywowane są geny o starożytnym pochodzeniu, natomiast geny metazoan ulegają wyciszeniu. Pomimo istotności tych obserwacji, mechanizmy leżące u ich podstaw pozostają niezbadane. W niniejszym badaniu analizujemy lokalne i globalne mechanizmy epigenomowe, które mogą regulować geny w zależności od ich okresu ewolucyjnego. Wykorzystując dane o wieku ewolucyjnym genów, charakteryzujemy krajobraz epigenomowy, regulację ekspresji genów oraz organizację chromatyny w kilku typach komórek: ludzkich embrionalnych komórkach macierzystych, pierwotnych zdrowych limfocytach B, pierwotnych złośliwych komórkach B pacjentów z przewlekłą białaczką limfocytową oraz próbkach pierwotnych raka jelita grubego. Identyfikujemy zmiany topologiczne w organizacji chromatyny podczas różnicowania, obserwując wzorce represji przez kompleks Polycomb i zatrzymania polimerazy RNA II, które zostają odwrócone w procesie onkogenezy. Poza nierandomną organizacją genów i cech chromatynowych w trójwymiarowym epigenomie sugerujemy, że te wzorce prowadzą do preferencyjnych interakcji między genami o starożytnym, pośrednim i niedawnym pochodzeniu, odpowiednio mediowanych przez polimerazę RNA II, kompleks Polycomb oraz otoczkę jądrową. Nasze wyniki rzucają nowe światło na regulację genów według ich wieku ewolucyjnego i sugerują, że organizacja ta ulega zmianom podczas różnicowania i onkogenezy.

Artykuł:

Nucleic Acids Research

Rok wydania:

Autorzy z PW:

Dariusz Plewczyński, Kaustav Sengupta 

It is not Risky, it is Healthy. Assessing of Soil Enzymatic Activity, Heavy Metal Contamination, and Health Risk for Urban Gardens Land Development in Warsaw, Poland

Ogrodnictwo miejskie w gęsto zaludnionych miastach pełni ważną rolę — wspiera dobrostan społeczny, bioróżnorodność, a czasem lokalną produkcję żywności. Jednak tereny ogrodów są zagrożone zanieczyszczeniem powietrza i gleby w obszarach zurbanizowanych, gdzie bliskość głównych dróg, kolei, lotnisk i działalności przemysłowej zwiększa ryzyko skażenia. Badanie, przeprowadzone w sześciu ogrodach działkowych i społecznych w Warszawie, obejmowało ocenę gleby, a w tym zawartości potencjalnie toksycznych pierwiastków (PTE) metodą spektrofotometryczną, toksyczności gleby i ryzyka zdrowotnego przy użyciu testu OECD 208 oraz metody identyfikacji zagrożeń US EPA, a także ocenę jakości powietrza - zbadano stężenie pyłu PM 2.5 mierzonego na wysokości 1,5 m za pomocą skalibrowanego nefelometru. Wyniki wykazały, że stężenia PTE w glebie pozostawały niskie, a aktywność dehydrogenaz i testy fitotoksyczności nie wykazały efektów toksycznych. Zarówno aktywność mikroorganizmów, jak i wzrost roślin nie były zaburzone przez poziom zanieczyszczenia, co sugeruje, że ogrody te utrzymują zdrowe ekosystemy. Dodatkowo, ocena ryzyka zdrowotnego potwierdziła brak istotnych zagrożeń związanych z kontaktem z glebą ogrodową — zarówno dla dorosłych, jak i dla dzieci. Obniżenie poziomu pyłu PM 2.5 w obrębie ogrodów dodatkowo podkreśla ich rolę jako ochronnych, zielonych przestrzeni. Wyniki te wspierają tezę, że ogrody miejskie, nawet w rejonach narażonych na miejskie emisje zanieczyszczeń, nie stwarzają istotnego zagrożenia dla środowiska ani zdrowia, czyniąc je bezpiecznymi i wartościowymi elementami funkcjonalnej struktury miasta. Badanie przeprowadził zespół naukowców z Politechniki Warszawskiej i SGGW w ramach projektu U-Garden finansowanego przez NCN jako międzynarodowy grant z funduszy JPI Urban Europe ENUTC 2021.

Artykuł:

Land Degradation & Development

Rok wydania:

Autorzy z PW:

Maria Zuzanna Kaczorowska, Damian Derewońko, Maciej Lasocki, Tomasz Dzieduszyński

Evolutionary divergence in CTCF-mediated chromatin topology drives transcriptional innovation in humans

Topologia chromatyny może wpływać na regulację genów, jednak wciąż słabo rozumiemy, w jaki sposób ewolucyjne różnice w strukturze chromatyny ukształtowały krajobrazy regulacji genów, prowadząc do powstania unikalnych cech człowieka. Miejsca wiązania białka CTCF (CCCTC-binding factor) determinują topologię chromatyny poprzez tworzenie domen i pętli. W niniejszej pracy pokazano, że w trakcie ewolucji naczelnych doszło do różnic ewolucyjnych w topologii chromatyny zależnej od CTCF, zarówno w skali domen, jak i pętli, co ujawnia odmienne mechanizmy kształtowania krajobrazów regulacyjnych. Domeny, które uległy rozbieżności specyficznej dla człowieka, prowadzą do szerokiej reorganizacji krajobrazu transkrypcyjnego. Z kolei zróżnicowane pętle CTCF są zgodne z aktywnością enhancerów specyficzną dla gatunku, wpływając na połączenia między enhancerami a genami docelowymi w sposób jednocześnie skoordynowany i ograniczony. W ramach tego skoordynowanego mechanizmu wykazano, że pętle CTCF specyficzne dla człowieka odgrywają istotną rolę w kształtowaniu różnorodności izoform transkryptów, co ma znaczenie funkcjonalne dla podatności na choroby. Dodatkowo potwierdzono funkcję tych pętli CTCF za pomocą organoidów ludzkiego przodomózgowia. Praca ta pogłębia zrozumienie ewolucji genetycznej z perspektywy architektury genomu.

Artykuł:

Nature Communications

Rok wydania:

Autorzy z PW:

Dariusz Plewczyński