Przejdź do treści

Opublikowano: 10.02.2025 15:08

Eksperci AI z PW w projekcie PINEBERRY

Obraz
Komiks popularyzujący zastosowania eXplainableAI w Space

Zespół naukowców z Politechniki Warszawskiej uczestniczy w projekcie PINEBERRY, realizowanym wspólnie z zespołem KP Labs na zlecenie Europejskiej Agencji Kosmicznej. Jego celem jest opracowanie procedur, katalogów rozwiązań oraz przykładów zastosowań zabezpieczających oraz wyjaśniających modele AI wykorzystywane w misjach kosmicznych. Pracami zespołu MI2.AI z PW kieruje prof. dr hab. inż. Przemysław Biecek.

Prace podzielono na dwie fazy. Efektem pierwszej fazy - opracowania procedur i katalogów rozwiązań - są dwa dokumenty opisujące jak budować bezpieczne i wyjaśnialne modele AI: ,,Security Risks for AI Applications in Space Operations‘’ i ,,XAI Techniques for AI Applications in Space Operations’’. Obok wersji technicznej dostępna jest też wersja popularnonaukowa opracowana w formacie komiksu, omawiającego kluczowe wyzwania w sposób bardziej dostępny dla szerszego użytkownika. Wyjaśnialność i transparentność modeli jest ważna, by operatorzy misji kosmicznych korzystających z modeli AI mieli do nich większe zaufanie, a tym samym chętniej z nich korzystali.

- Te case-studies złożyły się w spójną historię, na bazie której powstał komiks popularyzujący zastosowania eXplainableAI w Space. Wydawać by się mogło, że forma komiksowa to nie jest istotne osiągnięcie naukowe, ale w tym projekcie kluczowe jest przekazanie trudnych metod w sposób przystępny operatorom misji kosmicznych, czyli bardzo zajętym ludziom. Lżejsza forma fabularna była do tego bardzo przydatna – wyjaśnia prof. Przemysław Biecek, zarządzający pracami naukowców z PW. 

Efektem drugiej fazy prac będzie 5 demonstratorów zabezpieczania AI dla misji kosmicznych opracowanych dla danych telemetrycznych, obrazowych oraz tekstowych. 

Nawiązanie „kosmicznej” współpracy

Projekt PINEBERRY realizowany jest we współpracy z Europejską Agencją Kosmiczną (ESA), Europejskim Centrum Operacji Kosmicznych (ESOC), Europejskim Centrum Badań i Technologii Kosmicznych (ESTEC) oraz KP Labs - polską spółką sektora kosmicznego. 

- Europejska Agencja Kosmiczna ogłosiła rekrutację na zespoły badawcze, które opracują wspomniane wyżej katalogi. Do projektu PINEBERRY zaprosiła nas firma KP Labs specjalizująca się w tworzeniu narzędzi AI dla zastosowań kosmicznych. Nasz zespół MI2.AI z PW wspiera KP Labs od strony wyjaśnialności i bezpieczeństwa AI. Napisaliśmy wspólnie wniosek grantowy, którą wygrał konkurs i uzyskał finansowanie. Projekt jest realizowany od marca 2024 – mówi prof. Przemysław Biecek.

Rolą prof. Biecka jest zarządzanie pracami naukowców z PW, a także proponowanie rozwiązań, głównie wskazywanie istniejących lub tworzenie nowych, w zakresie metod z obszaru wyjaśnialnej sztucznej inteligencji

- Przykładowy wynik, z którego jestem bardzo zadowolony, to opracowanie szeregu case-studies jak włączyć wyjaśnialność w analizę różnych typów modeli AI w kosmosie, począwszy od predykcji zapotrzebowania na energię dla łazika marsjańskiego po wykrywanie śmieci kosmicznych – podkreśla prof. Biecek. - Wyzwaniem dla nas była różnorodność zastosowań AI. Nie istnieje bowiem jeden model, który wystarczy przebadać, wyjaśnić i zabezpieczyć. Modele AI dla wizji komputerowej, tekstu, szeregów czasowych to szalenie dynamiczny i szybko rozwijający się obszar badań, więc tych modeli w misjach kosmicznych jest bardzo wiele.

Ze strony PW w projekcie, oprócz prof. Biecka, uczestniczą przedstawiciele Wydziału Matematyki i Nauk Informacyjnych oraz Wydziału Elektroniki i Technik Informacyjnych. Profesor Artur Janicki z WEiTI jest ekspertem od bezpieczeństwa AI, a troje zdolnych studentów i absolwentów z WMiNI: Piotr Wilczyński, Agata Kaczmarek i Dawid Płudowski opracowuje przykładowe programy, używające technik wyjaśnialności i bezpiecznej AI w zaproponowanych rozwiązaniach. Zespół bezpiecznego AI opracował katalog 9 najczęstszych podatności modeli AI, słabości, które może wykorzystać nieuprawniona osoba. Następnie dla każdego z nich opracował techniki zabezpieczające - czyli sposoby, by uodpornić model na ataki.

Prace są już na etapie finalizacji. Projekt skończy się w kwietniu i wtedy planowane jest udostępnienie opracowanych rozwiązań. Beneficjentami efektów projektu będą przede wszystkim operatorzy misji kosmicznych.

- Będą oni mieli do dyspozycji bezpieczniejsze, bardziej przebadane i bardziej transparentne modele AI. W kolejnym kroku będą to setki firm i instytucji, które korzystają z danych zbieranych w misjach kosmicznych. Przykładowo jedno z zastosowań dotyczy analizy parametrów gleby pod kątem zastosowań w rolnictwie na bazie odczytów hiperspektralnych z satelit. Lepsze odczyty parametrów gleby to wsparcie dla inteligentnego rolnictwa –tłumaczy prof. Biecek.

Co istotne, zespół MI2.AI PW pracuje nad poprawianiem modeli AI od strony bezpieczeństwa i wyjaśnialności w różnych obszarach. Oprócz współpracy z KP Labs w kwestiach związanych z kosmosem, zespół pracuje także nad zastosowaniami zdrowotnymi w radiologii czy onkologii. Jak zaznacza prof. Biecek, nasi naukowcy są otwarci na współpracę z kolejnymi partnerami, którzy mają modele do poprawy od strony bezpieczeństwa lub wyjaśnialności.