Przejdź do treści

Federated learning secure model: A framework for malicious clients detection

Federacyjne uczenie umożliwia współpracę przy trenowaniu modeli na rozproszonych źródłach danych. Jednak zdecentralizowany charakter tego podejścia wiąże się z wyzwaniami dotyczącymi prywatności danych, bezpieczeństwa modeli oraz ataków przeciwników. Opracowany w artykule Federated Learning Secure Model Repository (FLSMR) to innowacyjne rozwiązanie zaprojektowane w celu zwiększenia bezpieczeństwa i integralności modeli uczenia maszynowego w scenariuszach federacyjnego uczenia. FLSMR zapewnia bezpieczne repozytorium do udostępniania modeli między węzłami, chroniąc prywatność danych i zapobiegając złośliwym wkładom. FLSMR wykorzystuje algorytmy do identyfikacji i odfiltrowywania złośliwych wkładów od klientów, zapewniając niezawodność ekosystemu współdzielonych modeli. Dzięki ciągłemu monitorowaniu, repozytorium gwarantuje integralność i bezpieczeństwo udostępnianych modeli, tym samym ograniczając ryzyko stwarzane przez złośliwych aktorów. Takie podejście wzmacnia współpracę w ramach federacyjnego uczenia, chroniąc jednocześnie przed potencjalnym zatruwaniem modeli i utrzymując niezawodność ekosystemu współdzielonych modeli.

Link do opracowanego oprogramowania: https://github.com/kolasad/fl_secure_model/

Artykuł:

SoftwareX

Autorzy z PW:

Dominik Kolasa, Kinga Pilch, Wojciech Mazurczyk 

Rok wydania: