Bucks for Buckets (B4B): Active Defenses Against Stealing Encoders
Usługi Machine Learning as a Service (MLaaS) oferują gotowe do użycia, wysokiej jakości modele enkoderów, które przekształcają dane wejściowe w bogate reprezentacje wektorowe, zawierające najistotniejsze informacje. Ze względu na bardzo wysokie koszty trenowania takich modeli, stają się one atrakcyjnym celem ataków polegających na ich kradzieży. W tego typu atakach sprawca wykorzystuje dostęp do interfejsu API, by lokalnie odtworzyć działanie enkodera – ponosząc tylko ułamek kosztów, które wiązały się z oryginalnym treningiem modelu.
W odpowiedzi na ten problem proponujemy Bucks for Buckets (B4B) – pierwszą aktywną metodę obrony, która zapobiega kradzieży modelu w czasie rzeczywistym, nie pogarszając przy tym jakości reprezentacji dostarczanych legalnym użytkownikom API.
Nasza metoda opiera się na obserwacji, że reprezentacje zwracane przez użytkowników próbujących skopiować model zajmują znacznie większy obszar przestrzeni osadzeń (embedding space) niż reprezentacje generowane przez użytkowników wykorzystujących model do konkretnych zadań. B4B dynamicznie dostosowuje jakość zwracanych reprezentacji w zależności od tego, jak bardzo użytkownik eksploruje przestrzeń odpowiedzi modelu.
Dodatkowo, aby uniemożliwić obejście zabezpieczenia przez tworzenie wielu kont (tzw. sybili), B4B wprowadza indywidualną transformację reprezentacji dla każdego użytkownika. Dzięki temu przeciwnik nie może skutecznie połączyć danych z wielu kont w celu wytrenowania lokalnej kopii modelu.
Nasze podejście otwiera nowe możliwości dla bezpiecznego udostępniania enkoderów przez publiczne API, wspierając tym samym ich szerszą dostępność i demokratyzację.
Materiał konferencyjny:
Advances in Neural Information Processing Systems 36. 37th Conference on Neural Information Processing Systems (NeurIPS 2023)
Autorzy z PW:
Jan Dubiński, Stanisław Pawlak, Tomasz Trzciński
Dyscyplina:
Rok wydania: