Przejdź do treści

Position: Explain to Question not to Justify

Wyjaśnialna sztuczna inteligencja (XAI) to młoda, ale bardzo obiecująca dziedzina badań. Niestety, postęp w tej dziedzinie jest obecnie spowolniony przez rozbieżne i niekompatybilne cele. Rozdzielamy różne wątki splątane w obszarze XAI na dwie uzupełniające się kultury wyjaśnień zorientowanych na człowieka/wartości (BLUE XAI) i wyjaśnień zorientowanych na model/walidację (RED XAI). W niniejszym stanowisku argumentujemy, że obszar RED XAI jest obecnie niedostatecznie zbadany, tj. rozpaczliwie potrzeba więcej metod wyjaśniania, aby kwestionować modele (np. wydobywać wiedzę z dobrze działających modeli, a także wykrywać i naprawiać błędy w wadliwych modelach), a obszar RED XAI kryje w sobie ogromne możliwości i potencjał dla ważnych badań niezbędnych do zapewnienia bezpieczeństwa systemów sztucznej inteligencji. Kończymy ten artykuł, przedstawiając obiecujące wyzwania w tym obszarze. 

Materiał konferencyjny:

Proceedings of the 41st International Conference on Machine Learning

Autorzy z PW:

Przemysław Biecek 

Rok wydania: