Position: Explain to Question not to Justify
Wyjaśnialna sztuczna inteligencja (XAI) to młoda, ale bardzo obiecująca dziedzina badań. Niestety, postęp w tej dziedzinie jest obecnie spowolniony przez rozbieżne i niekompatybilne cele. Rozdzielamy różne wątki splątane w obszarze XAI na dwie uzupełniające się kultury wyjaśnień zorientowanych na człowieka/wartości (BLUE XAI) i wyjaśnień zorientowanych na model/walidację (RED XAI). W niniejszym stanowisku argumentujemy, że obszar RED XAI jest obecnie niedostatecznie zbadany, tj. rozpaczliwie potrzeba więcej metod wyjaśniania, aby kwestionować modele (np. wydobywać wiedzę z dobrze działających modeli, a także wykrywać i naprawiać błędy w wadliwych modelach), a obszar RED XAI kryje w sobie ogromne możliwości i potencjał dla ważnych badań niezbędnych do zapewnienia bezpieczeństwa systemów sztucznej inteligencji. Kończymy ten artykuł, przedstawiając obiecujące wyzwania w tym obszarze.
Materiał konferencyjny:
Proceedings of the 41st International Conference on Machine Learning
Autorzy z PW:
Przemysław Biecek
Dyscyplina:
Rok wydania: