Περίληψη: | Η ικανότητα να εξηγείς σε κατανοητούς όρους (interpretability), τους λόγους γιατί ένα μοντέλο μηχανικής μάθησης κάνει μια συγκεκριμένη πρόβλεψη γίνεται όλο και πιο σημαντική, καθώς διασφαλίζει εμπιστοσύνη και διαφάνεια στη διαδικασία λήψης αποφάσεων από το μοντέλο. Πολύπλοκα μοντέλα, όπως συνδυαστικά (ensemble) ή βαθιάς μάθησης (deep learning) μοντέλα, είναι δύσκολα να ερμηνευθούν. Διάφορες μέθοδοι έχουν προταθεί ως τώρα για την αντιμετώπιση αυτού του ζητήματος. Οι τιμές Shapley από τη θεωρία παιγνίων προσφέρουν ακριβείς εξηγήσεις αναθέτοντας σε κάθε χαρακτηριστικό (feature) μια τιμή σημαντικότητας για μια συγκεκριμένη πρόβλεψη του μοντέλου. Όμως η εκθετική πολυπλοκότητα του υπολογισμού αυτών των τιμών αντιμετωπίζεται αποδοτικά μόνο σε μοντέλα βασισμένα σε δέντρα απόφασης. Μια άλλη μέθοδος είναι τα μοντέλα-αντιπρόσωποι (surrogate), τα οποία εξομοιώνουν τη συμπεριφορά ενός πολύπλοκου μοντέλου, που αντιμετωπίζεται σαν "μαύρο κουτί", προσφέροντας εξηγήσεις αβίαστα, λόγω του τρόπου κατασκευής τους. Τα μοντέλα-αντιπρόσωποι είναι αγνωστικά ως προς το μοντέλο (model-agnostic), αλλά παράγουν μόνο προσεγιστικές εξηγήσεις, οι οποίες δεν μπορούν να κριθούν ως αξιόπιστες.
Σε αυτή τη διπλωματική προτείνεται μια νέα μέθοδος, η οποία συνδυάζει αυτές τις δύο προσεγγίσεις, εκμεταλλευόμενη το αγνωστικό μέρος της μοντέλων-αντιπροσώπων καθώς και της ερμηνευτικής δύναμης των τιμών Shapley. Επίσης παρουσιάζεται μια νέα μετρική, την TopjSimilarity, προκειμένου να αξιολογηθεί η προτεινόμενη μέθοδος και η οποία μετρά την ομοιότητα δύο δεδομένων εξηγήσεων, που προκύπτουν από τις τιμές Shapley. Τέλος, προτείνονται τρόποι με τους οποίους μπορούν να γίνουν περαιτέρω βελτιώσεις.
|