Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley

Η ικανότητα να εξηγείς σε κατανοητούς όρους (interpretability), τους λόγους γιατί ένα μοντέλο μηχανικής μάθησης κάνει μια συγκεκριμένη πρόβλεψη γίνεται όλο και πιο σημαντική, καθώς διασφαλίζει εμπιστοσύνη και διαφάνεια στη διαδικασία λήψης αποφάσεων από το μοντέλο. Πολύπλοκα μοντέλα, όπως συνδυαστικ...

Πλήρης περιγραφή

Λεπτομέρειες βιβλιογραφικής εγγραφής
Κύριος συγγραφέας: Μεσσαλάς, Ανδρέας
Άλλοι συγγραφείς: Μακρής, Χρήστος
Μορφή: Thesis
Γλώσσα:Greek
Έκδοση: 2020
Θέματα:
Διαθέσιμο Online:http://hdl.handle.net/10889/13132
id nemertes-10889-13132
record_format dspace
spelling nemertes-10889-131322022-09-05T13:57:06Z Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley Model-agnostic Interpretability with Shapley values Μεσσαλάς, Ανδρέας Μακρής, Χρήστος Κανελλόπουλος, Ιωάννης Μακρής, Χρήστος Σιούτας, Σπύρος Τσώλης, Δημήτρης Andreas, Messalas Μηχανική μάθηση Ερμηνευσιμότητα Machine learning Interpretability Shapley Η ικανότητα να εξηγείς σε κατανοητούς όρους (interpretability), τους λόγους γιατί ένα μοντέλο μηχανικής μάθησης κάνει μια συγκεκριμένη πρόβλεψη γίνεται όλο και πιο σημαντική, καθώς διασφαλίζει εμπιστοσύνη και διαφάνεια στη διαδικασία λήψης αποφάσεων από το μοντέλο. Πολύπλοκα μοντέλα, όπως συνδυαστικά (ensemble) ή βαθιάς μάθησης (deep learning) μοντέλα, είναι δύσκολα να ερμηνευθούν. Διάφορες μέθοδοι έχουν προταθεί ως τώρα για την αντιμετώπιση αυτού του ζητήματος. Οι τιμές Shapley από τη θεωρία παιγνίων προσφέρουν ακριβείς εξηγήσεις αναθέτοντας σε κάθε χαρακτηριστικό (feature) μια τιμή σημαντικότητας για μια συγκεκριμένη πρόβλεψη του μοντέλου. Όμως η εκθετική πολυπλοκότητα του υπολογισμού αυτών των τιμών αντιμετωπίζεται αποδοτικά μόνο σε μοντέλα βασισμένα σε δέντρα απόφασης. Μια άλλη μέθοδος είναι τα μοντέλα-αντιπρόσωποι (surrogate), τα οποία εξομοιώνουν τη συμπεριφορά ενός πολύπλοκου μοντέλου, που αντιμετωπίζεται σαν "μαύρο κουτί", προσφέροντας εξηγήσεις αβίαστα, λόγω του τρόπου κατασκευής τους. Τα μοντέλα-αντιπρόσωποι είναι αγνωστικά ως προς το μοντέλο (model-agnostic), αλλά παράγουν μόνο προσεγιστικές εξηγήσεις, οι οποίες δεν μπορούν να κριθούν ως αξιόπιστες. Σε αυτή τη διπλωματική προτείνεται μια νέα μέθοδος, η οποία συνδυάζει αυτές τις δύο προσεγγίσεις, εκμεταλλευόμενη το αγνωστικό μέρος της μοντέλων-αντιπροσώπων καθώς και της ερμηνευτικής δύναμης των τιμών Shapley. Επίσης παρουσιάζεται μια νέα μετρική, την TopjSimilarity, προκειμένου να αξιολογηθεί η προτεινόμενη μέθοδος και η οποία μετρά την ομοιότητα δύο δεδομένων εξηγήσεων, που προκύπτουν από τις τιμές Shapley. Τέλος, προτείνονται τρόποι με τους οποίους μπορούν να γίνουν περαιτέρω βελτιώσεις. The ability to explain in understandable terms, why a machine learning model makes a certain prediction is becoming immensely important, as it ensures trust and transparency in the decision process of the model. Complex models, such as ensemble or deep learning models, are hard to interpret. Various methods have been proposed that deal with this matter. Shapley values provide accurate explanations, as they assign each feature an importance value for a particular prediction. However, the exponential complexity of their calculation is dealt efficiently only in decision tree-based models. Another method is surrogate models, which emulate a black-box model’s behavior and provide explanations effortlessly, since they are constructed to be interpretable. Surrogate models are model-agnostic, but they produce only approximate explanations, which cannot always be trusted. In this diploma thesis, a new method is proposed, that combines these two approaches, so that we can take advantage of the model-agnostic part of the surrogate models, as well as the explanatory power of the Shapley values. We introduce a new metric, TopjSimilarity, that measures the similitude of two given explanations, produced by Shapley values, in order to evaluate our work. Finally, we recommend ways on how this method could be improved further 2020-02-06T21:19:25Z 2020-02-06T21:19:25Z 2019-10-17 Thesis http://hdl.handle.net/10889/13132 gr 0 application/pdf
institution UPatras
collection Nemertes
language Greek
topic Μηχανική μάθηση
Ερμηνευσιμότητα
Machine learning
Interpretability
Shapley
spellingShingle Μηχανική μάθηση
Ερμηνευσιμότητα
Machine learning
Interpretability
Shapley
Μεσσαλάς, Ανδρέας
Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley
description Η ικανότητα να εξηγείς σε κατανοητούς όρους (interpretability), τους λόγους γιατί ένα μοντέλο μηχανικής μάθησης κάνει μια συγκεκριμένη πρόβλεψη γίνεται όλο και πιο σημαντική, καθώς διασφαλίζει εμπιστοσύνη και διαφάνεια στη διαδικασία λήψης αποφάσεων από το μοντέλο. Πολύπλοκα μοντέλα, όπως συνδυαστικά (ensemble) ή βαθιάς μάθησης (deep learning) μοντέλα, είναι δύσκολα να ερμηνευθούν. Διάφορες μέθοδοι έχουν προταθεί ως τώρα για την αντιμετώπιση αυτού του ζητήματος. Οι τιμές Shapley από τη θεωρία παιγνίων προσφέρουν ακριβείς εξηγήσεις αναθέτοντας σε κάθε χαρακτηριστικό (feature) μια τιμή σημαντικότητας για μια συγκεκριμένη πρόβλεψη του μοντέλου. Όμως η εκθετική πολυπλοκότητα του υπολογισμού αυτών των τιμών αντιμετωπίζεται αποδοτικά μόνο σε μοντέλα βασισμένα σε δέντρα απόφασης. Μια άλλη μέθοδος είναι τα μοντέλα-αντιπρόσωποι (surrogate), τα οποία εξομοιώνουν τη συμπεριφορά ενός πολύπλοκου μοντέλου, που αντιμετωπίζεται σαν "μαύρο κουτί", προσφέροντας εξηγήσεις αβίαστα, λόγω του τρόπου κατασκευής τους. Τα μοντέλα-αντιπρόσωποι είναι αγνωστικά ως προς το μοντέλο (model-agnostic), αλλά παράγουν μόνο προσεγιστικές εξηγήσεις, οι οποίες δεν μπορούν να κριθούν ως αξιόπιστες. Σε αυτή τη διπλωματική προτείνεται μια νέα μέθοδος, η οποία συνδυάζει αυτές τις δύο προσεγγίσεις, εκμεταλλευόμενη το αγνωστικό μέρος της μοντέλων-αντιπροσώπων καθώς και της ερμηνευτικής δύναμης των τιμών Shapley. Επίσης παρουσιάζεται μια νέα μετρική, την TopjSimilarity, προκειμένου να αξιολογηθεί η προτεινόμενη μέθοδος και η οποία μετρά την ομοιότητα δύο δεδομένων εξηγήσεων, που προκύπτουν από τις τιμές Shapley. Τέλος, προτείνονται τρόποι με τους οποίους μπορούν να γίνουν περαιτέρω βελτιώσεις.
author2 Μακρής, Χρήστος
author_facet Μακρής, Χρήστος
Μεσσαλάς, Ανδρέας
format Thesis
author Μεσσαλάς, Ανδρέας
author_sort Μεσσαλάς, Ανδρέας
title Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley
title_short Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley
title_full Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley
title_fullStr Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley
title_full_unstemmed Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley
title_sort αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές shapley
publishDate 2020
url http://hdl.handle.net/10889/13132
work_keys_str_mv AT messalasandreas agnōstikēōsprostomonteloepexēgēsēmontelōnmēchanikēsmathēsēschrēsimopoiōntastimesshapley
AT messalasandreas modelagnosticinterpretabilitywithshapleyvalues
_version_ 1771297246860541952