Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley
Η ικανότητα να εξηγείς σε κατανοητούς όρους (interpretability), τους λόγους γιατί ένα μοντέλο μηχανικής μάθησης κάνει μια συγκεκριμένη πρόβλεψη γίνεται όλο και πιο σημαντική, καθώς διασφαλίζει εμπιστοσύνη και διαφάνεια στη διαδικασία λήψης αποφάσεων από το μοντέλο. Πολύπλοκα μοντέλα, όπως συνδυαστικ...
Κύριος συγγραφέας: | |
---|---|
Άλλοι συγγραφείς: | |
Μορφή: | Thesis |
Γλώσσα: | Greek |
Έκδοση: |
2020
|
Θέματα: | |
Διαθέσιμο Online: | http://hdl.handle.net/10889/13132 |
id |
nemertes-10889-13132 |
---|---|
record_format |
dspace |
spelling |
nemertes-10889-131322022-09-05T13:57:06Z Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley Model-agnostic Interpretability with Shapley values Μεσσαλάς, Ανδρέας Μακρής, Χρήστος Κανελλόπουλος, Ιωάννης Μακρής, Χρήστος Σιούτας, Σπύρος Τσώλης, Δημήτρης Andreas, Messalas Μηχανική μάθηση Ερμηνευσιμότητα Machine learning Interpretability Shapley Η ικανότητα να εξηγείς σε κατανοητούς όρους (interpretability), τους λόγους γιατί ένα μοντέλο μηχανικής μάθησης κάνει μια συγκεκριμένη πρόβλεψη γίνεται όλο και πιο σημαντική, καθώς διασφαλίζει εμπιστοσύνη και διαφάνεια στη διαδικασία λήψης αποφάσεων από το μοντέλο. Πολύπλοκα μοντέλα, όπως συνδυαστικά (ensemble) ή βαθιάς μάθησης (deep learning) μοντέλα, είναι δύσκολα να ερμηνευθούν. Διάφορες μέθοδοι έχουν προταθεί ως τώρα για την αντιμετώπιση αυτού του ζητήματος. Οι τιμές Shapley από τη θεωρία παιγνίων προσφέρουν ακριβείς εξηγήσεις αναθέτοντας σε κάθε χαρακτηριστικό (feature) μια τιμή σημαντικότητας για μια συγκεκριμένη πρόβλεψη του μοντέλου. Όμως η εκθετική πολυπλοκότητα του υπολογισμού αυτών των τιμών αντιμετωπίζεται αποδοτικά μόνο σε μοντέλα βασισμένα σε δέντρα απόφασης. Μια άλλη μέθοδος είναι τα μοντέλα-αντιπρόσωποι (surrogate), τα οποία εξομοιώνουν τη συμπεριφορά ενός πολύπλοκου μοντέλου, που αντιμετωπίζεται σαν "μαύρο κουτί", προσφέροντας εξηγήσεις αβίαστα, λόγω του τρόπου κατασκευής τους. Τα μοντέλα-αντιπρόσωποι είναι αγνωστικά ως προς το μοντέλο (model-agnostic), αλλά παράγουν μόνο προσεγιστικές εξηγήσεις, οι οποίες δεν μπορούν να κριθούν ως αξιόπιστες. Σε αυτή τη διπλωματική προτείνεται μια νέα μέθοδος, η οποία συνδυάζει αυτές τις δύο προσεγγίσεις, εκμεταλλευόμενη το αγνωστικό μέρος της μοντέλων-αντιπροσώπων καθώς και της ερμηνευτικής δύναμης των τιμών Shapley. Επίσης παρουσιάζεται μια νέα μετρική, την TopjSimilarity, προκειμένου να αξιολογηθεί η προτεινόμενη μέθοδος και η οποία μετρά την ομοιότητα δύο δεδομένων εξηγήσεων, που προκύπτουν από τις τιμές Shapley. Τέλος, προτείνονται τρόποι με τους οποίους μπορούν να γίνουν περαιτέρω βελτιώσεις. The ability to explain in understandable terms, why a machine learning model makes a certain prediction is becoming immensely important, as it ensures trust and transparency in the decision process of the model. Complex models, such as ensemble or deep learning models, are hard to interpret. Various methods have been proposed that deal with this matter. Shapley values provide accurate explanations, as they assign each feature an importance value for a particular prediction. However, the exponential complexity of their calculation is dealt efficiently only in decision tree-based models. Another method is surrogate models, which emulate a black-box model’s behavior and provide explanations effortlessly, since they are constructed to be interpretable. Surrogate models are model-agnostic, but they produce only approximate explanations, which cannot always be trusted. In this diploma thesis, a new method is proposed, that combines these two approaches, so that we can take advantage of the model-agnostic part of the surrogate models, as well as the explanatory power of the Shapley values. We introduce a new metric, TopjSimilarity, that measures the similitude of two given explanations, produced by Shapley values, in order to evaluate our work. Finally, we recommend ways on how this method could be improved further 2020-02-06T21:19:25Z 2020-02-06T21:19:25Z 2019-10-17 Thesis http://hdl.handle.net/10889/13132 gr 0 application/pdf |
institution |
UPatras |
collection |
Nemertes |
language |
Greek |
topic |
Μηχανική μάθηση Ερμηνευσιμότητα Machine learning Interpretability Shapley |
spellingShingle |
Μηχανική μάθηση Ερμηνευσιμότητα Machine learning Interpretability Shapley Μεσσαλάς, Ανδρέας Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley |
description |
Η ικανότητα να εξηγείς σε κατανοητούς όρους (interpretability), τους λόγους γιατί ένα μοντέλο μηχανικής μάθησης κάνει μια συγκεκριμένη πρόβλεψη γίνεται όλο και πιο σημαντική, καθώς διασφαλίζει εμπιστοσύνη και διαφάνεια στη διαδικασία λήψης αποφάσεων από το μοντέλο. Πολύπλοκα μοντέλα, όπως συνδυαστικά (ensemble) ή βαθιάς μάθησης (deep learning) μοντέλα, είναι δύσκολα να ερμηνευθούν. Διάφορες μέθοδοι έχουν προταθεί ως τώρα για την αντιμετώπιση αυτού του ζητήματος. Οι τιμές Shapley από τη θεωρία παιγνίων προσφέρουν ακριβείς εξηγήσεις αναθέτοντας σε κάθε χαρακτηριστικό (feature) μια τιμή σημαντικότητας για μια συγκεκριμένη πρόβλεψη του μοντέλου. Όμως η εκθετική πολυπλοκότητα του υπολογισμού αυτών των τιμών αντιμετωπίζεται αποδοτικά μόνο σε μοντέλα βασισμένα σε δέντρα απόφασης. Μια άλλη μέθοδος είναι τα μοντέλα-αντιπρόσωποι (surrogate), τα οποία εξομοιώνουν τη συμπεριφορά ενός πολύπλοκου μοντέλου, που αντιμετωπίζεται σαν "μαύρο κουτί", προσφέροντας εξηγήσεις αβίαστα, λόγω του τρόπου κατασκευής τους. Τα μοντέλα-αντιπρόσωποι είναι αγνωστικά ως προς το μοντέλο (model-agnostic), αλλά παράγουν μόνο προσεγιστικές εξηγήσεις, οι οποίες δεν μπορούν να κριθούν ως αξιόπιστες.
Σε αυτή τη διπλωματική προτείνεται μια νέα μέθοδος, η οποία συνδυάζει αυτές τις δύο προσεγγίσεις, εκμεταλλευόμενη το αγνωστικό μέρος της μοντέλων-αντιπροσώπων καθώς και της ερμηνευτικής δύναμης των τιμών Shapley. Επίσης παρουσιάζεται μια νέα μετρική, την TopjSimilarity, προκειμένου να αξιολογηθεί η προτεινόμενη μέθοδος και η οποία μετρά την ομοιότητα δύο δεδομένων εξηγήσεων, που προκύπτουν από τις τιμές Shapley. Τέλος, προτείνονται τρόποι με τους οποίους μπορούν να γίνουν περαιτέρω βελτιώσεις. |
author2 |
Μακρής, Χρήστος |
author_facet |
Μακρής, Χρήστος Μεσσαλάς, Ανδρέας |
format |
Thesis |
author |
Μεσσαλάς, Ανδρέας |
author_sort |
Μεσσαλάς, Ανδρέας |
title |
Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley |
title_short |
Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley |
title_full |
Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley |
title_fullStr |
Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley |
title_full_unstemmed |
Αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές Shapley |
title_sort |
αγνωστική ως προς το μοντέλο επεξήγηση μοντέλων μηχανικής μάθησης χρησιμοποιώντας τιμές shapley |
publishDate |
2020 |
url |
http://hdl.handle.net/10889/13132 |
work_keys_str_mv |
AT messalasandreas agnōstikēōsprostomonteloepexēgēsēmontelōnmēchanikēsmathēsēschrēsimopoiōntastimesshapley AT messalasandreas modelagnosticinterpretabilitywithshapleyvalues |
_version_ |
1771297246860541952 |