Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης

Τα βαθιά νευρωνικά δίκτυα έχουν παρουσιάσει ραγδαία ανάπτυξη και εξαιρετική απόδοση σε πολλούς τομείς όπως αυτόν την υπολογιστικής όρασης. Χρησιμοποιούνται ευρέως σε εφαρμογές όπως η αναγνώριση και κατηγοριοποίηση εικόνων, ανίχνευση αντικειμένων καθώς και αναγνώριση ψηφίων. Ωστόσο, έρευνες έχουν απο...

Πλήρης περιγραφή

Λεπτομέρειες βιβλιογραφικής εγγραφής
Κύριος συγγραφέας: Νάκος, Αριστοτέλης
Άλλοι συγγραφείς: Nakos, Aristotelis
Γλώσσα:Greek
Έκδοση: 2022
Θέματα:
Διαθέσιμο Online:http://hdl.handle.net/10889/15887
id nemertes-10889-15887
record_format dspace
spelling nemertes-10889-158872022-09-06T05:13:38Z Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης Defence techniques on neural networks against adversarial attacks Νάκος, Αριστοτέλης Nakos, Aristotelis Μηχανική μάθηση Βαθιά μάθηση Συνελικτικά νευρωνικά δίκτυα Τεχνικές αμυντικής θωράκισης Deep learning Convolutional neural networks Machine learning Defending methods Τα βαθιά νευρωνικά δίκτυα έχουν παρουσιάσει ραγδαία ανάπτυξη και εξαιρετική απόδοση σε πολλούς τομείς όπως αυτόν την υπολογιστικής όρασης. Χρησιμοποιούνται ευρέως σε εφαρμογές όπως η αναγνώριση και κατηγοριοποίηση εικόνων, ανίχνευση αντικειμένων καθώς και αναγνώριση ψηφίων. Ωστόσο, έρευνες έχουν αποδείξει ότι τα νευρωνικά δίκτυα είναι ευάλωτα σε καλά σχεδιασμένα δείγματα που ονομάζονται adversarial examples. Τα δείγματα αυτά, είναι αδιόρατα στους ανθρώπους αλλά μπορούν εύκολα να ξεγελάσουν τα δίκτυα οδηγώντας τα σε λάθος απόφαση. Η αδυναμία των δικτύων στα παραπλανητικά δείγματα, αποτελεί το μεγαλύτερο ρίσκο για την εφαρμογή των νευρωνικών δικτύων σε περιβάλλοντα ασφαλείας υψηλού κινδύνου. Για αυτό το λόγο, μεγάλη προσοχή έχει επικεντρωθεί γύρω από τις επιθέσεις και τεχνικές αμύνης στα νευρωνικά δίκτυα. Στα πλαίσια της παρούσας διπλωματικής, αναλύονται και εφαρμόζονται ποικίλες τεχνικές αμυντικής θωράκισης των δικτύων, ώστε να αυξηθεί η ανθεκτικότητα τους έναντι των επιθέσεων. Στη συνέχεια, με τη βοήθεια ειδικά κατασκευασμένων παραπλανητικών δειγμάτων, παρουσιάζεται και επεξηγείται η απόδοση που παρουσιάζουν τα δίκτυα, θωρακισμένα με κάποιες από τις τεχνικές. Τέλος, παρουσιάζεται η υλοποίηση μιας ρεαλιστικής εφαρμογής που αποσκοπεί στην ασφαλή ηλεκτρονική συναλλαγή χρημάτων με τη χρήση μεθόδων Βαθιάς Μάθησης και Υπολογιστικής Όρασης. Deep neural networks have made rapid progress and outstanding performance in applications of Computer Vision. They are widely used in applications like image recognition and classification, object detection and handwritten digits recognition. However, researches have proved that deep neural networks are vulnerable to well-designed samples, called adversarial examples. These samples are imperceptible to humans but can easily fool networks leading them to wrong decision. The vulnerability to adversarial examples becomes one of the major risks for applying deep neural networks in safety-critical environments. Therefore, attacks and defenses on adversarial examples draw gρeat attention. The aim of this thesis, is to present the analysis and the application of various defending methods, so that the robustness against adversarial attacks will be increased. Moreover, with the aid of the adversarial examples, is explicated the network's efficiency. Last but not least, a real implementation of safe money transaction is being displayed, by applying Deep Learning Methods and Computer Vision. 2022-03-02T07:47:29Z 2022-03-02T07:47:29Z 2022-02-03 http://hdl.handle.net/10889/15887 gr application/pdf
institution UPatras
collection Nemertes
language Greek
topic Μηχανική μάθηση
Βαθιά μάθηση
Συνελικτικά νευρωνικά δίκτυα
Τεχνικές αμυντικής θωράκισης
Deep learning
Convolutional neural networks
Machine learning
Defending methods
spellingShingle Μηχανική μάθηση
Βαθιά μάθηση
Συνελικτικά νευρωνικά δίκτυα
Τεχνικές αμυντικής θωράκισης
Deep learning
Convolutional neural networks
Machine learning
Defending methods
Νάκος, Αριστοτέλης
Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης
description Τα βαθιά νευρωνικά δίκτυα έχουν παρουσιάσει ραγδαία ανάπτυξη και εξαιρετική απόδοση σε πολλούς τομείς όπως αυτόν την υπολογιστικής όρασης. Χρησιμοποιούνται ευρέως σε εφαρμογές όπως η αναγνώριση και κατηγοριοποίηση εικόνων, ανίχνευση αντικειμένων καθώς και αναγνώριση ψηφίων. Ωστόσο, έρευνες έχουν αποδείξει ότι τα νευρωνικά δίκτυα είναι ευάλωτα σε καλά σχεδιασμένα δείγματα που ονομάζονται adversarial examples. Τα δείγματα αυτά, είναι αδιόρατα στους ανθρώπους αλλά μπορούν εύκολα να ξεγελάσουν τα δίκτυα οδηγώντας τα σε λάθος απόφαση. Η αδυναμία των δικτύων στα παραπλανητικά δείγματα, αποτελεί το μεγαλύτερο ρίσκο για την εφαρμογή των νευρωνικών δικτύων σε περιβάλλοντα ασφαλείας υψηλού κινδύνου. Για αυτό το λόγο, μεγάλη προσοχή έχει επικεντρωθεί γύρω από τις επιθέσεις και τεχνικές αμύνης στα νευρωνικά δίκτυα. Στα πλαίσια της παρούσας διπλωματικής, αναλύονται και εφαρμόζονται ποικίλες τεχνικές αμυντικής θωράκισης των δικτύων, ώστε να αυξηθεί η ανθεκτικότητα τους έναντι των επιθέσεων. Στη συνέχεια, με τη βοήθεια ειδικά κατασκευασμένων παραπλανητικών δειγμάτων, παρουσιάζεται και επεξηγείται η απόδοση που παρουσιάζουν τα δίκτυα, θωρακισμένα με κάποιες από τις τεχνικές. Τέλος, παρουσιάζεται η υλοποίηση μιας ρεαλιστικής εφαρμογής που αποσκοπεί στην ασφαλή ηλεκτρονική συναλλαγή χρημάτων με τη χρήση μεθόδων Βαθιάς Μάθησης και Υπολογιστικής Όρασης.
author2 Nakos, Aristotelis
author_facet Nakos, Aristotelis
Νάκος, Αριστοτέλης
author Νάκος, Αριστοτέλης
author_sort Νάκος, Αριστοτέλης
title Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης
title_short Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης
title_full Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης
title_fullStr Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης
title_full_unstemmed Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης
title_sort τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης
publishDate 2022
url http://hdl.handle.net/10889/15887
work_keys_str_mv AT nakosaristotelēs technikesamyntikēsthōrakisēsneurōnikōndiktyōnenantiaseepitheseisparaplanēsēs
AT nakosaristotelēs defencetechniquesonneuralnetworksagainstadversarialattacks
_version_ 1771297363022839808