Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης
Τα βαθιά νευρωνικά δίκτυα έχουν παρουσιάσει ραγδαία ανάπτυξη και εξαιρετική απόδοση σε πολλούς τομείς όπως αυτόν την υπολογιστικής όρασης. Χρησιμοποιούνται ευρέως σε εφαρμογές όπως η αναγνώριση και κατηγοριοποίηση εικόνων, ανίχνευση αντικειμένων καθώς και αναγνώριση ψηφίων. Ωστόσο, έρευνες έχουν απο...
Main Author: | |
---|---|
Other Authors: | |
Language: | Greek |
Published: |
2022
|
Subjects: | |
Online Access: | http://hdl.handle.net/10889/15887 |
id |
nemertes-10889-15887 |
---|---|
record_format |
dspace |
spelling |
nemertes-10889-158872022-09-06T05:13:38Z Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης Defence techniques on neural networks against adversarial attacks Νάκος, Αριστοτέλης Nakos, Aristotelis Μηχανική μάθηση Βαθιά μάθηση Συνελικτικά νευρωνικά δίκτυα Τεχνικές αμυντικής θωράκισης Deep learning Convolutional neural networks Machine learning Defending methods Τα βαθιά νευρωνικά δίκτυα έχουν παρουσιάσει ραγδαία ανάπτυξη και εξαιρετική απόδοση σε πολλούς τομείς όπως αυτόν την υπολογιστικής όρασης. Χρησιμοποιούνται ευρέως σε εφαρμογές όπως η αναγνώριση και κατηγοριοποίηση εικόνων, ανίχνευση αντικειμένων καθώς και αναγνώριση ψηφίων. Ωστόσο, έρευνες έχουν αποδείξει ότι τα νευρωνικά δίκτυα είναι ευάλωτα σε καλά σχεδιασμένα δείγματα που ονομάζονται adversarial examples. Τα δείγματα αυτά, είναι αδιόρατα στους ανθρώπους αλλά μπορούν εύκολα να ξεγελάσουν τα δίκτυα οδηγώντας τα σε λάθος απόφαση. Η αδυναμία των δικτύων στα παραπλανητικά δείγματα, αποτελεί το μεγαλύτερο ρίσκο για την εφαρμογή των νευρωνικών δικτύων σε περιβάλλοντα ασφαλείας υψηλού κινδύνου. Για αυτό το λόγο, μεγάλη προσοχή έχει επικεντρωθεί γύρω από τις επιθέσεις και τεχνικές αμύνης στα νευρωνικά δίκτυα. Στα πλαίσια της παρούσας διπλωματικής, αναλύονται και εφαρμόζονται ποικίλες τεχνικές αμυντικής θωράκισης των δικτύων, ώστε να αυξηθεί η ανθεκτικότητα τους έναντι των επιθέσεων. Στη συνέχεια, με τη βοήθεια ειδικά κατασκευασμένων παραπλανητικών δειγμάτων, παρουσιάζεται και επεξηγείται η απόδοση που παρουσιάζουν τα δίκτυα, θωρακισμένα με κάποιες από τις τεχνικές. Τέλος, παρουσιάζεται η υλοποίηση μιας ρεαλιστικής εφαρμογής που αποσκοπεί στην ασφαλή ηλεκτρονική συναλλαγή χρημάτων με τη χρήση μεθόδων Βαθιάς Μάθησης και Υπολογιστικής Όρασης. Deep neural networks have made rapid progress and outstanding performance in applications of Computer Vision. They are widely used in applications like image recognition and classification, object detection and handwritten digits recognition. However, researches have proved that deep neural networks are vulnerable to well-designed samples, called adversarial examples. These samples are imperceptible to humans but can easily fool networks leading them to wrong decision. The vulnerability to adversarial examples becomes one of the major risks for applying deep neural networks in safety-critical environments. Therefore, attacks and defenses on adversarial examples draw gρeat attention. The aim of this thesis, is to present the analysis and the application of various defending methods, so that the robustness against adversarial attacks will be increased. Moreover, with the aid of the adversarial examples, is explicated the network's efficiency. Last but not least, a real implementation of safe money transaction is being displayed, by applying Deep Learning Methods and Computer Vision. 2022-03-02T07:47:29Z 2022-03-02T07:47:29Z 2022-02-03 http://hdl.handle.net/10889/15887 gr application/pdf |
institution |
UPatras |
collection |
Nemertes |
language |
Greek |
topic |
Μηχανική μάθηση Βαθιά μάθηση Συνελικτικά νευρωνικά δίκτυα Τεχνικές αμυντικής θωράκισης Deep learning Convolutional neural networks Machine learning Defending methods |
spellingShingle |
Μηχανική μάθηση Βαθιά μάθηση Συνελικτικά νευρωνικά δίκτυα Τεχνικές αμυντικής θωράκισης Deep learning Convolutional neural networks Machine learning Defending methods Νάκος, Αριστοτέλης Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης |
description |
Τα βαθιά νευρωνικά δίκτυα έχουν παρουσιάσει ραγδαία ανάπτυξη και εξαιρετική απόδοση σε πολλούς τομείς όπως αυτόν την υπολογιστικής όρασης. Χρησιμοποιούνται ευρέως σε εφαρμογές όπως η αναγνώριση και κατηγοριοποίηση εικόνων, ανίχνευση αντικειμένων καθώς και αναγνώριση ψηφίων. Ωστόσο, έρευνες έχουν αποδείξει ότι τα νευρωνικά δίκτυα είναι ευάλωτα σε καλά σχεδιασμένα δείγματα που ονομάζονται adversarial examples. Τα δείγματα αυτά, είναι αδιόρατα στους ανθρώπους αλλά μπορούν εύκολα να ξεγελάσουν τα δίκτυα οδηγώντας τα σε λάθος απόφαση. Η αδυναμία των δικτύων στα παραπλανητικά δείγματα, αποτελεί το μεγαλύτερο ρίσκο για την εφαρμογή των νευρωνικών δικτύων σε περιβάλλοντα ασφαλείας
υψηλού κινδύνου. Για αυτό το λόγο, μεγάλη προσοχή έχει επικεντρωθεί γύρω από τις επιθέσεις και τεχνικές αμύνης στα νευρωνικά δίκτυα.
Στα πλαίσια της παρούσας διπλωματικής, αναλύονται και εφαρμόζονται ποικίλες τεχνικές
αμυντικής θωράκισης των δικτύων, ώστε να αυξηθεί η ανθεκτικότητα τους έναντι των
επιθέσεων. Στη συνέχεια, με τη βοήθεια ειδικά κατασκευασμένων παραπλανητικών δειγμάτων, παρουσιάζεται και επεξηγείται η απόδοση που παρουσιάζουν τα δίκτυα, θωρακισμένα με κάποιες από τις τεχνικές. Τέλος, παρουσιάζεται η υλοποίηση μιας ρεαλιστικής εφαρμογής που αποσκοπεί στην ασφαλή ηλεκτρονική συναλλαγή χρημάτων με τη χρήση μεθόδων Βαθιάς Μάθησης και Υπολογιστικής Όρασης. |
author2 |
Nakos, Aristotelis |
author_facet |
Nakos, Aristotelis Νάκος, Αριστοτέλης |
author |
Νάκος, Αριστοτέλης |
author_sort |
Νάκος, Αριστοτέλης |
title |
Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης |
title_short |
Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης |
title_full |
Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης |
title_fullStr |
Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης |
title_full_unstemmed |
Τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης |
title_sort |
τεχνικές αμυντικής θωράκισης νευρωνικών δικτύων ενάντια σε επιθέσεις παραπλάνησης |
publishDate |
2022 |
url |
http://hdl.handle.net/10889/15887 |
work_keys_str_mv |
AT nakosaristotelēs technikesamyntikēsthōrakisēsneurōnikōndiktyōnenantiaseepitheseisparaplanēsēs AT nakosaristotelēs defencetechniquesonneuralnetworksagainstadversarialattacks |
_version_ |
1771297363022839808 |