Τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων
Τα βαθιά νευρωνικά δίκτυα έχουν επιτύχει πολύ καλή απόδοση σε πολλές λειτουργίες υπολογιστικής όρασης που πολλές φορές μπορούν να συγκριθούν με την ανθρώπινη απόδοση. Γι’ αυτό τον λόγο έχουν χρησιμοποιηθεί σε συστήματα αντίληψης αυτόνομων οχημάτων για τον εντοπισμό και την αναγνώριση κινούμενων και...
Κύριος συγγραφέας: | |
---|---|
Άλλοι συγγραφείς: | |
Γλώσσα: | Greek |
Έκδοση: |
2021
|
Θέματα: | |
Διαθέσιμο Online: | http://hdl.handle.net/10889/14916 |
id |
nemertes-10889-14916 |
---|---|
record_format |
dspace |
institution |
UPatras |
collection |
Nemertes |
language |
Greek |
topic |
Βαθιά νευρωνικά δίκτυα Mηχανική μάθηση Αυτόνομα οχήματα Παραπλανητική επίθεση Παραπλανητική μάθηση Deep neural networks Machine learning Autonomous vehicles Adversarial attack Adversarial learning |
spellingShingle |
Βαθιά νευρωνικά δίκτυα Mηχανική μάθηση Αυτόνομα οχήματα Παραπλανητική επίθεση Παραπλανητική μάθηση Deep neural networks Machine learning Autonomous vehicles Adversarial attack Adversarial learning Ζιώτης, Ιωάννης Τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων |
description |
Τα βαθιά νευρωνικά δίκτυα έχουν επιτύχει πολύ καλή απόδοση σε πολλές λειτουργίες υπολογιστικής όρασης που πολλές φορές μπορούν να συγκριθούν με την ανθρώπινη απόδοση. Γι’ αυτό τον λόγο έχουν χρησιμοποιηθεί σε συστήματα αντίληψης αυτόνομων οχημάτων για τον εντοπισμό και την αναγνώριση κινούμενων και ακίνητων αντικειμένων. Τα αυτοκίνητα με συστήματα αυτόνομης οδήγησης, τα οποία επιτρέπουν στο όχημα να αντιλαμβάνεται το περιβάλλον του και να κινείται μέσα σε αυτό χωρίς ανθρώπινη παρέμβαση, έχουν ήδη κυκλοφορήσει στην αγορά και η ανάπτυξή τους έχει επιταχυνθεί σημαντικά λόγο των αυξανόμενων πληροφοριών που παράγουν. Γι’ αυτό τον λόγο η ασφάλεια αυτών των συστημάτων είναι πολύ σημαντική για την αποφυγή επικίνδυνων ατυχημάτων που θα έθεταν σε κίνδυνο την ζωή του επιβατών του οχήματος αλλά και των πεζών.
Μελέτες έχουν δείξει ότι τα βαθιά νευρωνικά δίκτυα καθώς και άλλα μοντέλα μηχανικής μάθηση όπως τα \en{support vector machines} είναι ευάλωτα σε παραπλανητικές επιθέσεις οι οποίες έχουν στόχο να παραπλανήσουν το υπό επίθεση μοντέλο, έτσι ώστε να κατηγοριοποιεί λάθος τα δεδομένα εισόδου του, μειώνοντας κατά πολύ την ακρίβειά του. Αυτές οι επιθέσεις λειτουργούν προσθέτοντας ειδικά κατασκευασμένο θόρυβο στα αρχικά δεδομένα για να παραχθούν παραπλανητικά δεδομένα. Στην περίπτωση των δεδομένων εικόνας, ο θόρυβος αυτός θα πρέπει να είναι όσο το δυνατόν λιγότερο αντιληπτός από τον άνθρωπο. Έτσι, τροποποιώντας ένα αντικείμενο στο περιβάλλον ενός αυτόνομου οχήματος, για παράδειγμα ένα σήμα κυκλοφορίας, μπορούμε να ξεγελάσουμε το όχημα στο να αναγνωρίσει διαφορετικό σήμα από το πραγματικό. Σε αυτή την Διπλωματική εργασία εφάρμοστηκε μια μέθοδο επίθεσης που συμβάλει στην κατανόηση των παραπλανητικών δεδομένων και προσομοιώνει τις πραγματικές συνθήκες εφαρμογής μιας τέτοιας επίθεσης. Επιλέχθηκε ως πεδίο εφαρμογής τα σήματα οδικής κυκλοφορίας για την παραπλάνηση του συστήματος αναγνώρισης οδικής σήμανσης ενός αυτόνομου οχήματος. Συγκρίθηκαν τα αποτελέσματα της επίθεσης με διαφορετικές μεθόδους επίθεσης που αναφέρονται στην βιβλιογραφία και παρουσίαστηκε το πόσο επηρεάζουν οι πραγματικές συνθήκες θέασης της πινακίδας στην αποτελεσματικότητα της εφαρμοσμένης επίθεσης. Τέλος δείξαμε ότι τα παραπλανητικά δεδομένα που δημιουργήθηκαν με βάση ένα μοντέλο μπορούν να μειώνουν την ακρίβεια ένος διαφορετικού μοντέλου που έχει εκπαιδευτεί στα ίδια δεδομένα με το αρχικό. |
author2 |
Ziotis, Ioannis |
author_facet |
Ziotis, Ioannis Ζιώτης, Ιωάννης |
author |
Ζιώτης, Ιωάννης |
author_sort |
Ζιώτης, Ιωάννης |
title |
Τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων |
title_short |
Τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων |
title_full |
Τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων |
title_fullStr |
Τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων |
title_full_unstemmed |
Τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων |
title_sort |
τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων |
publishDate |
2021 |
url |
http://hdl.handle.net/10889/14916 |
work_keys_str_mv |
AT ziōtēsiōannēs technikesbathiasmathēsēsgiatēnanichneusēodikōnsēmatōnsesynthēkesparaplanētikōnepitheseōn AT ziōtēsiōannēs deeplearningtechniquesforthedetectionofadversarialtrafficsigns |
_version_ |
1771297276943138816 |
spelling |
nemertes-10889-149162022-09-05T20:33:00Z Τεχνικές βαθιάς μάθησης για την ανίχνευση οδικών σημάτων σε συνθήκες παραπλανητικών επιθέσεων Deep learning techniques for the detection of adversarial traffic signs Ζιώτης, Ιωάννης Ziotis, Ioannis Βαθιά νευρωνικά δίκτυα Mηχανική μάθηση Αυτόνομα οχήματα Παραπλανητική επίθεση Παραπλανητική μάθηση Deep neural networks Machine learning Autonomous vehicles Adversarial attack Adversarial learning Τα βαθιά νευρωνικά δίκτυα έχουν επιτύχει πολύ καλή απόδοση σε πολλές λειτουργίες υπολογιστικής όρασης που πολλές φορές μπορούν να συγκριθούν με την ανθρώπινη απόδοση. Γι’ αυτό τον λόγο έχουν χρησιμοποιηθεί σε συστήματα αντίληψης αυτόνομων οχημάτων για τον εντοπισμό και την αναγνώριση κινούμενων και ακίνητων αντικειμένων. Τα αυτοκίνητα με συστήματα αυτόνομης οδήγησης, τα οποία επιτρέπουν στο όχημα να αντιλαμβάνεται το περιβάλλον του και να κινείται μέσα σε αυτό χωρίς ανθρώπινη παρέμβαση, έχουν ήδη κυκλοφορήσει στην αγορά και η ανάπτυξή τους έχει επιταχυνθεί σημαντικά λόγο των αυξανόμενων πληροφοριών που παράγουν. Γι’ αυτό τον λόγο η ασφάλεια αυτών των συστημάτων είναι πολύ σημαντική για την αποφυγή επικίνδυνων ατυχημάτων που θα έθεταν σε κίνδυνο την ζωή του επιβατών του οχήματος αλλά και των πεζών. Μελέτες έχουν δείξει ότι τα βαθιά νευρωνικά δίκτυα καθώς και άλλα μοντέλα μηχανικής μάθηση όπως τα \en{support vector machines} είναι ευάλωτα σε παραπλανητικές επιθέσεις οι οποίες έχουν στόχο να παραπλανήσουν το υπό επίθεση μοντέλο, έτσι ώστε να κατηγοριοποιεί λάθος τα δεδομένα εισόδου του, μειώνοντας κατά πολύ την ακρίβειά του. Αυτές οι επιθέσεις λειτουργούν προσθέτοντας ειδικά κατασκευασμένο θόρυβο στα αρχικά δεδομένα για να παραχθούν παραπλανητικά δεδομένα. Στην περίπτωση των δεδομένων εικόνας, ο θόρυβος αυτός θα πρέπει να είναι όσο το δυνατόν λιγότερο αντιληπτός από τον άνθρωπο. Έτσι, τροποποιώντας ένα αντικείμενο στο περιβάλλον ενός αυτόνομου οχήματος, για παράδειγμα ένα σήμα κυκλοφορίας, μπορούμε να ξεγελάσουμε το όχημα στο να αναγνωρίσει διαφορετικό σήμα από το πραγματικό. Σε αυτή την Διπλωματική εργασία εφάρμοστηκε μια μέθοδο επίθεσης που συμβάλει στην κατανόηση των παραπλανητικών δεδομένων και προσομοιώνει τις πραγματικές συνθήκες εφαρμογής μιας τέτοιας επίθεσης. Επιλέχθηκε ως πεδίο εφαρμογής τα σήματα οδικής κυκλοφορίας για την παραπλάνηση του συστήματος αναγνώρισης οδικής σήμανσης ενός αυτόνομου οχήματος. Συγκρίθηκαν τα αποτελέσματα της επίθεσης με διαφορετικές μεθόδους επίθεσης που αναφέρονται στην βιβλιογραφία και παρουσίαστηκε το πόσο επηρεάζουν οι πραγματικές συνθήκες θέασης της πινακίδας στην αποτελεσματικότητα της εφαρμοσμένης επίθεσης. Τέλος δείξαμε ότι τα παραπλανητικά δεδομένα που δημιουργήθηκαν με βάση ένα μοντέλο μπορούν να μειώνουν την ακρίβεια ένος διαφορετικού μοντέλου που έχει εκπαιδευτεί στα ίδια δεδομένα με το αρχικό. Deep neural networks have achieved state of the art performance on many computer vision tasks, in some cases they have even surpassed the performance of humans. For that reason they have been implemented in the perception system of autonomous vehicles to track moving and static objects on the road. Vehicles that have systems that enable the autonomous navigation have already been commercially available and their development has been accelerated greatly in the recent years. Therefore, the security of those systems is essential to ensure that the passengers as well as the pedestrians are safe, and accidents are avoided.} \en{The researchers have shown that deep neural networks as well as other machine learning models such as support vector machines, are vulnerable to adversarial attacks that aim to fool the classifier and cause the miss-classification of input data therefore reducing its accuracy. These attacks work by adding carefully-crafted perturbations to the original data, generating adversarial data. When those data are images, the added perturbation must be imperceptible to humans. In the context of autonomous vehicles, by adding a perturbation to a physical object on the road such as a traffic sign, the vehicle can be fooled and cause it to malfunction. In this thesis, we applied an attack that contributes on the understanding of adversarial data and simulates the conditions of attacking an autonomous vehicle in the real world. The data that we used, to generate the adversarial examples, are the images of traffic signs in order to fool the traffic sign recognition system of an autonomous vehicle. We compared the resulting data of the attack to other methods of adversarial attacks and presented the influence of physical conditions on the success of the adversarial data. Furthermore, we demonstrated that adversarial examples can reduce the accuracy of a different classifier than the one they were generated for. 2021-07-06T05:24:34Z 2021-07-06T05:24:34Z 2021-07-13 http://hdl.handle.net/10889/14916 gr application/pdf |