Πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα
Η παρούσα διπλωματική εργασία εντάσσεται στην ερευνητική περιοχή της ε- νισχυτικής μάθησης, ένα υποσύνολο του τομέα της μηχανικής μάθησης. Μέσω της ενισχυτικής μάθησης καθίσταται δυνατή η εκπαίδευση αυτόνομων πρα- κτόρων με ελάχιστη πληροφορία, καθώς το περιβάλλον στο οποίο δραστηριο- ποιείται ένας...
Κύριος συγγραφέας: | |
---|---|
Άλλοι συγγραφείς: | |
Γλώσσα: | Greek |
Έκδοση: |
2023
|
Θέματα: | |
Διαθέσιμο Online: | https://hdl.handle.net/10889/25315 |
id |
nemertes-10889-25315 |
---|---|
record_format |
dspace |
spelling |
nemertes-10889-253152023-07-05T03:59:40Z Πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα Experimental comparison of model-based reinforcement learning algorithms Σιράγας, Μιχαήλ Siragas, Michail Ενισχυτική μάθηση Νευρωνικά δίκτυα Ρομποτικά συστήματα Επιβλεπόμενη μάθηση Reinforcment learning Neural networks Robotic systems Supervised learning Η παρούσα διπλωματική εργασία εντάσσεται στην ερευνητική περιοχή της ε- νισχυτικής μάθησης, ένα υποσύνολο του τομέα της μηχανικής μάθησης. Μέσω της ενισχυτικής μάθησης καθίσταται δυνατή η εκπαίδευση αυτόνομων πρα- κτόρων με ελάχιστη πληροφορία, καθώς το περιβάλλον στο οποίο δραστηριο- ποιείται ένας αυτόνομος πράκτορας, συχνά δεν είναι γνωστό εκ των προτέρων. Μέσω αυτής της αλληλεπίδρασης με το περιβάλλον, ο πράκτορας συλλέγει δε- δομένα. Η διαδικασία εκμάθησης δυναμικών μοντέλων δυσχεραίνει όταν αυτά τα δεδομένα είναι μη δομημένα, καθώς τα παραγόμενα μοντέλα δεν μπορούν να αναπαραστήσουν επαρκώς τον πραγματικό κόσμο και απαιτούν πολύ μεγάλη υπολογιστική ισχύ. Το παραπάνω πρόβλημα θεωρείται θεμελιώδες στην επι- στήμη της ρομποτικής. Η διπλωματική εργασία αποσκοπεί στην αξιολόγηση και σύγκριση της απόδοσης δύο διαφορετικών μεθόδων εκπαίδευσης μοντέλων, των νευρωνικών δικτύων και των γκαουσιανών διεργασιών, σε μία διαδικα- σία εκμάθησης πολιτικής βασισμένη σε δυναμικά μοντέλα (model-based policy search). Τα νευρωνικά δίκτυα αποτελούν μια δημοφιλή τεχνική εκπαίδευσης μοντέλων, ενώ οι γκαουσιανές διεργασίες προσφέρουν μια διαφορετική προ- σέγγιση που λαμβάνει υπόψη την αβεβαιότητα στις προβλέψεις. Τα κύρια εργαλεία που χρησιμοποιήθηκαν είναι η γλώσσα προγραμματισμο- ύ python , η βιβλιοθήκη RobotDart για την προσομοίωση των ρομπότ και του περιβάλλοντος, οι βιβλιοθήκες PyTorch και GPytorch για την δημιουρ- γία νευρωνικών δικτύων και γκαουσιανών διαδικασιών αντίστοιχα καθώς και η βιβλιοθήκη Matplotlib για την δημιουργία των γραφικών παραστάσεων. The present thesis belongs to the research area of reinforcement learning, a subset of the field of machine learning. Through reinforcement learning, the training of autonomous agents with minimal information becomes possible, as the environment in which an autonomous agent operates is often unknown in advance. Through this interaction with the environment, the agent collects data. The process of learning dynamic models becomes challenging when the data is unstructured since the generated models cannot adequately represent the real world and require significant computational power. The aforemen- tioned problem is considered fundamental in the science of robotics. The thesis aims to evaluate and compare the performance of two different model training methods, neural networks, and Gaussian processes, in a model-based policy search learning process. Neural networks are a popular technique for model training, while Gaussian processes provide a different approach that takes into account uncertainty in predictions. The main tools used are the programming language Python, the Robot- Dart library for robot and environment simulation, the PyTorch and GPy- torch libraries for creating neural networks and Gaussian processes respec- tively, and the Matplotlib library for creating graphical representations. 2023-07-04T06:44:45Z 2023-07-04T06:44:45Z 2023-06-28 https://hdl.handle.net/10889/25315 el Attribution 3.0 United States http://creativecommons.org/licenses/by/3.0/us/ application/pdf |
institution |
UPatras |
collection |
Nemertes |
language |
Greek |
topic |
Ενισχυτική μάθηση Νευρωνικά δίκτυα Ρομποτικά συστήματα Επιβλεπόμενη μάθηση Reinforcment learning Neural networks Robotic systems Supervised learning |
spellingShingle |
Ενισχυτική μάθηση Νευρωνικά δίκτυα Ρομποτικά συστήματα Επιβλεπόμενη μάθηση Reinforcment learning Neural networks Robotic systems Supervised learning Σιράγας, Μιχαήλ Πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα |
description |
Η παρούσα διπλωματική εργασία εντάσσεται στην ερευνητική περιοχή της ε-
νισχυτικής μάθησης, ένα υποσύνολο του τομέα της μηχανικής μάθησης. Μέσω
της ενισχυτικής μάθησης καθίσταται δυνατή η εκπαίδευση αυτόνομων πρα-
κτόρων με ελάχιστη πληροφορία, καθώς το περιβάλλον στο οποίο δραστηριο-
ποιείται ένας αυτόνομος πράκτορας, συχνά δεν είναι γνωστό εκ των προτέρων.
Μέσω αυτής της αλληλεπίδρασης με το περιβάλλον, ο πράκτορας συλλέγει δε-
δομένα. Η διαδικασία εκμάθησης δυναμικών μοντέλων δυσχεραίνει όταν αυτά
τα δεδομένα είναι μη δομημένα, καθώς τα παραγόμενα μοντέλα δεν μπορούν
να αναπαραστήσουν επαρκώς τον πραγματικό κόσμο και απαιτούν πολύ μεγάλη
υπολογιστική ισχύ. Το παραπάνω πρόβλημα θεωρείται θεμελιώδες στην επι-
στήμη της ρομποτικής. Η διπλωματική εργασία αποσκοπεί στην αξιολόγηση
και σύγκριση της απόδοσης δύο διαφορετικών μεθόδων εκπαίδευσης μοντέλων,
των νευρωνικών δικτύων και των γκαουσιανών διεργασιών, σε μία διαδικα-
σία εκμάθησης πολιτικής βασισμένη σε δυναμικά μοντέλα (model-based policy
search). Τα νευρωνικά δίκτυα αποτελούν μια δημοφιλή τεχνική εκπαίδευσης
μοντέλων, ενώ οι γκαουσιανές διεργασίες προσφέρουν μια διαφορετική προ-
σέγγιση που λαμβάνει υπόψη την αβεβαιότητα στις προβλέψεις.
Τα κύρια εργαλεία που χρησιμοποιήθηκαν είναι η γλώσσα προγραμματισμο-
ύ python , η βιβλιοθήκη RobotDart για την προσομοίωση των ρομπότ και
του περιβάλλοντος, οι βιβλιοθήκες PyTorch και GPytorch για την δημιουρ-
γία νευρωνικών δικτύων και γκαουσιανών διαδικασιών αντίστοιχα καθώς και η
βιβλιοθήκη Matplotlib για την δημιουργία των γραφικών παραστάσεων. |
author2 |
Siragas, Michail |
author_facet |
Siragas, Michail Σιράγας, Μιχαήλ |
author |
Σιράγας, Μιχαήλ |
author_sort |
Σιράγας, Μιχαήλ |
title |
Πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα |
title_short |
Πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα |
title_full |
Πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα |
title_fullStr |
Πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα |
title_full_unstemmed |
Πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα |
title_sort |
πειραματική σύγκριση αλγορίθμων ενισχυτικής μάθησης βασισμένης σε μοντέλα |
publishDate |
2023 |
url |
https://hdl.handle.net/10889/25315 |
work_keys_str_mv |
AT siragasmichaēl peiramatikēsynkrisēalgorithmōnenischytikēsmathēsēsbasismenēssemontela AT siragasmichaēl experimentalcomparisonofmodelbasedreinforcementlearningalgorithms |
_version_ |
1771297333100675072 |