Titre : |
Contribution à commande des systèmes robotisés |
Type de document : |
texte imprimé |
Auteurs : |
Fadhila Lachekhab, Auteur ; Mohamed Tadjine, Directeur de thèse |
Editeur : |
[S.l.] : [s.n.] |
Année de publication : |
2020 |
Importance : |
141 f., 1 fichier PDF (7.1 Mo) |
Présentation : |
ill. |
Format : |
30 cm. |
Note générale : |
Mode d'accès : accès au texte intégral par intranet.
Thèse de Doctorat : Automatique : Alger, École Nationale Polytechnique : 2020
Bibliogr. f. 121 - 126 . - Annexe f. 127 - 141 |
Langues : |
Français (fre) |
Mots-clés : |
Robot mobile Apprentissage par renforcement FQL FACL RGB-Kinect Carte 3D. |
Index. décimale : |
D000320 |
Résumé : |
Contrairement à l’apprentissage supervisé, l’apprentissage par renforcement (AR) ne nécessite pas la éfinition d'une base d’apprentissage représentative. Ces techniques d’AR sont particulièrement adoptées à la robotique mobile. Elles permettent ainsi de trouver par un processus d’essais-erreurs, l’action optimale à effectuer pour chaque situation afin d'en maximiser les récompenses. À ce jour, divers algorithmes d’AR ont été proposés dans la littérature. Dans le présent travail, un intérêt particulier est porté aux deux algorithmesdénommés : Actor Critic Learning et Q-Learning. Ces deux approches, basées sur le principe de la programmation dynamique ont été appliquées pour l’adaptation des conclusions du contrôleur flou de la navigation du robot mobile. Par la suite une étude comparative des paramètres des deux algorithmes FACL (Fuzzy Actor Critic Learning) et FQL (Fuzzy Q-Learning) a été effectuée. La seconde partie du présent travail, repose sur la mise œuvre de la caméra RGB-Kinect pour la reconstruction de la carte de l’environnement 3D. Par le biais des filtres SURF, KNN, RANSAC et ICP, le programme développé a permis de minimiser l’erreur moyenne de la fusion de plusieurs vues successives et l’élaboration de la carte 3D de l’environnement d’évolution du robot mobile. |
Contribution à commande des systèmes robotisés [texte imprimé] / Fadhila Lachekhab, Auteur ; Mohamed Tadjine, Directeur de thèse . - [S.l.] : [s.n.], 2020 . - 141 f., 1 fichier PDF (7.1 Mo) : ill. ; 30 cm. Mode d'accès : accès au texte intégral par intranet.
Thèse de Doctorat : Automatique : Alger, École Nationale Polytechnique : 2020
Bibliogr. f. 121 - 126 . - Annexe f. 127 - 141 Langues : Français ( fre)
Mots-clés : |
Robot mobile Apprentissage par renforcement FQL FACL RGB-Kinect Carte 3D. |
Index. décimale : |
D000320 |
Résumé : |
Contrairement à l’apprentissage supervisé, l’apprentissage par renforcement (AR) ne nécessite pas la éfinition d'une base d’apprentissage représentative. Ces techniques d’AR sont particulièrement adoptées à la robotique mobile. Elles permettent ainsi de trouver par un processus d’essais-erreurs, l’action optimale à effectuer pour chaque situation afin d'en maximiser les récompenses. À ce jour, divers algorithmes d’AR ont été proposés dans la littérature. Dans le présent travail, un intérêt particulier est porté aux deux algorithmesdénommés : Actor Critic Learning et Q-Learning. Ces deux approches, basées sur le principe de la programmation dynamique ont été appliquées pour l’adaptation des conclusions du contrôleur flou de la navigation du robot mobile. Par la suite une étude comparative des paramètres des deux algorithmes FACL (Fuzzy Actor Critic Learning) et FQL (Fuzzy Q-Learning) a été effectuée. La seconde partie du présent travail, repose sur la mise œuvre de la caméra RGB-Kinect pour la reconstruction de la carte de l’environnement 3D. Par le biais des filtres SURF, KNN, RANSAC et ICP, le programme développé a permis de minimiser l’erreur moyenne de la fusion de plusieurs vues successives et l’élaboration de la carte 3D de l’environnement d’évolution du robot mobile. |
|