Thèses soutenues 2020
Yassir Dahmane, Gestion d'énergie optimisée étendue véhicules infrastructures ►
Mots-clés : Voiture électriqueOptimisationBatteries Li-ionEffet de la températureAlgorithmes de planificationGestion d’énergie de flotteRéseau intelligentV2GRégulation de fréquence
Résumé
Cette thèse de doctorat s’inscrit dans le cadre de la chaire Renault/Centrale Nantes sur l’amélioration des performances des véhicules électriques (EV/HEV). Elle est dédiée à la problématique de la gestion de la recharge des véhicules électriques, en utilisant des algorithmes d’optimisation et des stratégies de recharge intelligentes. Dans ce cadre, plusieurs contributions ont été proposées sur les sujets de la recharge intelligente d’une voiture électrique et la gestion de la recharge d’une flotte de véhicules électriques, en considérant les contraintes de mobilités (SOC désiré à la fin de la recharge et heure de dé part), la température des batteries Li-ion, les infrastructures de recharge, et le réseau électrique. Sur le sujet de la recharge intelligente d’une voiture électrique, les contributions se sont concentrées sur le développement des algorithmes embarqués permettant la planification du profil de la puissance de recharge afin de réduire le coût de la recharge. Les algorithmes proposés prennent en compte les besoins de mobilités des utilisateurs de véhicules électriques, et l’effet de la température sur la puissance de recharge des batteries Li-ion. Sur le sujet de la gestion de recharge de flotte de véhicules, les contributions portent essentiellement sur les algorithmes centralisés dans les stations de recharge de véhicules électriques. Un algorithme de recharge unidirectionnelle a été proposé afin d’évaluer le nombre optimal de véhicules électriques à recharger avec un bon niveau de satisfaction des contraintes de mobilités et sans aucun renforcement de l’infrastructure. Le passage à l’algorithme bidirectionnel est fait grâce à l’exploitation de la fonctionnalité V2G qui permettra la participation des véhicules électriques dans la régulation de fréquence. Les contributions proposées sur le premier sujet ont l’avantage d’augmenter la précision d’estimation de SOC final en très basse température, et d’être embarquable sur le véhicule grâce à la légèreté des algorithmes et la rapidité d’exécution. D’autre part, les algorithmes de gestion de recharge de flotte de véhicules permettent une intégration des véhicules électriques à grande échelle sur le réseau et montrent le potentiel des voitures électriques dans la contribution à la stabilité du réseau électrique. Les algorithmes et les stratégies développées ont été testés en simulation et seront testés sur un système de recharge de voiture électrique. Les résultats obtenus ont permis de mettre en évidence l’avantage de la recharge intelligente sur la réduction des coûts, les bienfaits sur le réseau et l’importance de la gestion de la recharge des flottes de véhicules électriques dans développement des services réseaux.
Date de soutenance : 16-12-2020
Président du jury : Malek Ghanes
Jury :
- Jean-Pierre Barbot [Président]
- Mickaël Hilairet [Rapporteur]
- Delphine Riu [Rapporteur]
- Hervé Guéguen
- Mario Alberto Alvarado Ruiz
Félix Gontier, Analyse et synthèse de scènes sonores urbaines par approches d'apprentissage profond ►
Analyse et synthèse de scènes sonores urbaines par approches d'apprentissage profond
Auteur : Félix Gontier
Mots-clés : Paysages sonoresRéseaux de capteurs acoustiquesPerception de sources sonoresSynthèse sonore
Résumé
L'avènement de l'Internet des Objets (IoT) a permis le développement de réseaux de capteurs acoustiques à grande échelle, dans le but d'évaluer en continu les environnements sonores urbains. Dans l'approche de paysages sonores, les attributs perceptifs de qualité sonore sont liés à l'activité de sources, quantités d'importance pour mieux estimer la perception humaine des environnements sonores. Utilisées avec succès dans l'analyse de scènes sonores, les approches d'apprentissage profond sont particulièrement adaptées pour prédire ces quantités. Cependant, les annotations nécessaires au processus d'entraînement de modèles profonds ne peuvent pas être directement obtenues, en partie à cause des limitations dans l’information enregistrée par les capteurs nécessaires pour assurer le respect de la vie privée. Pour répondre à ce problème, une méthode pour l'annotation automatique de l'activité des sources d'intérêt sur des scènes sonores simulées est proposée. Sur des données simulées, les modèles d'apprentissage profond développés atteignent des performances « état de l'art » pour l'estimation d'attributs perceptifs liés aux sources, ainsi que de l'agrément sonore. Des techniques d'apprentissage par transfert semisupervisé sont alors étudiées pour favoriser l'adaptabilité des modèles appris, en exploitant l'information contenue dans les grandes quantités de données enregistrées par les capteurs. Les évaluations sur des enregistrements réalisés in situ et annotés montrent qu'apprendre des représentations latentes des signaux audio compense en partie les défauts de validité écologique des scènes sonores simulées. Dans une seconde partie, l'utilisation de méthodes d'apprentissage profond est considérée pour la resynthèse de signaux temporels à partir de mesures capteur, sous contrainte de respect de la vie privée. Deux approches convolutionnelles sont développées et évaluées par rapport à des méthodes état de l'art pour la synthèse de parole.
Date de soutenance : 15-12-2020
Président du jury : Jean-François Petiot
Jury :
- Catherine Marquis-Favre [Président]
- Dick Botteldooren [Rapporteur]
- Gaël Richard [Rapporteur]
- Romain Serizel
Minglei Zhu, Conception de robot orientée commande ►
Mots-clés : Robots parallèlesAsservissement visuelConception orientée commandeRobot cachéMoment dans l’image
Résumé
Il est bien connu que les robots parallèles ont de nombreuses applications dans l ’industrie. Cependant, en raison de leur structure complexe, leur contrôle peut être difficile. Lorsqu'une précision élevée est nécessaire , un modèle complet du robot détaillé est nécessaire . Les approches de contrôle référencées capteurs se sont avérées plus efficaces , en termes de précision que les contrôleurs basés modèles puisqu'elles s’affranchissent des modèles de robots complexes et des erreurs de modélisation associées. Néanmoins, lors de l'application de d’un asservissement visuel , il y a toujours des problèmes dans le processus de contrôle , tels que les singularités du contrôleur . Cette thèse propose une méthodologie de conception orientée commande qui prend en compte les performances de précision du contrôleur dans le processus de conception du robot pour obtenir les paramètres géométriques optimaux de ce dernier Trois contrôleurs ont été sélectionnés dans le processus de conception du robot : les commandes basées sur l’observation des directions des jambes, les commandes basées sur l’observation des lignes et les commandes basées sur des moments dans l'image .Pour vérifier les performances en terme de précision des robots optimisés, nous avons effectué des co-simulations des robots optimisés avec les contrôleurs correspondants . En terme d’expérimentation, deux prototypes de robots DELTA ont été conçus et expérimentés afin de valider la précision du contrôleur
Date de soutenance : 15-12-2020
Président du jury : Sébastien Briot
Jury :
- Philippe Wenger [Président]
- Nicolas Andreff [Rapporteur]
- Philippe Martinet [Rapporteur]
- Claire Dune-Maillard
Zhiqiang Wang, Aide à la décision en usinage basée sur des règles métier et apprentissages non supervisés ►
Aide à la décision en usinage basée sur des règles métier et apprentissages non supervisés
Auteur : Zhiqiang Wang
Mots-clés : Ndustrie 40Machines-outilsFouilles de donnéesGMMClassification contextuelleKPIs
Résumé
Dans le contexte général de l'industrie 4.0, une entreprise de fabrication moderne dispose de nombreuses données numériques qui pourraient être utilisées pour rendre les machines-outils plus intelligentes et faciliter la prise de décision en matière de gestion opérationnelle. Cette thèse vise à proposer un système d'aide à la décision pour les machines-outils intelligentes et connectées par l'exploration des données. L'une des premières étapes de l'approche d'exploration de données est la sélection précise de données pertinentes. Pour ce faire, les données brutes doivent être classées dans différents groupes de contexte. Cette thèse propose un algorithme d'apprentissage automatique non-supervisé, par mélanges gaussiens (GMM), pour la classification contextuelle. Basé sur les informations contextuelles, différents incidents d'usinage peuvent être détectés en temps réel. Il s'agit notamment de broutement, de bris d'outil et de sur-vibration. Cette thèse présente un ensemble de règles métiers pour la détection du broutement, de bris d’outil et de sur-vibration. Le contexte opérationnel a été décrypté lorsque des incidents se produisent, sur la base de la classification contextuelle qui explique les types d'usinage et d'engagement des outils. Ensuite, les nouveaux indicateurs clés de performance (KPIs) pertinents et appropriés peuvent être proposés sur la base de ces informations contextuelles combinés avec les incidents détectés afin de soutenir la prise de décision pour la gestion opérationnelle. Cette thèse propose de nouveaux opérateurs d'agrégation et de nouveaux KPIs pertinents pour les différents besoins des départements.
Date de soutenance : 14-12-2020
Président du jury : Benoît Furet
Jury :
Rongyao Ling, Synthèse de lois de commande résilientes vis-à-vis de l’implémentation par réseau ►
Synthèse de lois de commande résilientes vis-à-vis de l’implémentation par réseau
Auteur : Rongyao Ling
Mots-clés : Commande par réseauCommande robusteMéthodologie de co-conceptionCommande LQ stochastiqueFiltre H∞Forme descripteur
Résumé
Cette thèse apporte des contributions méthodologiques pour l’analyse et la synthèse systématiques de lois de commande implémentée par réseau, confrontées à plusieurs dégradations induites comme les pertes de paquets, les retards ou bien encore les effets de quantification. Plus précisément, les problématiques suivantes sont abordées : 1) sur la base d’un critère LQ stochastique, le problème de suivi de trajectoire pour un système discret multivariable, piloté via un réseau avec pertes de paquets est d’abord considéré. Une solution de co-conception régulateur – codeur / décodeur est proposée, permettant d’exploiter au mieux les capacités du réseau ; 2) le problème de filtrage robuste implémenté aussi sur un réseau avec pertes de paquets est ensuite traité. Une solution à base d’opérateur adjoint est proposée pour résoudre le problème de filtrage H∞, faisant appel à la résolution d’une équation de Riccati discrète modifiée; 3) se focalisant ensuite sur la problématique des estimateurs implémentés de manière distribuée, une méthodologie permettant en une fois de les concevoir et de choisir la réalisation la plus résiliente est ensuite présentée. Cette méthodologie tire profit d’une forme d’état descripteur spécifique, permettant de décrire et analyser les réalisations équivalentes, en explicitant notamment les retards internes et l’impact des phénomènes de quantification. Afin de valider ces différents outils méthodologiques, un exemple basé sur deux robots mobiles coopératifs est introduit. Cet exemple, traité simulation, permet de confronter ces développements méthodologiques sur un problème concret et réaliste.
Date de soutenance : 10-12-2020
Président du jury : Philippe Chevrel
Jury :
- Christophe Aubrun [Président]
- James Ferris Whidborne [Rapporteur]
- Zheng-Guang Wu [Rapporteur]
- Thibault Hilaire
- Wenan Zhang
- Fabien Claveau
- Yu Feng
Maverick Chardet, Concilier expressivité du parallélisme et séparation des préoccupations lors de la reconfiguration de systèmes distribués ►
Concilier expressivité du parallélisme et séparation des préoccupations lors de la reconfiguration de systèmes distribués
Auteur : Maverick Chardet
Mots-clés : DéploiementReconfigurationModèles à composantsCoordinationParallélismeSystèmes distribués
Résumé
Les systèmes informatiques distribués, qui fonctionnent sur plusieurs ordinateurs, sont désormais courants et même utilisés dans des services critiques. Cependant, ces systèmes deviennent de plus en plus complexes, en termes d'échelle, de dynamicité et de qualité de service attendue. La reconfiguration de systèmes distribués consiste à modifier leur état durant leur exécution. Les systèmes distribués peuvent être reconfigurés pour plusieurs raison, parmi lesquelles leur déploiement, leur mise à jour, leur adaptation pour obéir à de nouvelles contraintes (en termes de capacité utilisateurs, d'efficacité énergétique, de fiabilité, de coûts, etc.) ou même le changement de leurs fonctionnalités. Les systèmes de reconfiguration existants ne parviennent pas à fournir en même temps une bonne expressivité du parallélisme dans les actions de reconfiguration et la séparation des préoccupations entre les différents acteurs qui interagissent avec le système. L'objectif de cette thèse est de prouver que ces propriétés peuvent être conciliées en modélisant précisément le cycle de vie de chaque module des systèmes distribués, tout en fournissant des interfaces appropriées entre différents niveaux de conception. Deux modèles formels implantant cette idée sont fournis, un pour le cas particulier du déploiement et un pour la reconfiguration. Une évaluation est réalisée à la fois sur des cas d'usage synthétiques et réels et montre que ces modèles ont un plus haut niveau d'expressivité du parallélisme que leurs homologues tout en conservant un bon niveau de séparation des préoccupations.
Date de soutenance : 03-12-2020
Président du jury : Christian Pérez
Jury :
- Laurence Duchien [Président]
- Daniel Hagimont [Rapporteur]
- Eric Rutten [Rapporteur]
- Françoise Baude
- Hélène Coullon
- Adrien Lebre
Franco Fusco, Asservissement Visuel Dynamique pour Bras Manipulateurs Rapides ►
Mots-clés : Asservissement visuelCommande par modèle prédictifManipulateurs redondants
Résumé
Cette thèse traite de l’augmentation de la productivité des robots manufacturiers, lors de l’exécution de tâches référencées capteurs. De telles tâches peuvent provenir de la cible non positionnée de manière absolue ou d’un environnement mal connu. Les commandes par asservissement visuel sont bien connues pour leur robustesse et leur précision, mais nécessitent généralement de longs temps d’exécution en raison de différents facteurs. La commande est généralement formulée uniquement à un niveau cinématique et caractérisée par des vitesses décroissantes de façon exponentielle. De plus, l’application non linéaire de l’espace opérationnel à l’espace des capteurs peut conduire à des chemins sous-optimaux et plus longs. Pour augmenter les performances de commande et réduire le temps nécessaire à la réalisation d’une tâche, cette thèse étudie l’utilisation de modèles d’interaction de second ordre. Leur utilisation dans une commande au niveau dynamique est étudiée et comparée aux approches classiques. Ils sont ensuite utilisés dans des schémas de commande par modèle prédictif, permettant d’obtenir des vitesses plus élevées tout en générant de meilleures trajectoires. Cependant, un inconvénient des techniques prédictives est leur charge de calcul. Afin d’obtenir de pallier ce défaut, un nouveau type de commande prédictive est étudié. Il conduit à une réduction du nombre de variables impliquées dans les problèmes d’optimisation grâce à l’utilisation d’un paramétrage des séquences d’entrée.
Date de soutenance : 27-11-2020
Président du jury : Philippe Martinet
Jury :
- Isabelle Fantoni-Coichot [Président]
- Jacques Gangloff [Rapporteur]
- Olivier Stasse [Rapporteur]
- Guillaume Allibert
- Abdelhamid Chriette
- Estelle Courtial
Matthieu Furet, Analyse cinéto-statique de mécanismes de tenségrité : Application à la modélisation de cous d'oiseaux et de manipulateurs bio-inspirés ►
Analyse cinéto-statique de mécanismes de tenségrité : Application à la modélisation de cous d'oiseaux et de manipulateurs bio-inspirés
Auteur : Matthieu Furet
Mots-clés : Bio-inspirationCinéto-statiqueTenségrité
Résumé
Une structure de tenségrité est un assemblage d'éléments en compression (barres) et d'éléments en traction (câbles, ressorts) maintenus ensemble en équilibre. La tenségrité est connue en architecture et en art depuis plus d'un siècle et est adaptée à la modélisation des organismes vivants. Les mécanismes de tenségrité ont été étudiés plus récemment pour leurs propriétés prometteuses en robotique telles que leur faible inertie, leur compliance naturelle et la capacité de déploiement. Un mécanisme de tenségrité est obtenu lorsqu'un ou plusieurs éléments sont actionnés. Cette thèse s'inscrit dans le cadre du projet AVINECK, auquel participent des biologistes et des roboticiens dans un but double : avoir une meilleure compréhension de la nature et des cous d’oiseaux, et également de s’inspirer de la nature afin de concevoir des manipulateurs bioinspiré innovants. En premier lieu, une étude a été menée sur la cinématique des vertèbres d’oiseaux. Une modélisation des contacts entre surface articulaire a permis de reconstruire en 3D le mouvement d’une vertèbre d’oiseau quelconque par rapport à une autre, à partir de scans 3D de vraies vertèbres. Ensuite, plusieurs mécanismes simples ont été comparés afin de déterminer le meilleur candidat à la modélisation de la cinématique des cous d’oiseaux. En second lieu, deux mécanismes de tenségrité à 1 degré de liberté (DDL) potentiellement intéressants pour la modélisation de cous d’oiseaux et la réalisation de manipulateurs ont été modélisées. A partir d’une démarche de conception optimale, deux mécanismes optimaux selon un critère donné ont été dimensionnés, puis comparés afin de déterminer le mécanisme le plus intéressant d’un point de vue conception de manipulateurs. Le mécanisme à 1 DDL retenu a été un antiparallélogramme actionné de manière antagoniste, appelé mécanisme en X. Un prototype de manipulateur à 2 DDL a ensuite été conçu et réalisé. Une étude du modèle géométrique d’un tel manipulateur a mis en évidence des phénomènes intéressants comme le comportement cuspidal du robot sous certaines conditions. Une étude cinéto-statique du manipulateur a ensuite été effectué. Le comportement du manipulateur dépendant fortement de la stratégie d’actionnement, celles-ci ont été énumérées et certaines d’entre elles comparées. Les résultats obtenus ont été vérifiés et mis en évidence sur un prototype. Enfin, la modélisation de manipulateurs plans a été étendue aux manipulateurs à N DDL. Un modèle dynamique complet a été obtenu, et une démarche de conception a été menée afin d’obtenir les dimensions et spécifications d’un manipulateur plan bio-inspiré à 10 DDL.
Date de soutenance : 13-11-2020
Président du jury : Philippe Wenger
Jury :
- Stéphane Caro [Président]
- Mohamed Amine Laribi [Rapporteur]
- Pierre Renaud [Rapporteur]
- Christine Chevallereau
- David Daney
- Anick Abourachid
Thomas Minier, La Préemption Web pour interroger le Web des Données ►
Mots-clés : Web sémantiqueGestion des données liéesServeurs SPARQL publics
Résumé
En suivant les principes du Linked Open Data, les fournisseurs de données ont publié des milliards de documents RDF via des services publics d'évaluation de requêtes SPARQL. Pour garantir la disponibilité et la stabilité de ces services, ils appliquent des politiques de quotas sur l'utilisation des serveurs. Les requêtes qui excèdent ces quotas sont interrompues et ne renvoient que des résultats partiels. Cette interruption n'est pas un problème s'il est possible de reprendre l'exécution des requêtes ultérieurement, mais il n'existe aucun modèle de préemption le permettant. Dans cette thèse, nous proposons de résoudre le problème relatif à la construction des services qui permettent à n'importe quel utilisateur d'exécuter n'importe quelle requête SPARQL en obtenant des résultats complets. Nous proposons la préemption Web, un nouveau modèle d'exécution qui permet l'interruption de requêtes SPARQL après un quantum de temps, ainsi que leur reprise sur demande des clients. Nous proposons également SaGe, un moteur d'évaluation de requêtes SPARQL qui implémente la préemption Web tout en garantissant un surcoût de préemption minimal. Nos résultats expérimentaux démontrent que SaGe est plus performant que les approches existantes, en termes de temps moyen d'exécution des requêtes et d'obtention des premiers résultats.
Date de soutenance : 10-11-2020
Président du jury : Pascal Molli (pascal.molli@univ-nantes.fr)
Jury :
- Fabien Gandon (rapporteur)
- Ruben Verborgh (rapporteur)
- Pascale Kuntz-Cosperec [Président]
- Fatiha Saïs (examinatrice)
Benjamin Moreau, Faciliter la Réutilisation sur le Web des Données ►
Mots-clés : Web des donnéesDonnées liéesRDFSPARQLLicencesContrôle d’usageTraitement des requêtes fédéréesRelâchement de requêteIntégration de donnéesMappings RDF
Résumé
Le Web des données est un ensemble de données liées qui peuvent être interrogées et réutilisées à l’aide de moteurs de requêtes fédérées. Pour protéger les jeux de données, les licences renseignent leurs conditions d’utilisation. Cependant, choisir une licence conforme n’est pas toujours aisé. En effet, pour protéger la réutilisation de plusieurs jeux de données, il est nécessaire de prendre en considération la compatibilité entre leurs licences. Pour faciliter la réutilisation, les moteurs de requêtes fédérées devraient respecter les licences. Dans ce contexte, nous nous intéressons à deux problèmes (1) comment calculer la relation de compatibilité entre des licences, et (2) comment respecter les licences pendant le traitement de requêtes fédérées. Pour le premier problème, nous proposons CaLi, un modèle capable d’ordonner partiellement n’importe quel ensemble de licences selon leur compatibilité. Pour le second problème, nous proposons FLiQue, un moteur de requêtes fédérés respectant les licences. FLiQue utilise CaLi pour détecter les conflits de compatibilité entre licences et assure que le résultat d’une requête fédérée respecte les licences. Dans le cadre de cette thèse, nous proposons également trois approches ODMTP, EvaMap et SemanticBot, ayant pour objectif de faciliter l’intégration de données au Web des données.
Date de soutenance : 06-11-2020
Président du jury : Patricia Serrano Alvarado
Jury :
Swaminath Venkateswaran, Conception d'un robot bio-inspiré pour l'inspection des canalisations ►
Conception d'un robot bio-inspiré pour l'inspection des canalisations
Auteur : Swaminath Venkateswaran
Mots-clés : Inspection de la canalisationRobots bio-inspirésTenségritéSingularitésOptimisation
Résumé
Les robots d'inspection de canalisations jouent un rôle important dans des industries telles que le nucléaire, la chimie et les eaux usées. Ils peuvent opérer avec précision dans un environnement irradié ou pollué, réduisant ainsi les risques pour les humains. Cette thèse porte sur la conception d'un robot bio-inspiré pour l'inspection des canalisations. La thèse commence par l'étude du cas d'un robot d'inspection bio-inspiré rigide qui a été développé au LS2N, France pour AREVA. Des modèles statiques et dynamiques sont développés pour comprendre les forces de serrage et les couples des actionneurs du robot. Des validations expérimentales sont également effectuées sur le prototype pour interpréter les forces d’actionnement en temps réel. Pour améliorer sa mobilité, l'architecture du robot est rendue flexible par l'ajout d'un mécanisme de tenségrité. Deux types de mécanismes de tenségrité sont proposés et analysés avec des méthodes algébriques pour comprendre leurs limites d'inclinaison et pour connaître l’influence des paramètres de conception. Des expériences sont réalisées sur l'un des prototypes des mécanismes de tenségrité développés au LS2N avec deux types de trajectoire en positions horizontale et verticale. Ensuite, une optimisation est réalisée pour identifier les moteurs qui peuvent permettre du robot d'inspection de canalisation flexible de passer les coudes et les jonctions pour une plage donnée de diamètres de tuyaux. Une maquette numérique du robot flexible est réalisée dans un logiciel de CAO.
Date de soutenance : 04-11-2020
Président du jury : Damien Chablat
Jury :
- Pierre Moretto [Président]
- Belhassen Chedi Bouzgarrou [Rapporteur]
- Pierre Renaud [Rapporteur]
- Olivier Company
- Ramakrishnan Ramachandran
- Margot Vulliez
Berna Bou Farraa, Modélisation et commande des systèmes à retards contraints sous incertitudes ►
Modélisation et commande des systèmes à retards contraints sous incertitudes
Auteur : Berna Bou Farraa
Mots-clés : Réseaux et systèmes logistiquesSystèmes à retardsContraintes d’intervalles et polyédralesPropriétés d’invarianceCommande par feedback-prédicteurAnalyse de robustesse
Résumé
Ce travail de thèse porte sur l’étude analytique de la dynamique des réseaux logistiques et des systèmes logistiques élémentaires, soumis aux retards d’acquisition des produits, aux pertes de stockage vu la nature périssable des produits, et aux contraintes de positivité et de saturation des ressources du système. La finalité est de maîtriser la production afin de satisfaire la demande des clients incertaine mais bornée, sans risque ni de rupture ni de débordement de stockage, et en tenant compte des diverses spécifications notamment les capacités de production et de stockage. En se basant sur les formalismes des systèmes Entrée-Sortie et les propriétés d’invariance, un premier objectif consiste à proposer des méthodes de calcul de bornes, afin d’identifier les ensembles de sortie atteignables, du réseau logistique. Un objectif secondaire, repose sur l’étude de nouvelles méthodes de synthèse et de conception de commandes du type feedback-prédicteur, linéaires ou saturées, pour déterminer des conditions d’existence de lois de commande satisfaisantes pour le système élémentaire. Un troisième aspect guidant ce sujet est de prendre en compte les incertitudes sur certains paramètres intrinsèques du système ou des perturbations supplémentaires, d’où l’introduction de nouvelles techniques de commandes robustes et réactives
Date de soutenance : 30-10-2020
Président du jury : Jean-Jacques LOISEAU
Jury :
Emile Cadorel, Prise en compte de l’énergie dans la gestion des workflows scientifiques dans le Cloud : une vision centrée sur le fournisseur de service ►
Prise en compte de l’énergie dans la gestion des workflows scientifiques dans le Cloud : une vision centrée sur le fournisseur de service
Auteur : Emile Cadorel
Mots-clés : Workflows scientifiquesFournisseur de services de CloudOrdonnancementExécutionOptimisation energétiqueSystèmes distribuésInfrastructures distribuées
Résumé
Les simulations scientifiques par ordinateur sont généralement très complexes et se caractérisent par de nombreux processus parallèles. Afin de mettre en évidence les parties parallèlisables, et de permettre une exécution efficace, de nombreux scientifiques ont choisi de définir leurs applications sous forme de workflows. Un workflow scientifique représente une application comme un ensemble de tâches de traitement unitaires, liées par des dépendances. De nos jours, grâce à leur faible coût, leur élasticité et leur aspect à la demande, les services de cloud computing sont largement utilisés pour l’exécution de workflows. Les utilisateurs utilisant ce type d’environnement gèrent l’exécution de leur workflow, ainsi que les ressources nécessaires, à l’aide de service standards tel que le IaaS (Infrastructure-as-a-Service). Néanmoins, comme les services de cloud ne sont pas spécifiques à la nature de l’application à exécuter, l’utilisation des ressources physiques n’est pas aussi optimisée qu’elle pourrait l’être. Dans cette thèse, nous proposons de déplacer la gestion et l’exécution des workflows du côté du fournisseur de Cloud afin d’offrir un nouveau type de service dédié aux workflows. Cette nouvelle approche rend possible une amélioration de la gestion des ressources et une réduction de la consommation d’énergie et de ce fait l’impact environnemental de l’infrastructure utilisée.
Date de soutenance : 21-10-2020
Président du jury : Jean-Marc Menaud
Jury :
- Romain Rouvoy [Rapporteur]
- Patricia Stolf [Rapporteur]
- Frédéric Desprez
- Stéphane Genaud
- Hélène Coullon
Aurélie Moyon, Apport des facteurs humains pour une meilleure intégration des exosquelettes dans l'industrie ►
Apport des facteurs humains pour une meilleure intégration des exosquelettes dans l'industrie
Auteur : Aurélie Moyon
Mots-clés : ExosqueletteErgonomieIngénierie des facteurs humainsAssistance à l’opérateur
Résumé
Dans l’industrie, certaines tâches manuelles favorisent des postures pénibles et répétitives. Dans ce contexte, les exosquelettes sont considérés comme une promesse technique intéressante pour soulager la pénibilité au travail, mais soulèvent plusieurs verrous relevant des facteurs humains. Il est donc indispensable de mesurer les bénéfices réels du port de l’exosquelette, et de comprendre les facteurs qui contribuent à son acceptation par les futurs utilisateurs. Les objectifs de cette thèse sont d’investiguer les effets du port d’un exosquelette, de mieux comprendre les facteurs d’acceptation des utilisateurs finaux ainsi que d’établir des règles et outils repères pour une meilleure intégration des exosquelettes industriels. Ce travail de recherche présente l’étude des bénéfices d’un exosquelette passif, sur deux cas d’application industriels. Une démarche expérimentale centrée sur l’utilisateur permet d’identifier et de mesurer les facteurs d’acceptation de cette technologie. Des méthodes de mesures simples permettent de quantifier et de qualifier les bénéfices du port de l’exosquelette. L’importance de la phase de familiarisation et des supports employés est mise en valeur par des expérimentions. Ces résultats alimentent un travail de normalisation avec un groupe de travail pluridisciplinaire.
Date de soutenance : 08-10-2020
Président du jury : Émilie Poirson
Jury :
- Jérémy Legardeur [Président]
- Jean-Claude Sagot [Rapporteur]
- Guillaume Thomann [Rapporteur]
Ilhem Slama, Modélisation et optimisation de problème de planification de désassemblage dans un environnement incertain ►
Modélisation et optimisation de problème de planification de désassemblage dans un environnement incertain
Auteur : Ilhem Slama
Mots-clés : DésassemblagePlanification de désassemblageDélai de remise à neuf incertain incertainProgrammation stochastiqueModélisation analytiqueAgrégation par scénarios
Résumé
Notre projet de recherche propose de modéliser et d’optimiser le problème lié à la détermination du plan de démontage des produits enfin de vie tout en satisfaisant les demandes en composants sur un horizon de planification donné. Les travaux présentés dans ce manuscrit portent sur la planification de désassemblage dans un contexte certain et incertain. Nous avons considéré trois modélisations principales avec leurs approches de résolution : (i) une modélisation déterministe multi-période qui traite une nomenclature de produit multi-niveau avec le partage des composant qui cherche à maximiser le profit total. Un programme linéaire mixte en nombres entiers est proposé pour résoudre d’une façon optimale le problème, (ii) une modélisation stochastique monopériode pour traiter le cas d’une nomenclature de produit à deux niveaux et un seul type de produit. Les délais de remise à neuf sont supposés stochastique avec des distributions de probabilité quelconques. Le modèle cherche à minimiser l’espérance mathématique des coûts de stockage et de rupture des composants. Une approche de résolution exacte basée sur le modèle ”Newsboy" est développée pour résoudre le problème, et (iii) un modèle stochastique multi-période qui traite l’incertitude des délais de remise à neuf de chaque composant à chaque période est étudié quand le croisement des ordres est autorisé. La programmation linéaire mixte en nombres entiers stochastique, la simulation Monte Carlo et l’agrégation des scénarios sont proposées pour résoudre ce type de problème. Les performances des méthodes de résolution développées sont présentées en analysant les résultats d’optimisation sur un ensemble d’instances générées aléatoirement.
Date de soutenance : 25-09-2020
Président du jury : Alexandre Dolgui
Jury :
- Olga Battaïa [Président]
- Feng Chu [Rapporteur]
- Abdelaziz Dammak
- Mohand Lounes Bentaha
- Oussama Ben Ammar
Rénald Gaboriau, Les ateliers Rob'Autisme : Le robot extension comme médiation thérapeutique auprès des personnes présentant un trouble du spectre autistique. ►
Les ateliers Rob'Autisme : Le robot extension comme médiation thérapeutique auprès des personnes présentant un trouble du spectre autistique.
Auteur : Rénald Gaboriau
Mots-clés : Projet Rob’AutismeRobot-extensionAutismeGroupe thérapeutiqueMédiation thérapeutique
Résumé
L’utilisation des robots comme médiation thérapeutique pour les personnes présentant un Trouble du Spectre Autistique (TSA) est une pratique en plein essor. C’est en effet une méthode encourageante pour favoriser le développement de compétences sociales. De nombreuses expériences sont actuellement menées. Cependant, dans toutes les approches existantes, le paradigme du robot-compagnon est utilisé : le robot est programmé pour présenter des comportements pré-établis. Le projet Rob’Autisme propose une approche alternative : le robot est utilisé comme extension pour faire ou dire des choses. Les sujets présentant un TSA le programment et, par son truchement, agissent librement sur leur environnement social.De plus, ce projet inclut l’idée qu’ils pourront ensuite interagir avec les autres sans le robot. Cette thèse vise à comprendre l’intérêt de cette approche et évaluer les effets de la participation sur les interactions sociales. Durant deux ans, des groupes avec six adolescents ont été organisés et analysés à partir de méthodes quantitatives et qualitatives. Ces analyses montrent que cette approche favorise la tendance à aller vers les autres et interagir avec eux. Ce résultat est en outre généralisé à l’extérieur.
Date de soutenance : 23-09-2020
Président du jury : Sophie Sakka
Jury :
- Mohamed Chetouani [Président]
- Laurence Devillers [Rapporteur]
- Thomas Rabeyron [Rapporteur]
- Marion Haza-Pery
Fouad Khenfri, Optimisation holistique pour la configuration d’une architecture logicielle embarquée : application au standard AUTOSAR ►
Optimisation holistique pour la configuration d’une architecture logicielle embarquée : application au standard AUTOSAR
Auteur : Fouad Khenfri
Mots-clés : Systèmes embarquésAutosarOrdonnancement
Résumé
AUTOSAR (AUTomotive Open System Architecture) est un standard industriel mondial créé en 2003 dans le but de standardiser le développement des architectures logicielles automobiles. Il fournit un ensemble de concepts et définit une méthodologie commune pour le développement des logiciels embarqués automobiles. Les principales caractéristiques de ce standard sont la modularité et la « configurabilité» de logiciels qui permettent la réutilisation fonctionnelle des modules logiciels fournis par des fournisseurs différents. Cependant,le développement d’une application embarquée AUTOSAR nécessite la configuration d’un grand nombre de paramètres liés principalement au grand nombre de composants logiciels (software component« SWC ») de l’application. Cette configuration commence par l’étape d’allocation des SWCs à la plateforme matérielle (calculateursconnectés par des réseaux), jusqu’à l’étape de configuration de chaque calculateur et du réseau de communication. Différentes alternatives sont possibles pendant ces étapes de configuration etc chaque décision de conception peut impacter les performances temporelles du système, d’où la nécessité d’automatiser ces étapes de configuration et de développer un outil d’évaluation d’architectures.Dans ce travail de thèse, nous introduisons une approche holistique d’optimisation afin de synthétiser l’architecture E/E d’un système embarqué AUTOSAR. Cette approche se base sur des méthodes métaheuristique et heuristique. La méthode métaheuristique (i.e. algorithme génétique) a le rôle de trouver les allocations les plus satisfaisantes des SWCs aux calculateurs. A chaque allocation proposée, deux méthodes heuristiques sont développées afin de résoudre le problème de la configuration des calculateurs (le nombre de tâches et ses priorités, allocation des runnables aux tâches, etc.) et des réseaux de communication (le nombre de messages et ses priorités, allocation des « data-elements » aux messages,etc.). Afin d’évaluer les performances de chaque allocation, nous proposons une nouvelle méthode d’analyse pour calculer le temps de réponse des tâches, des runnables, et de bout-en-bout de tâches/runnables. L’approche d’exploration architecturale proposée par cette thèse considère le modèle des applications périodiques et elle est évaluée à l’aide d’applications génériques et industrielles.
Date de soutenance : 13-09-2020
Président du jury : Chetto Maryline
Jury :
Damien Schnebelen, Étude et modélisation des stratégies visuelles en situation de conduite automobile autonome ►
Étude et modélisation des stratégies visuelles en situation de conduite automobile autonome
Auteur : Damien Schnebelen
Mots-clés : Sortie de boucleModélisationConduite autonomeStratégies visuellesSortie de boucle
Résumé
Driver behaviour, including visual strategies, can be modified in autonomous driving situations compared to manual driving. The first axis of this PhD work focuses on the adaptation of visual strategies in autonomous driving. To this end, two experiments were conducted in different road contexts (rural roads with bends and motorway), with drivers having to continuously or partially supervise the driving scene.The results show that the strategies evolve in all cases towards a disengagement of the gaze from the immediate road to move either upstream for more anticipation (continuous supervision on rural roads) or towards irrelevant areas (partial supervision on motorways). The second line of work deals with the link between visual strategies and the out-of-the-loop phenomenon, i.e. the gradual disenga-gement of the driver from supervision as he drives in autonomous mode. The results show that it is possible to predict the state of the driver in the loop from his spontaneous visual strategies.These conclusions are based on statistical modelling work. The resulting models highlight the importance of considering indicators of gaze dynamics to predict the driver's state.These conclusions are based on statistical modelling work. The resulting models highlight the importance of considering indicators of gaze dynamics to predict the driver's state. These results can be used to develop algorithms for detecting driver disengagement in future autonomous vehicles.
Date de soutenance : 27-08-2020
Président du jury : Franck Mars
Jury :
- Jordan Navarro
- Thierry Baccino
- Céline Lemercier
Yang Deng, Estimation du retard et commande prédictive des systèmes à retard avec une classe de retards divers ►
Estimation du retard et commande prédictive des systèmes à retard avec une classe de retards divers
Auteur : Yang Deng
Mots-clés : Système à retardRetard longEstimation du retardCommande prédictiveSystème commandé en réseau
Résumé
Le retard est un phénomène largement présent dans les systèmes de commande(i.e.retard physique, latence de communication, temps de calcul) et peut en dégrader les performances ou même les déstabiliser. Si le retard est faible, la stabilité en boucle fermée peut être garantie par des lois de commande conventionnelles mais ces techniques ne sont plus efficaces si le retard est long. Cette thèse est dédiée à la commande des systèmes à retard avec retards longs inconnus ou avec des retards incertains. Pour compenser les retards longs, la commande prédictive est adoptée et des techniques d’estimation de retard sont développées. Selon les différents types de systèmes et de retards, trois objectifs sont visés dans la thèse. Le premier objectif considère la commande des systèmes linéaires avec retards constants inconnus pour lesquels un nouvel estimateur de retard est proposé pour estimer les retards inconnus. Le retard estimé est ensuite utilisé dans la commande prédictive pour stabiliser le système. Le deuxième objectif se concentre sur la stabilisation pratique des systèmes commandés à distance avec des retards inconnus variants. Dans ce cas, les retards sont estimés de manière pratique : une boucle de communication spécifique est utilisée pour estimer le retard en temps fini puis le système est stabilisé par une commande prédictive. Les tests expérimentaux réalisés sur un réseau WiFi ont montré que l’algorithme permet d’estimer de manière robuste les retards variants. Le dernier objectif est consacré à la commande des systèmes commandés en réseau avec retards variants. La commande prédictive discrète est utilisée pour compenser les retards longs et variants et les ré-ordonnancements de paquets dans le canal capteur-contrôleur sont également considérés. De plus, cette méthode est validée par l’asservissement visuel d’un pendule inverse commandé en réseau. Les performances obtenues sont meilleures que les méthodes de commande non-prédictives classiques.
Date de soutenance : 08-07-2020
Président du jury : Franck Plestan
Jury :
- Jean-Pierre Richard [Président]
- Pierdominico Pepe [Rapporteur]
- Alexandre Seuret [Rapporteur]
Dimitri Antakly, Apprentissage et Vérification Statistique pour la Sécurité ►
Mots-clés : Apprentissage de modèlesVérification formelleStatistical Model CheckingRecursive Timescale Graphical Event ModelsFlux d’évènementsEvaluation de sécurité
Résumé
Les principaux objectifs poursui- vis au cours de cette thèse sont en premier lieu de pouvoir combiner les avantages de l’apprentissage graphique probabiliste de mo- dèles et de la vérification formelle afin de pouvoir construire une nouvelle stratégie pour les évaluations de sécurité. D’autre part, il s’agit d’évaluer la sécurité d’un système réel donné. Par conséquent, nous proposons une approche où un "Recursive Timescale Graphi- cal Event Model (RTGEM)" appris d’après un flux d’évènements est considéré comme re- présentatif du système sous-jacent. Ce mo- dèle est ensuite utilisé pour vérifier une pro- priété de sécurité. Si la propriété n’est pas vé- rifiée, nous proposons une méthodologie de recherche afin de trouver un autre modèle qui la vérifiera. Nous analysons et justifions les différentes techniques utilisées dans notre ap- proche et nous adaptons une mesure de dis- tance entre Graphical Event Models. La me- sure de distance entre le modèle appris et le proximal secure model trouvé nous donne un aperçu d’à quel point notre système réel est loin de vérifier la propriété donnée. Dans un soucis d’exhaustivité, nous proposons des sé- ries d’expériences sur des données de syn- thèse nous permettant de fournir des preuves expérimentales que nous pouvons atteindre les objectifs visés.
Date de soutenance : 02-07-2020
Président du jury : Philippe Leray(philippe.Leray@univ-nantes.fr)
Jury :
Loic Jeanson, Apports à la construction d'outillage informatique pour les études liées au patrimoine ►
Apports à la construction d'outillage informatique pour les études liées au patrimoine
Auteur : Loic Jeanson
Mots-clés : PatrimoineEvaluationEtudeNumériqueInformatiqueSémantique
Résumé
Les travaux patrimoniaux connaissent de multiples déclinaisons : étude en vue d’une candidature, exposition en musée, analyse ethnologique, archéologique, historiographique.. La nature des activités dépend du type de patrimoine considéré, des intentions, de la documentation à disposition, etc. Le plus souvent, des travaux complémentaires s’agrègent, permettant de combiner les points de vue, hypothèses et informations. Les humanités numériques, c’est à dire les activités d’étude, en sciences humaines au sens large, ayant recours à l’informatique calculatoire, se développent depuis les années 60. Les travaux patrimoniaux ne sont pas en reste, mais la quantité et la diversité, voire l’hétérogénéité des informations, combinées aux critères déontologiques du travail patrimonial compliquent le développement d’outillage pertinent. Dans une première partie, une réflexion portant sur les caractéristiques des travaux patrimoniaux et sur les enjeux du travail de modélisation en lien étroit avec la documentation est présentée. A partir de cette analyse, un cahier des charges pour la production d’un outil est établi permettant de faire face aux enjeux prioritaires. L’opposition entre la construction du sens qui entraîne la patrimonialisation, et la rupture du sens inhérente au numérique, est discutée, ainsi que le besoin de transparence dans les pratiques de modélisation. Les critères d’intégrité et d’authenticité des biens patrimoniaux, qui guident en partie nos apports, seront aussi affirmés dans leurs dimensions dynamiques. La mise en application, par le cas d’étude de l’Observatoire du Pic du Midi ainsi que celui de la série des cercles méridiens Gautier, permet de démontrer les propositions et d’en éprouver la pertinence et les limites.
Date de soutenance : 22-06-2020
Président du jury : Alain Bernard
Jury :
- Pascale Kuntz-Cosperec [Président]
- Nabil Anwer [Rapporteur]
- Muriel Guedj [Rapporteur]
- Pierre Hallot
- Manuel Zacklad
Qiuyue Luo, Marche Bipède 3D Auto-Stabilisante ►
Mots-clés : RobotiqueMarche bipèdeStabilité
Résumé
Les robots humanoïdes, bien adaptés pour évoluer dans le milieux humains, peuventavecleursbrasetmainseffectuerdes tâches complexes. Ils peuvent être considérés comme l’un des robots ultimes. Cependant, la marchebipèderesteunphénomènecomplexe qui n’a pas été entièrement compris. La thèse est consacrée à trouver quelques caractéristiques physiques qui peuvent expliquer la stabilité de la marche périodique sur le sol horizontal. Dans la marche humaine, la démarche est généralement exprimée en fonction d’une variable de phase fondée sur l’état interne au lieu du temps. Les variables commandées (trajectoires du pied libre, oscillation verticale du centre de masse (CdM), mouvement du haut du corps, etc.) des robotsont une évolution désirée exprimée en fonction d’une variable de phase via l’utilisation de contraintes virtuelles et la durée des pas n’est pas explicitement imposée mais implicitement adaptée en présence de perturbations. Dans la première partie, deux modèles simplifiés du robot : le modèle du pendule inversé linéaire (LIP) et le modèle du pendule inversé de longueurvariable(VLIP)sontutiliséspourétudier les stratégies de commande. La stratégie de commande proposée pour les modèles LIP et VLIPestétendueàtraverslemodèleessentiel pour commander un modèle humanoïde complet. L’algorithme de marche proposé ci-dessus est appliqué sur les robots humanoïdes Roméo et TALOS.
Date de soutenance : 18-06-2020
Président du jury : Christine Chevallereau
Jury :
- Claude Moog [Président]
- Andrea Cherubini [Rapporteur]
- Olivier Stasse [Rapporteur]
- Yannick Aoustin
- Jean-Paul Laumont
Ramzi Ben Mhenni, Méthodes de programmation en nombres mixtes pour l'optimisation parcimonieuse en traitement du signal ►
Méthodes de programmation en nombres mixtes pour l'optimisation parcimonieuse en traitement du signal
Auteur : Ramzi Ben Mhenni
Mots-clés : Traitement du signalRecherche opérationnelleParcimonieOptimisation en norme l0Programmation en nombres mixtesAlgorithmes branch-and-boundDémélange spectral
Résumé
L’approximation parcimonieuse consiste à ajuster un modèle de données linéaire au sens des moindres carrés avec un faible nombre de composantes non nulles (la “norme” L0). En raison de sa complexité combinatoire, ce problème d’optimisation est souvent abordé par des méthodes sous-optimales. Il a cependant récemment été montré que sa résolution exacte était envisageable au moyen d’une reformulation en programme en nombres mixtes(MIP),couplée à un solveur MIP générique, mettant en œuvre des stratégies de type branch-and-bound. Cette thèse aborde le problème d’approximation parcimonieuse en norme L0 par la construction d’algorithmes branch-and-bound dédiés, exploitant les structures mathématiques du problème. D’une part, nous interprétons l’évaluation de chaque nœud comme l’optimisation d’un critère en norme L1, pour lequel nous proposons des méthodes dédiées. D’autre part, nous construisons une stratégie d’exploration efficace exploitant la parcimonie de la solution, privilégiant l’activation de variables non nulles dans le parcours de l’arbre de décision. La méthode proposée dépasse largement les performances du solveur CPLEX, réduisant le temps de calcul et permettant d’aborder des problèmes de plus grande taille. Dans un deuxième volet de la thèse, nous proposons et étudions des reformulations MIP du problème de démélange spectral sous contrainte de parcimonie en norme L0 et sous des contraintes plus complexes de parcimonie structurée, généralement abordées de manière relâchée dans la littérature.Nous montrons que, pour des problèmes de complexité limitée, la prise en compte de manière exacte de ces contraintes est possible et permet d’améliorer l’estimation par rapport aux approches existantes.
Date de soutenance : 13-05-2020
Président du jury : Sébastien Bourguignon
Jury :
- Christian Jutten [Président]
- Sonia Cafieri [Rapporteur]
- Matthieu Kowalski [Rapporteur]
- Paul Honeine
- Liva Ralaivola
Sébastien Levilly, Quantification de biomarqueurs hémodynamiques en imagerie cardiovasculaire par résonance magnétique de flux 4D ►
Quantification de biomarqueurs hémodynamiques en imagerie cardiovasculaire par résonance magnétique de flux 4D
Auteur : Sébastien Levilly
Mots-clés : Cisaillement à la paroiSimulation numérique des fluidesIRM de flux 4DCarotide
Résumé
En imagerie cardiovasculaire, un biomarqueur est une information quantitative permettant d'établir une corrélation avec la présence ou le développement d'une pathologie cardiovasculaire. Ces biomarqueurs sont généralement obtenus grâce à l'imagerie de l'anatomie et du flux sanguin. Récemment, la séquence d'acquisition d'IRM de flux 4D a ouvert la voie à la mesure du flux sanguin dans un volume 3D au cours du cycle cardiaque. Or, ce type d'acquisition résulte d'un compromis entre le rapport signal sur bruit, la résolution et le temps d'acquisition. Le temps d'acquisition est limité et par conséquent les données sont bruitées et sous-résolues. Dans ce contexte, la quantification de biomarqueurs est difficile. L'objectif de cette thèse est d'améliorer la quantification de biomarqueurs et en particulier du cisaillement à la paroi. Deux stratégies ont été mises en œuvre pour atteindre cet objectif. Une première solution permettant le filtrage spatio-temporel du champ de vitesse a été proposée. Cette dernière a révélé l'importance de la paroi dans la modélisation d'un champ de vitesse. Une seconde approche, constituant la contribution majeure de cette thèse, s'est focalisée sur la conception d'un algorithme estimant le cisaillement à la paroi. L'algorithme, nommé PaLMA, s'appuie sur la modélisation locale de la paroi pour construire un modèle de vitesse autour d'un point d'intérêt. Le cisaillement est évalué à partir du modèle de la vitesse. Cet algorithme intègre une étape de régularisation a posteriori améliorant la quantification du cisaillement à la paroi. Par ailleurs, une approximation du filtre IRM est utilisée pour la première fois pour l'estimation du cisaillement. Enfin, cet algorithme a été évalué sur des données synthétiques, avec des écoulements complexes au sein de carotides, en fonction du niveau de bruit, de la résolution et de la segmentation. Il permet d'atteindre des performances supérieures à une méthode de référence dans le domaine, dans un contexte représentatif de la pratique clinique.
Date de soutenance : 12-05-2020
Président du jury : Jérôme Idier
Jury :
- Étienne Mémin [Président]
- Christian Heinrich [Rapporteur]
- Nadjia Kachenoura [Rapporteur]
- Monica Sigovan
- Jean-Michel Serfaty
Saman Lessanibahri, Robots Parallèles à Câbles ayant un Grand Espace de Travail en Translation et en Orientation ►
Robots Parallèles à Câbles ayant un Grand Espace de Travail en Translation et en Orientation
Auteur : Saman Lessanibahri
Mots-clés : Robot parallèle à câblesRobots hybridesEspace de travailBoucles de câblesConception
Résumé
Les Robots Parallèles à Câbles (RPC) sont considérés comme des manipulateurs parallèles avec des câbles flexibles au lieu de liens rigides. Un RPC se compose d'un bâti, d'une plate-forme mobile et de câbles les reliant l'un à l'autre. Les RPC sont réputés pour leurs performances avantageuses par rapport aux robots parallèles classiques en termes d’espace de travail en translation, de reconfigurabilité, de capacité de charge utile importante et de performances dynamiques élevées. Cependant, l'amplitude de rotation de la plateforme mobile des RPC est généralement limitée en raison des collisions de types câble/câble et câble/plateforme mobile. L'objectif de cette thèse est ainsi de concevoir, d'analyser et de prototyper des RPC hybrides ayant à la fois un grand espace de travail en translation et un grand espace de travail en orientation en utilisant des boucles de câbles. Ce travail de recherche présente le développement de trois RPC hybrides adaptés aux tâches nécessitant de grands espaces de travail en orientation et en translation comme le balayage tomographique, les dispositifs d'orientation de caméras et l'inspection.
Date de soutenance : 12-05-2020
Président du jury : Stéphane Caro
Jury :
- Marc Gouttefarde [Président]
- Mohamed Amine Laribi [Rapporteur]
- Coralie Germain
- Darwin Lau
Ran Bao, Modélisation formelle de systèmes de drones civils à l'aide de méthodes probabilistes paramétrées ►
Modélisation formelle de systèmes de drones civils à l'aide de méthodes probabilistes paramétrées
Auteur : Ran Bao
Mots-clés : Model checking statistique paramétriqueChaîne de MarkovDroneModèle formel
Résumé
Les drones sont maintenant très répandus dans la société et sont souvent utilisés dans des situations dangereuses pour le public environnant. Il est alors nécessaire d’étudier leur fiabilité, en particulier dans le contexte de vols au-dessus d’un public. Dans cette thèse, nous étudions la modélisation et l’analyse de drones dans le contexte de leur plan de vol. Pour cela, nous construisons plusieurs modèles probabilistes du drone et les utilisons ainsi que le plan de vol pour modéliser la trajectoire du drone. Le modèle le plus détaillé obtenu prend en compte des paramètres comme la précision de l’estimation de la position par les différents capteurs, ainsi que la force et la direction du vent. Le modèle est analysé afin de mesurer la probabilité que le drone entre dans une zone dangereuse. Du fait de la nature et de la complexité des modèles successifs obtenus, leur vérification avec les outils classiques, tels que PRISM ou PARAM, est impossible. Nous utilisons donc une nouvelle méthode d’approximation, appelée Model Checking Statistique Paramétrique. Cette méthode a été implémentée dans un prototype, que nous avons mis à l’épreuve sur ce cas d’étude complexe. Nous avons pour finir utilisé les résultats fournis par ce prototype afin de proposer des pistes permettant d’améliorer la sécurité du public dans le contexte considéré.
Date de soutenance : 07-05-2020
Président du jury : Christian Attiogbe
Jury :
- Patricia Bouyer-Decitre
- Laure Petrucci
- Olga Kouchnarenko
- Claud Jard
Yewan Wang, Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé ►
Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé
Auteur : Yewan Wang
Mots-clés : Modélisation du consommation énergétiqueEfficacité énergétiqueVariabilité des processeursEffet thermique
Résumé
Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Cette thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser / concevoir ses actuels / futurs centre de données. Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différencesentre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les datacenters modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs.
Date de soutenance : 09-03-2020
Président du jury : Jean-Marc Menaud
Jury :
- Romain Rouvoy [Président]
- Noël de Palma [Rapporteur]
- Anne-Cécile Orgerie
- Patricia Stolf
- Hamid Gualous
Jingshu Liu, Apprentissage de représentations cross-lingue d’expressions de longueur variable ►
Apprentissage de représentations cross-lingue d’expressions de longueur variable
Auteur : Jingshu Liu
Mots-clés : Plongement lexical bilingueAlignement d’expressionsApprentissage non-supervisé
Résumé
L’étude de l’extraction de lexiques bilingues à partir de corpus comparables a été souvent circonscrite aux mots simples. Les méthodes classiques ne peuvent gérer les expressions complexes que si elles sont de longueur identique, tandis que les méthodes de plongements de mots modélisent les expressions comme une seule unité. Ces dernières nécessitent beaucoup de données, et ne peuvent pas gérer les expressions hors vocabulaire. Dans cette thèse, nous nous intéressons à la modélisation d’expressions de longueur variable par co-occurrences et par les méthodes neuronales état de l’art. Nous étudions aussi l’apprentissage de représentation d’expressions supervisé et non-supervisé. Nous proposons deux contributions majeures. Premièrement, une nouvelle architecture appelée tree-free recursive neural network (TFRNN) pour la modélisation d’expressions indépendamment de leur longueur. En apprenant à prédire le contexte de l’expression à partir de son vecteur encodé, nous surpassons les systèmes état de l’art de synonymie monolingue en utilisant seulement le texte brut pour l’entraînement. Deuxièmement, pour la modélisation cross-lingue, nous incorporons une architecture dérivée de TF-RNN dans un modèle encodeur-décodeur avec un mécanisme de pseudo contre-traduction inspiré de travaux sur la traduction automatique neurale nonsupervisée. Notre système améliore significativement l’alignement bilingue des expressions de longueurs différentes.
Date de soutenance : 29-01-2020
Président du jury : Emmanuel Morin
Jury :
- Sebastian Pena Saldarriaga
- Pierre Zweigenbaum (Rapporteur)
- Laurent Besacier (Rapporteur)
- Olivier Ferret (examinateur)