Home » Évènement (Page 9)

Soutenance de thèse de Dorra RAHALI (équipe SLP)

Dorra Rahali, doctorante au sein de l’équipe SLP, soutiendra sa thèse intitulée « Surveillance statistique du temps et de l’amplitude entre événements » / « Monitoring of time between events and amplitude »

mercredi 24 juin 2020 à 9h30, en visio.

Jury :

  • Directeur thèse : CASTAGLIOLA Philippe, TALEB Hassen (U. Carthage)
  • Rapporteurs : BRIL-EL HAOUZI Hind (U. Lorraine), REBAI Ahmed (U Sfax)
  • Autres membres : TRAN Phuc (ENSAIT), KOOLI Imène (U. Sousse)

Résumé : Les techniques de surveillance statistique des procédés SPM sont principalement basées sur les cartes de contrôle qui constituent une étape importante dans la démarche qualité. Une nécessité de développement de techniques de surveillance de plus en plus avancées s’est fait sentir dans des domaines autres que l’industrie manufacturière classique. Cependant, peu de chercheurs se sont intéressés à proposer des méthodes dédiées pour la surveillance combinée du temps et de l’amplitude entre événements appelée TBEA. Jusqu’à présent les travaux effectués dans ce domaine se sont limitées à un nombre réduit de distributions et de statistiques à surveiller. Dans cette thèse, nous étudions la performance d’une carte de contrôle de type Shewhart pour la surveillance combinée du temps et de l’amplitude pour différents scénarios de distributions et de statistiques. Nous nous intéressons d’abord au cas où les variables temps T et amplitude X sont indépendantes. Ensuite nous étudions celui ou les variables sont dépendantes en utilisant des Copulas comme étant un outil pour modéliser la dépendance. Finalement nous nous intéresserons au cas où l’amplitude est un vecteur et non plus une variable. Les performances de chacune des cartes de contrôle proposées ont été évaluées par l’EATS. Une validation empirique des résultats a été élaborée pour des cas existants.

Mots-clés : Maîtrise statistique des procédés, Carte de contrôle, Temps entre événements, Amplitude, Fréquence

********

Abstract: Statistical process monitoring (SPM) are mainly based on control charts which constitute an important step in the quality process. There is a need to develop monitoring techniques in manufacturing or non-manufacturing sectors. This leads to give an increasing importance to Time Between Events and Amplitude (TBEA) control charts. However, few researchers have been interested to propose methods to simultaneously monitor the time between an event E and its amplitude. Until now, the vast majority of contributions are limited to a reduced number of statistics and potential distributions. In this thesis we will investigate simple Shewhart type control charts for several statistics and many distributional scenarios. First we will study the case where we assume that the time T and the amplitude X are two mutually independent continuous random variables. Then we study the case where the variables are dependent using Copulas as a mechanism to model the dependence. Finally we discuss the case where the time between events T is an univariate random variable and the amplitude X is no longer an univariate random variable but a multivariate random vector. The performance of each control chart has been evaluated by EATS. An empirical validation of the results has been developed for real cases.

Keywords: Statistical Process Control, Control chart, Time between events, Amplitude, Frequency

Soutenance de thèse de Yewan WANG (équipe STACK)

Yewan WANG, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/logicielle et de l’environnement associé » / »Evaluating and Modeling the Energy Impacts of Data centers, in terms of hardware/software architecture and associated environment »

lundi 9 mars 2020 à 14h, dans l’amphi G. Besse sur le site de l’IMT-A.

Jury :

  • Directeur thèse : MENAUD Jean Marc
  • Co encadrant : NORTERSHAUSER David (Orange Labs Lannion), LE MASSON Stéphane (Orange Labs Lannion)
  • Rapporteurs : ROUVOY Romain (U Lille), DE PALMA Noel (U Grenoble Alpes)
  • Autres membres : STOLF Patricia (U Toulouse Jean Jaures), ORGERIE Anne-Cécile (CR CNRS/IRISA Rennes) GUALOUS Hamid (U Caen Normand)

Résumé : Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Ce thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser/concevoir ses actuels/futurs centre de données.
Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différences entre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les data centers modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs.

Mots-clés : Modélisation du consommation énergétique, Efficacité énergétique, Variabilité des processeurs, Effet Thermique

***********************

Abstract: For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate/design the current/future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical
cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature

Keywords: Energy consumption modeling, Energy efficiency, Processor variability, Thermal Effect

Soutenance d’HDR de Vincent Ricordel (équipe IPI)

Vincent RICORDEL soutiendra son habilitation à diriger des recherches intitulée « Outils et méthodes pour le codage vidéo perceptuel« 
mercredi 22 janvier 2020 à 13h30, dans l’amphithéâtre A1 à Polytech.
Jury :
– Marc Antonini, DR. à l’Université de Nice (rapporteur)
– William Puech, Pr. à l’Université de Montpellier (rapporteur)
– Olivier Déforges, Pr. à l’INSA de Rennes (rapporteur)
– Marco Cagnazzo, Pr. à l’Institut Télécom-Paris (examinateur)
– Luce Morin, Pr. à l’INSA de Rennes (examinatrice)
– Bogdan Cramariuc, Directeur de l’ITCST à Bucarest (examinateur)
– Marc Gelgon, Pr. à l’Université de Nantes (examinateur)
La soutenance sera suivie d’un pot dans le même bâtiment Ireste.
Le mémoire (pas la version finale) est accessible ici : https://uncloud.univ-nantes.fr/index.php/s/RCdgg5XfkGEMjzK
Résumé :
On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie. Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités. La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain.
C’est à ce niveau que se définit l’objectif du codage vidéo perceptuel qui est d’aller vers une représentation de l’information basée sur le contenu perçu et qui puisse servir de paradigme pour un codage basé qualité perceptuelle des contenus des vidéos 2D et 3D. Pour être en phase avec les approches standards, l’objectif devient de guider les choix de codage de façon à aller vers la fidélité perceptuelle sans perte des vidéos décodées. Mes travaux se positionnent donc dans cette recherche des outils et des méthodes où les choix pour améliorer la qualité perceptuelle guident le codage vidéo.
Ma présentation retracera mon itinéraire scientifique au sein des équipes IVC-IRCCyN puis IPI-LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain, ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel.
Mes contributions au codage vidéo perceptuel se sont principalement organisées au sein de projets de recherche visant à contribuer aux efforts faits en normalisation, avec le projet ANR ArchiPEG qui avait pour objectif l’optimisation du codage vidéo HD en flux H.264/AVC, le projet ANR PERSEE qui s’intéressait au codage perceptuel des formats vidéo 2D et 3D via le codec H.264 et son extension MVC, et le projet européen ITN PROVISION qui visait le codage perceptuel via HEVC. Mes contributions ont été produites au travers l’encadrement de thèses (4 soutenues, 1 en cours), et nous verrons que nous avons agi à 2 niveaux de la boucle de codage vidéo hybride.
Une première possibilité est d’améliorer directement des unités de la boucle de codage.
C’est ainsi que nous avons mis en œuvre une transformation directionnelle tenant compte des orientations géométriques au sein de l’image. Nous avons exploité cette représentation de l’information afin de construire des classes de structures, puis adapté la quantification de leur contenu en se basant sur des critères perceptuels.
Nous avons aussi, après avoir défini la notion de textures spatio-temporelles visuelles, proposé un modèle mesurant la similarité entre ces textures visuelles. Ce modèle computationnel basé sur le traitement cortical du SVH, a ensuite été utilisé afin d’améliorer la boucle de codage de HEVC : en identifiant des classes de textures visuelles et en faisant correspondre à la distorsion objective standard calculée par le codeur sa valeur dans le domaine perceptuel.
Une autre approche consiste à mettre en place un schéma de pré-analyse avant encodage afin de piloter ensuite efficacement le codage des régions d’intérêt. La modélisation de l’attention visuelle est donc essentielle au niveau de cette analyse.
Nous avons conçu un schéma de pré-analyse basé sur des tubes spatio-temporels. Cet outil réalise la segmentation et le suivi des objets constitués de tubes connexes, et il leur associe une saillance visuelle. L’ensemble de ces informations est exploitée afin d’assurer un codage cohérent des objets en flux H.264/AVC. Exactement nous avons testé l’adaptation de la structure du GOP, et le guidage de la qualité visuelle.
Nous avons aussi développé le premier modèle computationnel de l’attention visuelle 3D s’appliquant à la visualisation d’images stéréoscopiques. Ce modèle combine deux cartes de saillance visuelle : celle 2D et celle de profondeur. Nous avons utilisé ce modèle afin d’améliorer la qualité d’expérience de visualisation de la TV3D, par ajout d’un flou de défocalisation sur la région ayant moins d’intérêt.
Dans la dernière partie de ma présentation, un bilan et des perspectives sont donnés. Nous nous intéressons en particulier au codage des formats vidéo immersifs représentés par des nuages de points 3D. Nos derniers travaux montrent l’intérêt d’une approche basée quantification vectorielle algébrique et arborescente, permettant de structurer graduellement la géométrie de la scène, et cela en fonction d’un critère débit-distorsion.
Index
ANR Agence Nationale  de la Recherche
AVC   Advanced video Coding
GOP Group of Pictures
HD   Haute Définition
HEVC   High Efficiency Video Coding
IPI Image Perception Interaction
IRCCyN Institut de Recherche en Communications et Cybernétique de Nantes, UMR 6597
ITN Initial Training Network
IVC   Image & Vidéo Communication
LS2N   Laboratoire des Sciences du Numérique de Nantes, UMR 6004
MVC   Multiview Video Coding
SVH   Système V

Soutenance de thèse d’Etienne PICARD (équipes RoMaS et Commande)

Etienne Picard, doctorant au sein des équipes Commande et RoMaS soutiendra sa thèse intitulée « Modélisation et commande robuste de robot parallèles à câbles pour applications industrielles » / « Modeling and robust control of Cable-driven parallel robots for industrial applications »
mardi 17 décembre 2019 à 10h30, dans l’amphithéâtre Océan, sur le Technocampus Océan, à Bouguenais.

Jury :
– Rapporteurs : Edouard LAROCHE (Professeur des Universités, Université de Strasbourg), David DANEY (Senior Inria Researcher, Inria Bordeaux)
– Examinateurs : Claire DUMAS (Chargé de projets – Expert robotique, DAHER, Bouguenais), Marco CARRICATO (Professor, Università di Bologna, Bologne – Italie)
– Invité: Yves GUILLERMIT (Ingénieur, Chantiers de l’Atlantique, Saint-Nazaire)
– Directeur de thèse : Stéphane CARO
Co-directeur : Franck PLESTAN
Co-encadrant : Fabien CLAVEAU

Résumé :
Cette thèse concerne la modélisation et le contrôle robuste de robots parallèles à câbles (RPC) pour deux applications industrielles dans le secteur naval : la prise et dépose de plaques métalliques (ROMP) à l’aide d’un RPC suspendu, et le nettoyage de façades (ROWC) par un RPC pleinement-contraint. Les travaux ont été réalisés à l’IRT Jules Verne dans le cadre du projet ROCKET.
La thèse est organisée en deux parties. La première se concentre sur la modélisation et la calibration des RPC. La modélisation de base considère les points de sortie des câbles fixes et les câbles droits, sans masse et inélastiques. Un second modèle considère la géométrie des poulies. Un modèle linéaire de l’élasticité des câbles est introduit et sert à l’écriture de la matrice de raideur du robot. À partir de ces modèles, une méthode d’estimation de la masse et du centre de gravité de la plateforme pour une trajectoire à faible dynamique est proposée. Enfin, la calibration des RPC est discutée et une méthode automatique est testée en simulation selon les différents modèles considérés.
La seconde partie est dédiée au contrôle robuste des RPC par rapport aux perturbations identifiées pour les deux applications. Différents schémas de contrôle sont comparés expérimentalement suivant les informations disponibles sur le système, dont un schéma compensant l’allongement des câbles par élasticité. Deux familles de contrôleurs sont considérés pour l’application ROMP : un contrôleur proportionnel-dérivée, et un contrôleur balançant automatiquement entre un comportement mode glissant ou linéaire (SML). Dans le cas pleinement-contraint de l’application ROWC, une stratégie de distribution des tensions dans les câbles est nécessaire pour éviter toute surtension des câbles. Un nouveau critère de choix des tensions basé sur la matrice de raideur du robot est proposé, afin de maximiser la raideur du robot et de réduire le déplacement latéral de la plateforme sous l’effort dû à la pression du jet d’eau. Enfin, l’arrêt d’urgence des RPC est discuté et le comportement des prototypes ROMP et ROWC a été observé dans le cas d’un arrêt d’urgence.

Mots-clés : Robotique, parallèle, câble, modélisation, contrôle, étalonnage


Abstract:

This thesis covers the modelling and robust control of cable-driven parallel robots (CDPR) for two industrial applications for the naval sector: the pick and place of metal plates (ROMP) using a suspended RPC, and window cleaning (ROWC) by a fully constrained CDPR. The work was carried out in the context of the ROCKET project at IRT Jules Verne. The thesis is organized in two parts. The first one focuses on modeling and calibration of CDPRs. The basic model considers fixed cable exit points and straight, massless and inelastic cables. A second model considers the geometry of the pulleys. A linear model of the elasticity of the cables is introduced and used to write the robot stiffness matrix. Based on these models, a method for estimating the mass and center of gravity of the platform is proposed, assuming a low-dynamic trajectory. Finally, the calibration of the prototype is discussed and an automatic calibration method is tested in simulation according to the different models considered. The second part of this thesis is dedicated to the robust control of RPCs in relation to the disturbances identified for both applications, and to the case of CDPR emergency stops. Different control architectures have been experimented on the prototype depending on the information available on the system, including a control scheme with a feedback for cable elongation compensation. Two families of controllers are compared for ROMP application: a proportional-derivative (PD) controller and a controller automatically balancing between sliding or linear mode behavior (SML). In the case of fully constrained CDPRs such as ROWC, the control architecture must include a tension distribution to avoid dangerous cable tensions. A new tension selection criterion based on the  stiffness matrix is proposed to reduce the lateral displacement of the platform due to water jet pressure. Finally, CDPR emergency stops are discussed and the behaviour of ROMP and ROWC prototypes was evaluated in emergency stop situations.

Keywords: Robotics, parallel, cables, modeling, control, calibration

Soutenance de thèse de David PÉREZ MORALES (équipe ARMEN)

David Pérez Morales, doctorant au sein de l’équipe ARMEN, soutiendra sa thèse intitulée « Commande référencée multi-capteurs pour des applications de Parking Intelligent » / « Multi-sensor-based control for Intelligent Parking applications »
vendredi 6 décembre 2019 à 10h30, dans l’amphi du bâtiment S à Centrale Nantes.

Jury :
– Florent LAMIRAUX, Directeur de recherche CNRS, LAAS
– Roland LENAIN, Directeur de recherche, IRSTEA
– Fawzi NASHASHIBI, Directeur de recherche Inria, Inria Paris
– Guillaume ALLIBERT, Maître de conférences, Université de Nice Sophia Antipolis
– Isabelle FANTONI, Directrice de recherche CNRS, LS2N
– Philippe MARTINET, Directeur de recherche Inria, Inria Sophia Antipolis-Méditerranée
– Olivier KERMORGANT, Maître de conférences, Centrale Nantes
– Salvador DOMÍNGEZ QUIJADA, Ingénieur de recherche, LS2N

Résumé :
Dans l’objectif de développer des systèmes de parking plus avancés que ce que l’on trouve actuellement, différentes manœuvres typiquement réalisées dans des situations de parking ont été revisitées en utilisant une approche originale : la commande référencée multi-capteurs. En outre, pour surmonter les limitations bien connues des techniques référencée capteur classiques, les manœuvres de parking ont également été formalisées dans un cadre commun de commande prédictive référencée multi-capteur. Les stratégies développées ont été testées avec une Renault ZOE robotisée validant l’approche.

Mots-clés : Véhicules intelligents, commande référencée capteur, commande prédictive, système de parking intelligent.

******

Abstract:
With the aim of developing a more advanced parking system than what is currently available, different maneuvers typically performed in parking situations have been revisited using an original Multi-Sensor-Based Control (MSBC) approach. Furthermore, in order to overcome the well known limitations of classical sensor-based techniques, the parking maneuvers have been formalized as well under a common Multi-Sensor-Based Predictive Control (MSBPC) framework. The developed strategies have been tested extensively using a robotized Renault ZOE with positive outcomes.

Keywords: Intelligent vehicles, sensor-based control, model predictive control, intelligent parking system.

Soutenance de thèse d’Erwan DAVID (équipe IPI)

Erwan David, doctorant au sein de l’équipe IPI, soutiendra sa thèse sa thèse intitulée « L’impact des troubles du champ visuel sur les dynamiques spatio-temporelles de l’observation de scènes naturelles. Analyses et modélisation » / « Effects of visual field loss on the spatio-temporal dynamics of natural scene viewing »

jeudi 28 novembre 2019 à 13h30,  dans l’amphi 2 du bâtiment IRESTE à Polytech.

Jury :
– Présidente : Muriel Boucart, Directrice de recherche, Université Lille
– Rapporteurs : Anne Guérin-Dugué, Professeure, Université Grenoble-Alpes ; Pierre Kornprobst, Directeur de recherche, INRIA Sophia-Antipolis
– Examinateurs : Nathalie Guyader, Maître de conférences, Université Grenoble-Alpes ; Christine Cavaro-Menard, Maître de conférences, Université d’Angers
– Directeur de thèse : Patrick Le Callet, Professeur, Université de Nantes
– Co-encadrants de thèse : Matthieu Perreira Da Silva, Maître de conférences, Université de Nantes ; Pierre Lebranchu, MCU-PH, Université et CHU de Nantes

Résumé : Comment l’attention visuelle est-elle dirigée par la vision centrale et périphérique ? Nous étudions cette question en mesurant l’impact de pertes visuelles (scotome) sur les mouvements oculaires durant la visualisation libre de scènes naturelles. Nous simulons des scotomes sur écran et dans un casque de réalité virtuelle, dans une dernière expérimentation nous étudions des patients avec des troubles réels. Nous avons mis en place des analyses basées sur les statistiques globales et sur les séries temporelles (apprentissage machine) pour apprécier les dynamiques d’observation oculo-motrices.
Nos principaux résultats concernent des profils de saccades bien distincts selon le type de scotome. La direction et la cible des saccades informent sur le déploiement de l’attention, par conséquent nos résultats traduisent des mécanismes attentionnels propres aux champs visuels. En particulier, ressortent une augmentation forte de saccades de retour en présence de scotomes centraux et de saccades en avant avec des scotomes périphériques. Ces résultats appuient la théorie de la segmentation fonctionnelle des champs visuels. En outre les scotomes impactent peu les mouvements de tête, nous argumentons que la tête a un rôle secondaire visant principalement à étendre le champ visuel. Une meilleure compréhension du rôle de la vision centrale et périphérique trouve des applications aussi bien cliniques qu’en sciences de l’information. Notamment, pour l’amélioration de modèles de prédiction du regard, mais aussi pour le développement d’outils d’assistance à la vision, de protocoles de remédiation et de réhabilitation, ou de tests de dépistage des défauts du champ visuel.

Mots-clés : Attention visuelle, mouvement oculaire, tracé oculaire, perte visuelle, vision périphérique, stimuli 360°, modélisation

*********

Abstract: How is visual attention affected by the central and the peripheral field of view?
In an attempt at answering this question we study the effects of visual field losses (scotoma) on eye movements during a free-viewing task of natural scenes. In two experiments we simulated scotomas on screen and in a virtual reality headset, in a third one we recruited patients with non-simulated visual field defects. Our analyses are based on global statistical differences and time series (machine learning) in order to study the spatio-temporal dynamics of eye movements. We show that scotomas strongly impact saccadic programming. The amplitude and direction of saccades are related to the deployment of attention, therefore our findings inform about attention mechanisms pertaining to the different fields of view. Without central vision subjects show an increase in return saccades, whereas experimenting with peripheral field loss participants produce more forward saccades; these results support findings about a functional divide between the central and peripheral visions. We also show that head movements are weakly impacted by scotomas, the head appear to serve vision to extend the field of view but is not impacted by visual attention in the same way as the eyes. A better understanding of the role of central and peripheral visions has direct applications both clinical and related to computer science. For instance, to improve gaze prediction models, to develop vision assistance, therapeutic or rehabilitation tools, or even screening tests targeting the early detection of visual field defects.

Keywords: Visual attention, eye movement, scanpath, visual field defect, peripheral vision, 360° stimuli, modelling

Soutenance d’HDR de Mathieu LAGRANGE (équipe SIMS)

Mathieu Lagrange, chercheur CNRS au sein de l’équipe SIMS, soutiendra son habilitation à diriger des recherches intitulée « Modélisation long terme de signaux sonores »
jeudi 14 novembre 2019 à 10h15, dans l’amphi du bâtiment S sur le site de Centrale Nantes.

Jury :
– Frédéric Bimbot, Directeur de Recherche CNRS, IRISA, Rennes
– Alain de Cheveigné, Directeur de Recherche CNRS, ENS Paris
– Béatrice Daille, Professeur, LS2N, Nantes
– Patrick Flandrin, Directeur de Recherche CNRS, ENS Lyon
– Stéphane Mallat, Professeur, Collège de France

Document pdf de 79 pages sur Google Drive.

Résumé :
La modélisation numérique du son a permis de transformer tous nos usages de la musique et plus récemment des environnements sonores. Du codage à la synthèse en passant par l’indexation, un large champ d’applications nécessite de pouvoir analyser le signal sonore, un contenu riche et complexe avec des propriétés d’organisation temporelle et fréquentielle spécifiques. En suivant le paradigme de l’analyse de scènes auditives computationnelles, j’ai proposé au début de ma carrière plusieurs méthodes de segmentation du signal sonore, par des approches de suivi de partiels, ou encore de segmentation de sources harmoniques par coupures normalisées de graphes.
L’avènement des approches par apprentissage a permis de relâcher un certain nombre de contraintes de spécification des modèles de traitement, mais demande un soin particulier dans la mise en place du protocole expérimental avec lequel ces modèles sont estimés et évalués. J’ai contribué à cette problématique en poursuivant deux axes : 1) la proposition, dans le cadre du challenge international dcase, de tâches de reconnaissances d’événements dans des scènes sonores environnementales artificielles dont les facteurs de complexité sont contrôlés et 2) l’implantation et la mise à disposition d’explanes, un environnement de développement d’expérimentations dédié à la facilitation de la reproductibilité des études en sciences des données.
Je montrerai le formalisme de ce dernier en présentant deux contributions récentes : l’une portant sur l’utilisation des réseaux convolutionnels profonds pour le sur-échantillonnage et l’autre portant sur la modélisation par diffusion d’ondelettes des modes de jeux étendus pour l’aide à l’orchestration musicale.
Ces nouvelles approches questionnent d’une nouvelle manière des problèmes fondamentaux en traitement du signal sonore et ouvrent un vaste champ d’expérimentation nécessaire à leur bonne maîtrise. Je discuterai en guise de conclusion le protocole d’exploration que je me propose de suivre pour contribuer à l’extension des connaissances sur ces sujets.

Soutenance de thèse de Jingshu LIU (équipe TALN)

Jingshu Liu, doctorant au sein de l’équipe TALN, soutiendra sa thèse intitulée « Apprentissage de représentations cross-lingue d’expressions de longueur variable » / « Unsupervised cross-lingual representation modeling for variable length phrases »

mercredi 29 janvier 2020 à 14h, dans l’amphi du bât 34 sur le site de la FST.

Jury :
– Directeur thèse : Emmanuel Morin
– Co-encadrant : Sebastian Pena Saldarriaga
– Rapporteurs : Pierre Zweigenbaum (CNRS Univ Saclay), Laurent Besacier (U Grenoble Alpes),
– Autres membres : Olivier Ferret (Ingénieur Chercheur CEA LIST)

Resumé : L’étude de l’extraction de lexiques bilingues à partir de corpus comparables a été souvent circonscrite aux mots simples. Les méthodes classiques ne peuvent gérer les expressions complexes que si elles sont de longueur identique, tandis que les méthodes de plongements de mots modélisent les expressions comme une seule unité. Ces dernières nécessitent beaucoup de données, et ne peuvent pas gérer les expressions hors vocabulaire. Dans cette thèse, nous nous intéressons à la modélisation d’expressions de
longueur variable par co-occurrences et par les méthodes neuronales état de l’art. Nous étudions aussi l’apprentissage de représentation d’expressions supervisé et non-supervisé. Nous proposons deux contributions majeures. Premièrement, une nouvelle architecture appelée tree-free recursive neural network (TFRNN) pour la modélisation d’expressions indépendamment de leur longueur. En apprenant à prédire le contexte de l’expression à partir de son vecteur encodé, nous surpassons les systèmes état de l’art de synonymie monolingue en utilisant seulement le texte brut pour l’entraînement. Deuxièmement, pour la modélisation cross-lingue, nous incorporons une architecture dérivée de TF-RNN dans un modèle encodeur-décodeur avec un mécanisme de pseudo contre-traduction inspiré de travaux sur la traduction automatique neurale nonsupervisée. Notre système améliore significativement l’alignement bilingue des expressions de longueurs différentes.

Mots-clés : plongement lexical bilingue, alignement d’expressions, apprentissage non-supervisé

******

Abstract: Significant advances have been achieved in bilingual word-level alignment from comparable corpora, yet the challenge remains for phrase-level alignment. Traditional
methods to phrase alignment can only handle phrase of equal length, while word embedding based approaches learn phrase embeddings as individual vocabulary entries suffer
from the data sparsity and cannot handle out of vocabulary phrases. Since bilingual alignment is a vector comparison task, phrase representation plays a key role. In this thesis, we
study the approaches for unified phrase modeling and cross-lingual phrase alignment, ranging from co-occurrence models to most recent neural state-of-the-art approaches. We review supervised and unsupervised frameworks for modeling cross-lingual phrase representations. Two contributions are proposed in this work. First, a new architecture called tree-free recursive neural network (TF-RNN) for modeling phrases of variable length which, combined with a wrapped context prediction training objective, outperforms the state-of-the-art approaches on monolingual phrase synonymy task with only plain text training data. Second, for cross-lingual modeling, we propose to incorporate an architecture derived from TF-RNN in an encoder-decoder model with a pseudo back translation mechanism inspired by unsupervised neural machine translation. Our proposition improves significantly bilingual alignment of different length phrases.

Keywords: bilingual word embedding, bilingual phrase alignment, unsupervised learning

Soutenance de thèse de Jiajun PAN (équipe DUKe)

Jiajun Pan, doctorant au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Formalisation et Apprentissage de Métriques Relationnelles »

vendredi 20 décembre 2019 à 14h, dans l’amphi du  bâtiment Ireste sur le site de Polytech.

Jury :

  • Directeur thèse :  LERAY Philippe
  • Co encadrant : LE CAPITAINE Hoël
  • Rapporteurs :  LESOT Marie Jeanne (LIP 6), HABRARD Amaury (U Saint Etienne)
  • Autres membres : CAPPONI Cécile (U Aix Marseille), DE LA HIGUERA Colin
Abstract:
Metric distance learning is a branch of re-presentation learning in machine learning algorithms. We summarize the development and current
situation of the current metric distance learning algorithm from the aspects of the flat database and non-flat database. For a series of
algorithms based on Mahalanobis distance for the flat database that fails to make full use of the intersection of three or more dimensions, we
propose a metric learning algorithm based on the submodular function. For the lack of metric learning algorithms for relational databases in
non-flat databases, we propose LSCS(Relational Link-strength Constraints Selection) for selecting constraints for metric learning algorithms with
side information and MRML (Multi-Relation Metric Learning) which sums the loss from relationship constraints and label constraints. Through the
design experiments and verification on the real database, the proposed algorithms are better than the current algorithms.
***
Résumé :

L’apprentissage à distance métrique est une branche de l’apprentissage par re-présentation des algorithmes d’apprentissage automatique. Nous résumons
le développement et la situation actuelle de l'algorithme actuel d'apprentissage à distance métrique à partir des aspects de la base de
données plate et de la base de données non plate. Pour une série d'algorithmes basés sur la distance de Mahalanobis pour la base de données
plate qui ne parvient pas à exploiter l'intersection de trois dimensions ou plus, nous proposons un algorithme d'apprentissage métrique basé sur la
fonction sous-modulaire. Pour le manque d’algorithmes d’apprentissage métrique pour les bases de données relationnelles dans des bases de
données non plates, nous proposons LSCS (sélection de contraintes relationnelles de force relationnelle) pour la sélection de contraintes
pour des algorithmes d’apprentissage métrique avec informations parallèles et MRML (Multi-Relation d'apprentissage métrique) qui somme la perte des
contraintes relationnelles et les contraintes d'etiquetage. Grâce aux expériences de conception et à la vérification sur la base de données
réelle, les algorithmes proposés sont meilleurs que les algorithmes actuels.

 

Soutenance de thèse d’Ambroise LAFONT (équipe Gallinette)

Ambroise Lafont, doctorant au sein de l’équipe Gallinette, soutiendra sa thèse intitulée « Signatures et modèles pour la syntaxe et la sémantique opérationnelle en présence de liaison de variables » / « Signatures and models for syntax and operational semantics in the presence of variable binding »

lundi 2 décembre 2019 à 14h, dans la salle 3 du bâtiment 11 sur le site de la FST.

Jury :

  • Directeur thèse : Nicolas Tabareau
  • Co encadrant : Tom Hirschowitz (CR CNRS LAMA)
  • Rapporteurs : Peter Lefanu Lumsdaine, U Stocklom), Marcelo Fiore (U Cambridge)
  • Autres membres : Benedikt Ahrens (U Birmingham), Thomas Ehrhard (U Paris Diderot), Delia Kesner (U Paris Diderot)

Résumé : Cette thèse traite de la spécification et la construction de la syntaxe et sémantique opérationnelle d’un langage de programmation. Nous travaillons avec une notion générale de “signature” pour spécifier des objets d’une catégorie donnée comme des objets initiaux dans une catégorie appropriée de modèles. Cette caractérisation, dans l’esprit de la sémantique initiale, donne une justification du principe de récursion.  Les langages avec liaisons, telles que le lambda calcul pur, sont des monades sur la catégorie des ensembles spécifiées par les signatures algébriques classiques. Les premières extensions de syntaxes avec des équations que nous considérons sont des “quotients” de ces signatures algébriques. Ils  permettent, par exemple, de spécifier une opération commutative binaire. Cependant, certaines équations, comme l’associativité, semblent hors d’atteinte. Ceci motive la notion de 2-signature qui complète la définition précédente avec la donnée d’un ensemble d’équations. Nous identifions la classe des “2- signatures algébriques” pour lesquelles l’existence de la syntaxe associée est garantie. Finalement, nous abordons la spécification de la sémantique opérationnelle d’un langage de programmation tel que le lambda calcul avec -réduction. Nous introduisons à cette fin la notion de monade de réduction et leur signatures, puis les généralisons pour aboutir à la notion de monade opérationnelle.

Mot-clés : monades, syntaxe, sémantique, signature

*******

Abstract: This thesis deals with the specification and construction of syntax and operational semantics of a programming language. We work with a general notion of “signature” for specifying objects of a given category as initial objects in a suitable category of models. This characterization, in the spirit of Initial Semantics, gives a justification of the recursion principle. Languages with variable binding, such as the pure lambda calculus, are monads on the category of sets specified through the classical algebraic signatures. The first extensions to syntaxes with equations that we consider are “quotients” of these algebraic signatures. They allow, for example, to specify a binary commutative operation. But some equations, such as associativity, seem to remain out of reach. We thus introduce the notion of 2-signature, consisting in two parts: a specification of operations through a usual signature as before, and a set of equations among them. We identify the class of “algebraic 2-signatures” for which the existence of the associated syntax is guaranteed. Finally, we takle the specificiation of the operational semantics of a programming language such as lambda calculus with – reduction. To this end, we introduce the notion of reduction monad and their signatures, then we generalize them to get the notion of operational them to get the notion of operational monad.

Keywords: monads, syntax, semantic, signature

Copyright : LS2N 2017 - Mentions Légales - 
 -