Home » Évènement (Page 13)

Soutenance de thèse de Tianyu WANG (équipe SLP)

Tianyu Wang, doctorant au sein de l’équipe SLP, soutiendra sa thèse intitulée « Parallel machine scheduling with precedence constraints »

vendredi 5 octobre à 14h à Centrale Nantes dans l’amphithéâtre S.

Jury : Olivier Henri Roux (Professeur, Centrale Nantes), Odile Bellenguez-Morineau (Maitre Assistant HDR, IMT Atlantique), Christoph Dürr (Directeur de recherche CNRS, Sorbonne Université LIP6), Julien Moncel (Maitre de conférences, HDR IUT ROADEZ), André Rossi (Professeur Université d’Angers), Pierre Lemaire (Maitre de conférences, Grenoble INP).

Résumé :
Nous considérons une famille des problèmes d’ordonnancement avec machine parallèle identique et contraintes de précédences. Ce champ de recherche fait l’objet de nombreuses études. Malgré tout, la complexité de ces problèmes varie selon de nombreux paramètres, notamment le type de graphe de précédence ou le critère retenu. De plus, il existe encore de nombreux problèmes ouverts. Nous étudions certains de ces problèmes dans cette thèse. Nous montrons notamment que le problème ouvert avec tâches de durée unitaires et graphe de précédence de type in-tree est NP-complet. Puis, nous prouvons que le problème avec graphe de précédence de type level-order est NP-complet aussi. La preuve est ensuite étendue à des problèmes connexes. Par la suite, on améliore un algorithme exponentiel pour un problème spécifique qui est NP-complet. Enfin, nous proposons un modèle linéaire pour le problème avec contraintes de précédence quelconque, améliorant aussi les résultats de littérature.

**********

Abstract:
The main problem studied in this thesis is that of parallel machine scheduling with precedence constraints. The complexity depends on the shape that the precedence graph takes and the objective function. We prove that one minimum-open problem of scheduling equal-processing-time jobs which subject to in-tree precedence constrains is NP-complete while minimizing the total competition time. Then, we prove that the open problem of scheduling level-order precedence constrains is NP-complete too. We adapted the second proof to other scheduling problems as well. On the other hand, we improved an exponential algorithm designed for a specific NP-hard problem. At the end, we propose a linear programming model for the general scheduling problem with arbitrary precedence constraints and processing-time. We adapt the existing models which are originally designed for other scheduling prob

Soutenance de thèse de Julien FRADIN (équipe COMBI)

Julien Fradin, doctorant au sein de l’équipe COMBI, soutiendra sa thèse intitulée « Graphes complexes en biologie : problèmes, algorithmes et évaluation »

mardi 4 décembre à 10h30 dans l’amphi du bâtiment 34, sur le site de la Faculté des Sciences.

Jury de thèse : Guillaume Fertin (Directeur de thèse), Géraldine Jean (co encadrante), Ioan Todinca (Rapporteur, LIFO), Annie Château (Rapporteur, U Montpellier 2 – MAB), Michel Habib (U Paris Diderot, IRIF), Florian Sikora (U Paris Dauphine, LAMSADE, Damien Eveillard (Invité)

Résumé :
Afin de mieux comprendre le fonctionnement d’un système biologique, il est nécessaire d’étudier les interactions entre les différentes entités qui le composent. Pour cela, on peut modéliser ces réseaux d’interactions biologiques sous la forme de graphes dont les sommets sont colorés. Une problématique commune consiste alors à rechercher un sous-graphe
d’intérêt dans ces graphes pouvant comporter des milliers de sommets et d’arêtes. Dans ce manuscrit, on s’intéresse à deux problèmes conçus pour répondre à cette problématique. On présente tout d’abord un état de l’art sur le problème GRAPH MOTIF, pour lequel il existe une large littérature algorithmique, puis on réalise une étude algorithmique approfondie du problème MAXIMUM COLORFUL ARBORESCENCE.
Le problème MAXIMUM COLORFUL ARBORESCENCE est une redéfinition plus précise d’un problème de la littérature qui avait été introduit dans le but de déterminer de novo la formule moléculaire de petites molécules inconnues. Alors que MAXIMUM COLORFUL ARBORESCENCE est, tout comme le problème original, algorithmiquement difficile à résoudre même dans des classes d’arbres très contraints, cette nouvelle définition nous permet ainsi d’obtenir de nouveaux algorithmes d’approximation dans ces mêmes arbres
contraints et même de trouver une nouvelle classe de graphes dans laquelle MAXIMUM COLORFUL ARBORESCENCE se résout en temps polynomial. On montre également des résultats de complexité paramétrée pour ce nouveau problème, qu’on compare ensuite à ceux de la littérature pour le problème original sur des instances issues de données biologiques.

Mots-clés : Bioinformatique, Graphes, Complexité paramétrée, Approximation

***********

Abstract:
In order to better understand how a biological system works, it is necessary to study the interactions between the different entities that compose it. To do this, we can model these biological interaction networks with graphs whose vertices are colored. A standard problem then consists in searching for a subgraph of interest in these graphs, which can include thousands of vertices and edges. In this manuscript, we are interested in two problems designed to address this issue. First of all, we present a state of the art on the GRAPH MOTIF problem, for which there exists a large algorithmic literature, then we carry out an in-depth algorithmic study of the MAXIMUM COLORFUL ARBORESCENCE problem.
The MAXIMUM COLORFUL ARBORESCENCE problem is a more precise redefinition of a problem in the literature that had been introduced to determine de novo the molecular formula of unknown small molecules. While MAXIMUM COLORFUL ARBORESCENCE is, like the original problem, algorithmically difficult to solve even in very constrained tree classes, this new definition allows us to obtain new approximation algorithms in these same constrained trees. It even allows us to find a new graph class in which MAXIMUM COLORFUL ARBORESCENCE is solved in polynomial time. We also show parameterized complexity results for this new problem, which we then compare to those in the
literature for the original problem on instances from biological data.

Keywords: Bioinformatics, Graphs, Parameterized complexity, Approximation

Soutenance de thèse de Tarek BENKHELIF (équipe DUKe)

Tarek Benkhelif, doctorant au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Publication de données individuelles respectueuse de la vie privée : Une démarche fondée sur le co-clustering » / « Privacy preserving microdata publishing »

mardi 27 novembre à 14h, dans l’amphi 2 du bâtiment IRESTE à Polytech.

Jury : Marc Gelgon (directeur), Guillaume Raschia (co directeur), Benjamin Nguyen (Rapporteur, INSA Centre Val de Loire), Christophe Rosenberger (Rapporteur, ENSI CAEN), Pierre Gancarski (UNISTRA), Maryline Laurent (Telecom Sud Paris), Matthieu Grall (invité, CNIL), Françoise FESSANT (Orange Labs Lannion, invitée)

Résumé :
Il y a une forte demande économique et citoyenne pour l’ouverture des données individuelles. Cependant, la publication de telles données représente un risque pour les individus
qui y sont représentés. Cette thèse s’intéresse à la problématique de l’anonymisation de tables de données multidimensionnelles contenant des données individuelles dans un objectif de publication.
On se concentrera plus particulièrement sur deux familles d’approches pour l’anonymisation: la première vise à fondre chaque individu dans un groupe d’individus, la deuxième est basée sur l’ajout d’un bruit perturbateur aux données originales. Deux nouvelles approches sont développées dans le cadre de l’anonymisation par groupe, elles consistent à agréger les données à l’aide d’une technique de coclustering puis à utiliser le modèle produit, pour générer des enregistrements synthétiques, dans le cas de la première solution.
La deuxième proposition quant à elle, cherche à atteindre le formalisme du k-anonymat. Enfin, nous présentons DPCocGen un nouvel algorithme d’anonymisation respectueux de la confidentialité différentielle. Tout d’abord, un partitionnement sur les domaines est utilisé pour générer un histogramme multidimensionnel bruité, un co-clustering
multidimensionnel est ensuite effectué sur l’histogramme bruité résultant en un schéma de partitionnement. Enfin, le schéma obtenu est utilisé pour partitionner les données originales de manière différentiellement privée. Des individus synthétiques peuvent alors être tirés des partitions.

Mots-clés : protection de la vie privée, k-anonymat, confidentialité différentielle

**********

Abstract:
There is a strong economic and civic demand for the opening of individual data. However, the publication of such data poses a risk to the individuals represented in it. This
thesis focuses on the problem of anonymizing multidimensional data tables containing individual data for publishing purposes. In particular, two data anonymization approaches families will be focused on: the first aims to merge each individual into a group of individuals, the second is based on the addition of disruptive noise to the original data. Two new approaches are developed in the context of group anonymization. They aggregate the data using a co-clustering technique and then use the produced model, to generate synthetic records, in the case of the first solution. While the second proposal seeks to achieve the formalism of k-anonymity. Finally, we present a new anonymization algorithm “DPCocGen” that ensures differential privacy. First, a data-independent partitioning on the domains is used to generate a perturbed multidimensional histogram, a multidimensional co-clustering is then performed on the noisy histogram resulting in a partitioning scheme. Finally, the resulting schema is used to partition the original data in a differentially
private way. Synthetic individuals can then be drawn from the partitions.

Keywords: privacy preserving data publishing, k-anonymity, differential privacy

Soutenance de thèse de Marwa EL ABRI (équipe DUKe)

Marwa El Abri, doctorante au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Apprentissage des Modèles Probabilistes Relationnels à partir des Bases de Données Graphe »

Mardi 2 octobre à partir de 9h30, à Polytech.

Jury : Philippe Leray (directeur de thèse), Nadia Essoussi (co directrice, ISG Tunis), Simon de Givry (rapporteur, INRA Toulouse), Nicolas Lachiche (U Strasbourg ICube), Nahla Ben Amor (ISG Tunis), Emmanuel Mazer (Inria Rhône Alpes)

Soutenance de thèse de Quentin DELMEE (équipe SLP)

Quentin Delmée, doctorant au sein de l’équipe SLP soutiendra sa thèse intitulée « Résolution Exacte de problèmes de localisation de services bi-objectif en variables mixtes »

vendredi 19 octobre 2018 à 10h00, dans l’amphi du bâtiment 34 sur le site de la Faculté des Sciences et Techniques

Jury : Xavier Gandibleux (directeur de thèse), Anthony Przybylski (co-encadrant), Laetitia Jourdan (Rapporteur, Université de Lille), Saïd Hanafi (Rapporteur, Université de Valenciennes et du Hainaut Cambrésis), André Rossi (examinateur, Université Paris Dauphine), Audrey Cerqueus (examinateur, Mines Saint-Etienne)

Résumé :
Dans ce travail, nous nous intéressons à la résolution exacte de problèmes de localisation de service en variables mixtes. Les problèmes de programmation linéaire bi-objectif en variables mixtes ont été très étudiés dans les dernières années, mais uniquement dans un contexte générique. De même, les problèmes de localisation de services bi-objectif n’ont été étudiés que dans un cas purement discret.
Nous considérons dans un premier temps le problème de localisation de services bi-objectif sans capacité. Afin de le résoudre, nous adaptons la méthode de pavage par boîtes proposée pour le cas discret. Les boîtes rectangulaires deviennent triangulaires dans le cas mixte. De plus, leur exploration est grandement facilitée, ce qui déplace la difficulté du problème dans l’énumération et le filtrage de ces boîtes. Différentes stratégies d’énumération sont proposées. Le problème de localisation de services bi-objectif avec capacité est ensuite considéré. Tout d’abord, une adaptation de la méthode de pavage par boîtes triangulaires est réalisée pour le cas avec capacité. Cependant, la nature du problème rend cette méthode beaucoup plus limitée. Nous considérons ensuite une méthode en deux phases dont la principale routine d’exploration repose sur une adaptation d’un algorithme de branch and bound initialement proposé par Beasley, dans le contexte bi-objectif.
Les résultats expérimentaux sur des instances aux caractéristiques variées attestent de la pertinence des méthodes que nous proposons.

Mots-clés : Optimisation bi-objectif, Problème de localisation de services, Programmation linéaire en variables mixtes, Branch and Bound

********

Abstract:
The purpose of this work is the exact solution of biobjective mixed-integer facility location problems. Biobjective mixed integer linear programming problem have been largely studied in recent years but only in the generic context. The same way, the study of biobjective facility location problems has been restrictedto the discrete case. We consider first  the bi-objective uncapacitated facility location problem. To solve it, we adapt the box paving method proposed for the discrete case. Rectangular boxes become triangular. Moreover, their exploration becomes considerably easier. The difficulty of the problem is therefore translated to the enumeration and the filtering of these boxes. Different enumeration strategies are proposed. Next, we consider the bi-objective capacitated facility location problem. We first propose an adaptation of the triangular box paving method to the capacitated case. However, the structure of the problem highly limits the method. Thus, we consider a two phase method. The main exploration routine is based on the adaptation of a branch and bound algorithm proposed by Beasley that we adapt to the bi-objective context. Experimental results on various instances show the efficiency of the proposed methods.

Keywords: Bi-objective optimization, Facility Location Problems, Mixed Integer Linear Programming, Branch and Bound

Soutenance de thèse de Romain RINCE (équipe DUKe)

Romain Rincé, doctorant au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Behaviour Recognition on Noisy Data-Streams Constrained by complex Prior Knowledge »

mercredi 7 novembre 2018 à 14h, à ONERA Palaiseau (salle J. Dorey, bâtiment J3).

Jury : Philippe Leray (Directeur), Romain Kervarc (co encadrant ONERA, Audine Subias (Rapporteur, LAAS), Thomas Schiex (Rapporteur, INRA MIAT), Benoit Delahaye, Céline Rouveriol (LIPN), Jean Loup Farges (ONERA Toulouse, Invité)pe

Soutenance de thèse de Wissam SIBLINI (équipe DUKe)

Wissam Siblini, doctorant au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Apprentissage multi-label extrême : Comparaisons d’approches et nouvelles propositions »

vendredi 23 novembre à 14h, à Polytech, en salleD004 bâtiment Ireste.

Jury : Pascale Kuntz (Directrice de thèse), Amaury Habrard (Rapporteur, U Jean Monnet St Etienne), Stéphane Canu (Rapporteur, INSA Rouen), Elisa Fromont (IRISA, autre membre), Jean Michel Poggi (U Paris Descartes, autre membre), Franck Meyer (Orange Labs Lannion, invité)

Résumé :
Stimulé par des applications comme l’annotation de documents ou d’images, l’apprentissage multi-label a connu un fort développement cette dernière décennie. Mais les algorithmes classiques se heurtent aux nouveaux volumes des données multi-label extrême (XML) où le nombre de labels peut atteindre le million. Cette thèse explore trois directions pour aborder la complexité en temps et en mémoire du problème : la réduction de dimension multi-label, les astuces d’optimisation et d’implémentation et le découpage arborescent. Elle propose d’unifier les approches de réduction à travers une typologie et deux formulations génériques et d’identifier des plus performantes avec une méta-analyse originale des résultats de la littérature. Une nouvelle approche est développée pour analyser l’apport du couplage entre le problème de réduction et celui de classification. Pour réduire la complexité mémoire en maintenant les capacités prédictives, nous proposons également un algorithme d’estimation des plus grands paramètres utiles d’un modèle classique de régression one-vs-rest qui suit une stratégie inspirée de l’analyse de données en flux. Enfin, nous présentons un nouvel algorithme CRAFTML qui apprend un ensemble d’arbres de décision diversifiés. Chaque arbre effectue une réduction aléatoire conjointe des espaces d’attributs et de labels et implémente un partitionnement récursif très rapide. CRAFTML est plus performant que les autres méthodes arborescentes XML et compétitif avec les meilleures méthodes qui nécessitent des supercalculateurs. Les apports de la thèse sont complétés par la présentation d’un outil logiciel VIPE développé avec Orange Labs pour l’analyse d’opinions multi-label.

Mots-clés : multi-label extrême, réduction de dimension, arbre de décision, méthodes économes

***********

Title: Extreme multi-label learning: comparisons of approaches and new proposals

Abstract : Stimulated by many applications such as documents or images annotation, multi- label learning have gained a strong interest during the last decade. But, standard algorithms cannot cope with the volumes of the recent extreme multi-label data (XML) where the number of labels can reach millions. This thesis explores three directions to address the complexity in time and memory of the problem: multi-label dimension reduction, optimization and implementation tricks, and tree-based methods. It proposes to unify the reduction approaches through a typology and two generic formulations and to identify the most efficient ones with an original meta-analysis of the results of the literature. A new approach is developed to analyze the interest of coupling the reduction problem and the classification problem. To reduce the memory complexity of a classical one-vs-rest regression model while maintaining its predictive performances, we also propose an algorithm for estimating the largest useful parameters that follows a strategy inspired by data stream analysis. Finally, we present a new algorithm called CRAFTML that learns an ensemble of diversified decision trees. Each tree performs a joint random reduction of the feature and the label spaces and implements a very fast recursive partitioning strategy. CRAFTML performs better than other XML tree-based methods and is competitive with the most accurate methods that require supercomputers. The contributions of the thesis are completed by the presentation of a software called VIPE that is developed with Orange Labs for multi- label opinion analysis.

Keywords: extreme multi-label, dimensionality reduction, decision tree, efficient methods

 

 

Soutenance de thèse de Suiyi LING (équipe IPI)

Suiyi Ling, doctorant au sein de l’équipe IPI soutiendra sa thèse intitulée « Perceptual representations of structural and geometric information in images: bio-inspired and machine learning approaches – Application to visual quality assessment of immersive media » / « Représentations perceptuelles de l’information structurelle et géométrique des images : approches bio inspirées et par apprentissage machine – Application à la qualité visuelle de médias immersifs »

lundi 29 octobre à partir de 14h, à Polytech, dans l’amphi A1 du bâtiment Ireste.

Jury : Patrick le Callet (dir thèse), Frédéric Dufaux (Rapporteur, L2S), Dragan Kukolj (rapporteur, University of Novi Sad, Serbie), Luce Morin (INSA Rennes), Vincent Courboulay (Université La Rochelle), Nathalie Guyader (Université Grenoble Alpes)

Abstract:
This work aims to better evaluate the perceptual quality of image/video that contains structural and geometric related distortions in the context of immersive multimedia. We propose and explore a hierarchical framework of visual perception for image/video. Inspired by representation mechanism of the visual system, low-level (elementary visual features, e.g. edges), mid-level (intermediate visual patterns, e.g. codebook of edges), and higher-level (abstraction of visual input, e.g. category of distorted edges) image/video representations are investigated for quality assessment. The first part of this thesis addresses the low-level structure and texture related representations. A bilateral filter-based model is first introduced to qualify the respective role of structure and texture information in various assessment tasks (utility, quality …). An image quality/video quality measure is proposed to quantify structure deformation spatially and temporally using new elastic metric. The second part explores mid-level structure related representations. A sketch-token based model and a context tree based model are presented in this part for the image and video quality evaluation. The third part explores higher-level structure related representations. Two machine learning approaches are proposed to learn higher-level representation: a convolutional sparse coding based and a generative adversarial network. Along the thesis, experiments an user studies have been conducted on different databases for different applications where special structure related distortions are observed (FTV, multi-view rendering, omni directional imaging …).

***********

Résumé :
Ce travail vise à mieux évaluer la qualité perceptuelle des images contenant des distorsions structurelles et géométriques notamment dans le contexte de médias immersifs. Nous proposons et explorons un cadre algorithmique hiérarchique de la perception visuelle. Inspiré par le système visuel humain, nous investiguons plusieurs niveaux de représentations des images : bas niveau (caractéristiques élémentaires comme les segments), niveau intermédiaire (motif complexe, encodage de contours), haut niveau (abstraction et reconnaissance des données visuelles). La première partie du manuscrit traite des représentations bas niveau pour la structure et texture. U n modèle basé filtre bilatéral est d’abord introduit pour qualifier les rôles respectifs de l’information texturelle et structurelle dans diverses tâches d’évaluation (utilité, qualité…). Une mesure de qualité d’image/video est proposée pour quantifier les déformations de structure spatiales et temporelles perçues en utilisant une métrique dite élastique. La seconde partie du mémoire explore les représentations de niveaux intermédiaires. Un modèle basé « schetch token » et un autre basé sur codage d’un arbre de contexte sont présentés pour évaluer la qualité perçue. La troisième partie traite des représentations haut niveau. Deux approches d’apprentissage machine sont proposées pour apprendre ces représentations : une basée sur un technique de convolutional sparse coding, l’autre sur des réseaux profonds de type generative adversarial network. Au long du manuscrit, plusieurs expériences sont menées sur différentes bases de données pour plusieurs applications (FTV, visualisation multivues, images panoramiques 360…) ainsi que des études utilisateurs.

Soutenance de thèse de David SFERRUZZA

David Sferruzza, doctorant CIFRE au sein de l’équipe AeLoS, soutiendra sa thèse intitulée « Plateforme extensible de modélisation et de construction d’applications web correctes et évolutives, avec hypothèse de variabilité »

jeudi 13 septembre à partir de 10h30 dans l’amphi du bâtiment 34 sur le site de l’UFR Sciences.

Jury : Attiogbé Christian (dir thèse), Rocheteau Jérôme (ICAM, co encadrant), Bodeveix Jean-Paul (rapporteur, IRIT), Huchard Marianne (Rapporteur, LIRMM), Mostefaoui Achour, Laleau Régine (Univ Paris-Est, Créteil), Lanoix Arnaud (Invité), Le Gac Mathieu (Invité, Starup Palace)

Résumé :

De nombreuses sociétés œuvrant dans le logiciel dépendent des technologies web pour tester des hypothèses de marché et ainsi développer des entreprises viables. Elles ont souvent besoin de construire rapidement des services web qui sont au cœur de leurs « Minimum Viable Products » (MVP). Dans ce contexte, la construction des services web doit permettre la variabilité des technologies et des spécifications, et favoriser la productivité des développeurs. Même si de nombreuses solutions existent pour développer des services web, le contexte industriel manque de techniques assurant une construction aisée et flexible, un bon fonctionnement et une facilité de maintenance des services web, tout en étant abordables par des développeurs généralistes.

Dans le but de réduire ces limitations, nous proposons une méthode de développement de services web basée sur l’Ingénierie Dirigée par les Modèles et adaptée pour (i) le prototypage rapide, (ii) la vérification de modèle, (iii) la compatibilité avec les langages de programmation classiques et (iv) l’alignement automatique entre documentation et implémentation. Cette méthode se base sur un méta-modèle volontairement minimaliste, qui est accompagné de règles de cohérence sémantique, et dont les modèles peuvent être dérivés de modèles OpenAPI 3.0 étendus.

Nous fournissons également un outil, SWSG, qui automatise une grande partie de ce processus. SWSG permet notamment de générer le code des services web de manière à l’intégrer à une application utilisant le framework PHP Laravel. Enfin, nous évaluons notre approche au travers de cas d’étude.

Mots clés : Génie logiciel, Services web, Ingénierie Dirigée par les Modèles, Vérification formelle, Génération de code, OpenAPI 3.0

*****

Title : Towards an extensible framework for modelling and implementing correct and evolutive web applications, under variability hypothesis

Abstract:

Lots of software companies rely on web technologies to test market hypotheses and thereby develop viable businesses. They often need to be able to quickly build web services that are at the core of their « Minimum Viable Products » (MVP). In this context, building web services must allow the variability of technologies and specifications and improve developers’ efficiency. Even if numerous approaches to build web services exist, the industrial context lacks methods that ensure an easy and flexible building, a proper functioning and a good maintainability of the web services, while being accessible by generalist developers.

For the purpose of reducing these limitations, we propose a method based on Model-Driven Engineering (MDE) to develop web services. It focuses on (i) rapid prototyping, (ii) model verification, (iii) compatibility with common programming languages and (iv) alignment between documentation and implementation. This method is based on a voluntarily minimalist meta-model, along with rules for semantic consistency. Models can be derived from extended OpenAPI 3.0 models.

We also provide a tool, SWSG, that automatize parts of this process. Especially, SWSG allows to generate code in order to integrate the described web services inside an application made with the Laravel PHP framework. Finally, the whole approach is evaluated through case studies.

 Keywords: Software Engineering, Web Services, Model-Driven Engineering, Formal Verification, Code Generation, OpenAPI 3.0

Soutenance de thèse de Mohammadreza MADDAH

Mohammadreza Maddah, doctorant au sein de l’équipe PACCE, soutiendra sa thèse intitulée  « 3D visualization and interactive image manipulation for surgical planning in robot-assisted surgery »

jeudi 27 septembre 2018 à l’IMT-A.

Jury : Caroline CAO, (directrice de thèse, PR, Sorbonne), Cédric Dumas (co encadrant), Guillaume Morel (Rapporteur, PR, Wright State University), Erwan Kerrien, (Rapporteur, CR Inria), Katherine Lin ( Surgeon, Greene County General Hospital), Alexandre Dolgui

Copyright : LS2N 2017 - Mentions Légales - 
 -