• 109 ressources ont été trouvées. Voici les résultats 101 à 109
Titre Description Date Format
Le processus de sélection de portefeuille peut être effectué en deux étapes: la première consiste à évaluer les actifs financiers et la deuxième à déterminer la combinaison d’actifs qui permettrai d‘allouer de façon optimale la richesse. La combinaison des actifs financiers retenue à la fin de ce processus se doit de répondre simultanément et de façon optimale aux différents objectifs de l‘investisseur. Le problème de sélection de portefeuille peut être considéré comme un processus de décision multicritère. Dans cette thèse, plusieurs critères ont été analysés et on a tenté de répondre à la question de combien et où investir ? On a proposé une nouvelle approche multicritère basée sur la méthode d‘enveloppement des données (DEA) et l‘approche de l‘efficacité croisée pour sélectionner un portefeuille d’actifs financier. La première méthodologie proposée consiste à incorporer la méthode d’efficacité croisée dans un espace Moyenne-Variance-Skewness-Kurtosis (MVSK). Le deuxième modèle combine la mesure de l'efficacité croisée par l'enveloppement de données vue comme solution d'un jeu avec la composante risque pour choisir un portefeuille. Finalement, on a proposé d’incorporer la mesure de l'efficacité croisée par l'enveloppement de données vue comme solution d'un jeu dans un modèle d’arbitrage entre profitabilité et efficacité afin de sélectionner un portefeuille. Globalement, ces méthodes ont permis la discrimination entre les actifs financiers et de leur donner un classement unique dans un premier temps, ensuite de sélectionner un portefeuille en prenant en considération les préférences du décideur.
The process of portfolio selection could be divided into two stages: the first one is the evaluation of financial assets and the second is to choose the best ones to construct portfolio. It can be considered as Multi-Criteria-Decision-Making (MCDM) process. It consists in selecting a combination of financial assets that can best meet the investors’ objective. In this dissertation, different criteria are analyzed and the question of where and how much money to allocate to each of the financial asset is processed. We propose a new multi-criteria analysis approach to portfolio selection based on Data Envelopment Analysis (DEA) cross-efficiency model. The first methodology consists in nesting the DEA cross-efficiency model into the Mean-Variance-Skewness-Kurtosis (MVSK) space. The second model combines the DEA game cross-efficiency approach with risk component to select portfolio. Finally, we propose a model incorporating the DEA game cross-efficiency into Profitability-Efficiency. Overall, these methodologies provide more discrimination for financial assets by providing unique ranks in a first step and permit to select portfolio by underlying preferences of the decision-maker in a second step.
Le processus de sélection de portefeuille peut être effectué en deux étapes: la première consiste à évaluer les actifs financiers et la deuxième à déterminer la combinaison d’actifs qui permettrai d‘allouer de façon optimale la richesse. La combinaison des actifs financiers retenue à la fin de ce processus se doit de répondre simultanément et de façon optimale aux différents objectifs de l‘investisseur. Le problème de sélection de portefeuille peut être considéré comme un processus de décision multicritère. Dans cette thèse, plusieurs critères ont été analysés et on a tenté de répondre à la question de combien et où investir ? On a proposé une nouvelle approche multicritère basée sur la méthode d‘enveloppement des données (DEA) et l‘approche de l‘efficacité croisée pour sélectionner un portefeuille d’actifs financier. La première méthodologie proposée consiste à incorporer la méthode d’efficacité croisée dans un espace Moyenne-Variance-Skewness-Kurtosis (MVSK). Le deuxième modèle combine la mesure de l'efficacité croisée par l'enveloppement de données vue comme solution d'un jeu avec la composante risque pour choisir un portefeuille. Finalement, on a proposé d’incorporer la mesure de l'efficacité croisée par l'enveloppement de données vue comme solution d'un jeu dans un modèle d’arbitrage entre profitabilité et efficacité afin de sélectionner un portefeuille. Globalement, ces méthodes ont permis la discrimination entre les actifs financiers et de leur donner un classement unique dans un premier temps, ensuite de sélectionner un portefeuille en prenant en considération les préférences du décideur.
The process of portfolio selection could be divided into two stages: the first one is the evaluation of financial assets and the second is to choose the best ones to construct portfolio. It can be considered as Multi-Criteria-Decision-Making (MCDM) process. It consists in selecting a combination of financial assets that can best meet the investors’ objective. In this dissertation, different criteria are analyzed and the question of where and how much money to allocate to each of the financial asset is processed. We propose a new multi-criteria analysis approach to portfolio selection based on Data Envelopment Analysis (DEA) cross-efficiency model. The first methodology consists in nesting the DEA cross-efficiency model into the Mean-Variance-Skewness-Kurtosis (MVSK) space. The second model combines the DEA game cross-efficiency approach with risk component to select portfolio. Finally, we propose a model incorporating the DEA game cross-efficiency into Profitability-Efficiency. Overall, these methodologies provide more discrimination for financial assets by providing unique ranks in a first step and permit to select portfolio by underlying preferences of the decision-maker in a second step.
25-02-2019
25-02-2019
Thèse
Thèse

Inférence asymptotique pour des processus stationnaires fonctionnels
Inférence asymptotique pour des processus stationnaires fonctionnels


Accéder à la ressource
Nous abordons divers problèmes concernant les séries temporelles fonctionnelles. Il s'agit de processus stochastiques discrets à valeurs dans un espace fonctionnel. La principale motivation provient de l’interprétation séquentielle d'un phénomène continu. Si par exemple on observe des données météorologiques au cours du temps de manière continue, il est naturel de segmenter ce processus en une série temporelle fonctionnelle indexée par les jours. Chaque terme de la série représente la courbe journalière. Dans un premier temps, nous nous sommes intéressés à l'analyse spectrale. Plus précisément nous avons montré que sous des hypothèses très générales, la transformée de Fourier discrète d’une telle série est asymptotiquement normale et a pour variance l’opérateur de densité spectrale. Une application possible de ce résultat est de tester la présence de composantes périodiques dans une série fonctionnelle. Nous avons développé un test valable pour une fréquence arbitraire. Pour ce faire, nous avons étudié le comportement asymptotique du maximum de la norme de la transformée de Fourier. Enfin, nous avons travaillé sur la généralisation fonctionnelle du modèle GARCH. Ce modèle permet de décrire la dynamique de la volatilité, c’est-à-dire de la variance conditionnelle, dans les données financières. Nous avons proposé une méthode d’estimation des paramètres du modèle, inspirée de l’estimateur de quasi-maximum de vraisemblance. Nous avons montré que cet estimateur est convergent et asymptotiquement normal, puis nous l’avons évalué sur des simulations et appliqué à des données réelles.
In this thesis we address some issues related to functional time series, which consists in a discrete stochastic process valued in a functional space. The main motivation comes from a sequential approach of a continuous phenomenon. For example, if we observe some meteorological data continuously over time, then it is natural to segment this process into a functional series indexed by days, each term representing the daily curve. The first part is devoted to spectral analysis, more precisely we study the asymptotic behavior of the discrete Fourier transform. We show that, under very general conditions, the latter is asymptotically normal, with variance equal to the spectral density operator. An application of this result is the detection of periodic patterns in a functional time series. We develop a test to detect such patterns, which is valid for an arbitrary frequency. We show that the asymptotic distribution of the norm of the discrete Fourier transform belongs to the attraction domain of the Gumbel distribution. In a second part, we work on the functional generalization of the GARCH model. This model is used to describe the dynamics of volatility, i.e. conditional variance, in financial data. We propose an estimation method inspired by the quasi-maximum likelihood estimator, although the proper likelihood function does not exist in infinite dimension. We show that this estimator is convergent, asymptotic normal and we evaluate its performances on simulated and real data.
Nous abordons divers problèmes concernant les séries temporelles fonctionnelles. Il s'agit de processus stochastiques discrets à valeurs dans un espace fonctionnel. La principale motivation provient de l’interprétation séquentielle d'un phénomène continu. Si par exemple on observe des données météorologiques au cours du temps de manière continue, il est naturel de segmenter ce processus en une série temporelle fonctionnelle indexée par les jours. Chaque terme de la série représente la courbe journalière. Dans un premier temps, nous nous sommes intéressés à l'analyse spectrale. Plus précisément nous avons montré que sous des hypothèses très générales, la transformée de Fourier discrète d’une telle série est asymptotiquement normale et a pour variance l’opérateur de densité spectrale. Une application possible de ce résultat est de tester la présence de composantes périodiques dans une série fonctionnelle. Nous avons développé un test valable pour une fréquence arbitraire. Pour ce faire, nous avons étudié le comportement asymptotique du maximum de la norme de la transformée de Fourier. Enfin, nous avons travaillé sur la généralisation fonctionnelle du modèle GARCH. Ce modèle permet de décrire la dynamique de la volatilité, c’est-à-dire de la variance conditionnelle, dans les données financières. Nous avons proposé une méthode d’estimation des paramètres du modèle, inspirée de l’estimateur de quasi-maximum de vraisemblance. Nous avons montré que cet estimateur est convergent et asymptotiquement normal, puis nous l’avons évalué sur des simulations et appliqué à des données réelles.
In this thesis we address some issues related to functional time series, which consists in a discrete stochastic process valued in a functional space. The main motivation comes from a sequential approach of a continuous phenomenon. For example, if we observe some meteorological data continuously over time, then it is natural to segment this process into a functional series indexed by days, each term representing the daily curve. The first part is devoted to spectral analysis, more precisely we study the asymptotic behavior of the discrete Fourier transform. We show that, under very general conditions, the latter is asymptotically normal, with variance equal to the spectral density operator. An application of this result is the detection of periodic patterns in a functional time series. We develop a test to detect such patterns, which is valid for an arbitrary frequency. We show that the asymptotic distribution of the norm of the discrete Fourier transform belongs to the attraction domain of the Gumbel distribution. In a second part, we work on the functional generalization of the GARCH model. This model is used to describe the dynamics of volatility, i.e. conditional variance, in financial data. We propose an estimation method inspired by the quasi-maximum likelihood estimator, although the proper likelihood function does not exist in infinite dimension. We show that this estimator is convergent, asymptotic normal and we evaluate its performances on simulated and real data.
22-02-2019
22-02-2019
Thèse
Thèse

GNSS propagation channel modeling in constrained environments: contribution to the improvement of the geolocation service quality
GNSS propagation channel modeling in constrained environments: contribution to the improvement of the geolocation service quality


Accéder à la ressource
Les applications des systèmes de positionnement par satellites (GNSS) se sont largement répandues dans les transports urbains. Certaines applications exigent cependant une grande fiabilité qui ne tolère pas d’erreurs de positionnement importantes. Malheureusement, les environnements urbains présentent de grands défis pour les GNSS à cause de l'existence d’effets locaux. Le concept d'intégrité GNSS, qui est défini comme une mesure de confiance placée dans l'exactitude des informations fournies par le système de navigation qualifie cette exigence. L'objectif de cette thèse est d'améliorer les performances de précision et d'intégrité GNSS en milieu urbain. Deux directions de travail ont été prises : La première direction consiste à caractériser les erreurs de mesure GNSS afin d'améliorer la précision. Plusieurs modèles d'erreur existant sont étudiés. Un modèle hybride est proposé qui implique la contribution de la carte numérique en 3D. La seconde direction contribue aux techniques de détection et d'exclusion des défauts (FDE) afin d'améliorer l'intégrité de la position GNSS. Différentes méthodes FDE sont comparées avec des données GPS collectées dans des canyons urbains. Les FDE améliore la précision dans une première étape. Le calcul du niveau de protection horizontal (HPL) est ajouté en 2ème étape. Une nouvelle méthode de calcul HPL prenant en compte un potentiel défaut immédiatement antérieur est proposée. Enfin, ces deux directions de travail sont combinées afin de construire un système complet de surveillance de l'intégrité. Les résultats avec les données réelles montrent que la précision et l'intégrité du positionnement sont améliorées avec le système proposé.
In the last decades, Global Navigation Satellite System (GNSS)-based positioning systems are increasingly spread in urban environments, where great challenges exist for GNSS because of the local effects. Yet, for new GNSS land applications, knowing the certainty of one's localization is of great importance especially for the liability/safety critical applications. The concept of GNSS integrity, which is defined as a measure of trust to be placed in the correctness of the information supplied by the total system, can help to meet this requirement. The main objective of this PhD research work is to improve the accuracy and integrity performances of GNSS positioning in urban environments. Two research directions were investigated: The first direction consists of GNSS measurement error characterizations in order to improve the positioning accuracy. Several error models existing in the literature are evaluated. A new hybrid model is proposed while involving the digital map. The second direction contributes to the Fault Detection and Exclusion (FDE) techniques so as to improve the GNSS integrity. Different FDE methods are investigated and compared with real GPS data collected in urban canyons. The computation of Horizontal Protection Level (HPL) is added at the next step. A new method of HPL computation by taking into consideration of the potential prior fault is proposed. Then, these two research directions are combined together so that a complete integrity monitoring scheme is constructed. The results with real GPS data collected in urban canyons show that the positioning accuracy and integrity can be improved by the proposed scheme compared to the traditional approaches.
Les applications des systèmes de positionnement par satellites (GNSS) se sont largement répandues dans les transports urbains. Certaines applications exigent cependant une grande fiabilité qui ne tolère pas d’erreurs de positionnement importantes. Malheureusement, les environnements urbains présentent de grands défis pour les GNSS à cause de l'existence d’effets locaux. Le concept d'intégrité GNSS, qui est défini comme une mesure de confiance placée dans l'exactitude des informations fournies par le système de navigation qualifie cette exigence. L'objectif de cette thèse est d'améliorer les performances de précision et d'intégrité GNSS en milieu urbain. Deux directions de travail ont été prises : La première direction consiste à caractériser les erreurs de mesure GNSS afin d'améliorer la précision. Plusieurs modèles d'erreur existant sont étudiés. Un modèle hybride est proposé qui implique la contribution de la carte numérique en 3D. La seconde direction contribue aux techniques de détection et d'exclusion des défauts (FDE) afin d'améliorer l'intégrité de la position GNSS. Différentes méthodes FDE sont comparées avec des données GPS collectées dans des canyons urbains. Les FDE améliore la précision dans une première étape. Le calcul du niveau de protection horizontal (HPL) est ajouté en 2ème étape. Une nouvelle méthode de calcul HPL prenant en compte un potentiel défaut immédiatement antérieur est proposée. Enfin, ces deux directions de travail sont combinées afin de construire un système complet de surveillance de l'intégrité. Les résultats avec les données réelles montrent que la précision et l'intégrité du positionnement sont améliorées avec le système proposé.
In the last decades, Global Navigation Satellite System (GNSS)-based positioning systems are increasingly spread in urban environments, where great challenges exist for GNSS because of the local effects. Yet, for new GNSS land applications, knowing the certainty of one's localization is of great importance especially for the liability/safety critical applications. The concept of GNSS integrity, which is defined as a measure of trust to be placed in the correctness of the information supplied by the total system, can help to meet this requirement. The main objective of this PhD research work is to improve the accuracy and integrity performances of GNSS positioning in urban environments. Two research directions were investigated: The first direction consists of GNSS measurement error characterizations in order to improve the positioning accuracy. Several error models existing in the literature are evaluated. A new hybrid model is proposed while involving the digital map. The second direction contributes to the Fault Detection and Exclusion (FDE) techniques so as to improve the GNSS integrity. Different FDE methods are investigated and compared with real GPS data collected in urban canyons. The computation of Horizontal Protection Level (HPL) is added at the next step. A new method of HPL computation by taking into consideration of the potential prior fault is proposed. Then, these two research directions are combined together so that a complete integrity monitoring scheme is constructed. The results with real GPS data collected in urban canyons show that the positioning accuracy and integrity can be improved by the proposed scheme compared to the traditional approaches.
22-02-2019
22-02-2019
Thèse
Thèse

Conséquences d’une perturbation de l’expérience sensorimotrice sur la plasticité synaptique du cortex cérébral : implication de deux modifications post-traductionnelles, la phosphorylation et la O-GlcNAcylation
Conséquences d’une perturbation de l’expérience sensorimotrice sur la plasticité synaptique du cortex cérébral : implication de deux modifications post-traductionnelles, la phosphorylation et la O-GlcNAcylation


Accéder à la ressource
La sédentarité ou un alitement prolongé sont des situations ayant en commun une perturbation sensorimotrice (PSM), conduisant à une dégradation de la posture et la locomotion, dont l’origine est à la fois musculaire et nerveuse. Des études réalisées sur un modèle animal de PSM ont notamment montré des modifications biochimiques et morphologiques au niveau du cortex sensorimoteur. Cependant, les mécanismes sous-jacents ne sont tous pas élucidés. La O-GlcNAcylation, une glycosylation atypique, est une bonne candidate pour participer à cette neuroplasticité. Par interaction avec la phosphorylation, ces modifications post-traductionnelles sont impliquées dans des processus essentiels tels que l'activité synaptique ou la morphogenèse neuronale. L’objectif principal de cette thèse a été d’étudier les mécanismes moléculaires de la plasticité synaptique du cortex sensorimoteur et d’examiner l’implication potentielle de la O-GlcNAcylation au cours d’une période de PSM. Des changements d’activation et d’expression de protéines synaptiques ont été mis en évidence, montrant une diminution de la libération des neurotransmetteurs et une réduction de l’efficacité synaptique. La O-GlcNAcylation et la phosphorylation interviennent dans ces modifications en régulant finement l’activité de protéines spécifiques. La modulation des taux corticaux de O-GlcNAcylation permet de prévenir la réorganisation du cortex somesthésique, et prévient partiellement certaines altérations des performances sensorimotrices induite par une PSM. En conclusion, ces travaux montrent que la O-GlcNAcylation, en interaction avec la phosphorylation, participe activement à la plasticité synaptique induite par une PSM.
Sensorimotor perturbation (SMP) is frequently encountered in various situations, such as a sedentary lifestyle or prolonged bed rest. They all lead to postural and locomotor issues; whose origin is both muscular and nervous. Studies performed in a SMP animal model have shown changes in the sensorimotor cortex such as biochemical changes, somatotopic maps reorganization, morphological modifications of dendritic spines…. However, the underlying mechanisms are still unclear. O-GlcNAcylation, an atypical glycosylation, is a good candidate to participate in this neuroplasticity. By interplays with phosphorylation, these posttranslational modifications are both involved in essential cellular and physiological processes such as synaptic activity or neuronal morphogenesis. The main objective of this thesis was to study the molecular mechanisms of synaptic plasticity of the sensorimotor cortex and to examine the potential involvement of O-GlcNAcylation during a SMP period. We have shown that a period of SMP induces changes in activation and expression of synaptic proteins, leading to a decrease of neurotransmitters release and synaptic efficacy reduction. O-GlcNAcylation and phosphorylation appear to be involved in this synaptic plasticity by finely regulating the activity of specific synaptic proteins. Cortical modulation of O-GlcNAcylation level prevents somatosensory cortex reorganization, and prevents partially some alterations of sensorimotor performances induced by a SMP. In conclusion, all of these studies suggest that O-GlcNAcylation, in interaction with phosphorylation, participates actively in synaptic plasticity induced by SMP period.
La sédentarité ou un alitement prolongé sont des situations ayant en commun une perturbation sensorimotrice (PSM), conduisant à une dégradation de la posture et la locomotion, dont l’origine est à la fois musculaire et nerveuse. Des études réalisées sur un modèle animal de PSM ont notamment montré des modifications biochimiques et morphologiques au niveau du cortex sensorimoteur. Cependant, les mécanismes sous-jacents ne sont tous pas élucidés. La O-GlcNAcylation, une glycosylation atypique, est une bonne candidate pour participer à cette neuroplasticité. Par interaction avec la phosphorylation, ces modifications post-traductionnelles sont impliquées dans des processus essentiels tels que l'activité synaptique ou la morphogenèse neuronale. L’objectif principal de cette thèse a été d’étudier les mécanismes moléculaires de la plasticité synaptique du cortex sensorimoteur et d’examiner l’implication potentielle de la O-GlcNAcylation au cours d’une période de PSM. Des changements d’activation et d’expression de protéines synaptiques ont été mis en évidence, montrant une diminution de la libération des neurotransmetteurs et une réduction de l’efficacité synaptique. La O-GlcNAcylation et la phosphorylation interviennent dans ces modifications en régulant finement l’activité de protéines spécifiques. La modulation des taux corticaux de O-GlcNAcylation permet de prévenir la réorganisation du cortex somesthésique, et prévient partiellement certaines altérations des performances sensorimotrices induite par une PSM. En conclusion, ces travaux montrent que la O-GlcNAcylation, en interaction avec la phosphorylation, participe activement à la plasticité synaptique induite par une PSM.
Sensorimotor perturbation (SMP) is frequently encountered in various situations, such as a sedentary lifestyle or prolonged bed rest. They all lead to postural and locomotor issues; whose origin is both muscular and nervous. Studies performed in a SMP animal model have shown changes in the sensorimotor cortex such as biochemical changes, somatotopic maps reorganization, morphological modifications of dendritic spines…. However, the underlying mechanisms are still unclear. O-GlcNAcylation, an atypical glycosylation, is a good candidate to participate in this neuroplasticity. By interplays with phosphorylation, these posttranslational modifications are both involved in essential cellular and physiological processes such as synaptic activity or neuronal morphogenesis. The main objective of this thesis was to study the molecular mechanisms of synaptic plasticity of the sensorimotor cortex and to examine the potential involvement of O-GlcNAcylation during a SMP period. We have shown that a period of SMP induces changes in activation and expression of synaptic proteins, leading to a decrease of neurotransmitters release and synaptic efficacy reduction. O-GlcNAcylation and phosphorylation appear to be involved in this synaptic plasticity by finely regulating the activity of specific synaptic proteins. Cortical modulation of O-GlcNAcylation level prevents somatosensory cortex reorganization, and prevents partially some alterations of sensorimotor performances induced by a SMP. In conclusion, all of these studies suggest that O-GlcNAcylation, in interaction with phosphorylation, participates actively in synaptic plasticity induced by SMP period.
22-02-2019
22-02-2019
Thèse
Thèse
Les Smart Grids visent à transformer le réseau électrique actuel en un réseau "plus intelligent" où la production énergétique est décentralisée et automatisée, facilitant l'intégration des sources d'énergie renouvelables. Cette évolution est rendue possible grâce à l'utilisation d'un réseau de communication pour les multiples échanges de données hétérogènes des Smart Grids. L'objectif de cette thèse est de proposer un paradigme de communication efficace en termes de qualité de service pour les Smart Grids basé sur les réseaux de capteurs. Dans un premier temps, on s’intéresse au protocole standard RPL. Nous proposons une évolution de celui-ci à travers une nouvelle fonction objectif. Celle-ci tire parti de l’hétérogénéité matérielle des nœuds et des liens pour introduire la qualité de service. Cela permet à RPL de satisfaire les multiples et différentes exigences en termes de fiabilité, de latence et de priorité dans l'acheminement des données. Nos résultats montrent que notre approche permet bien la différentiation du trafic tout en réduisant la latence du routage et en économisant l'énergie. Nous proposons également d'améliorer l'utilisation du réseau de capteurs en y introduisant l’auto-organisation et la réduction des données. Le but est alors de prédire la valeur des données mesurées plutôt que de les transmettre. Une autre approche explorée est d'agréger les différents messages transitant sur le réseau tout en considérant leurs différentes exigences de qualité de service. Ces deux approches permettent ainsi de réduire la consommation d'énergie tout en respectant les exigences des différentes applications des Smart Grids.
Smart Grids aim to transform the current electric grid into a "smarter" network where energy production is decentralized and automated, which facilitates the integration of renewable energy resources. This evolution is made possible thanks to the use of a communication network for the multiple heterogeneous data exchanges of the Smart Grids. Hence, the aim of this thesis is to propose an efficient communication paradigm in terms of quality of service for Smart Grids based on wireless sensor networks. First, we study data routing in Smart Grids with the RPL standard. Nevertheless, RPL is not suitable for Smart Grid applications in terms of quality of service. Therefore, we propose an objective function for RPL that takes different features of both nodes and links into consideration. Results show that our approach improves network performance compared to existing solutions in terms of packet delivery ratio, network lifetime, latency and traffic differentiation. Then, we also propose a more efficient data collection by introducing self-organization and data reduction for these wireless sensors. The goal is to predict the value of the measured data rather than transmitting them. Another explored approach is to aggregate the different messages sent across the network while considering their different requirements in terms of quality of service. These two approaches reduce the energy consumption while respecting the requirements of the different applications of the Smart Grids.
Les Smart Grids visent à transformer le réseau électrique actuel en un réseau "plus intelligent" où la production énergétique est décentralisée et automatisée, facilitant l'intégration des sources d'énergie renouvelables. Cette évolution est rendue possible grâce à l'utilisation d'un réseau de communication pour les multiples échanges de données hétérogènes des Smart Grids. L'objectif de cette thèse est de proposer un paradigme de communication efficace en termes de qualité de service pour les Smart Grids basé sur les réseaux de capteurs. Dans un premier temps, on s’intéresse au protocole standard RPL. Nous proposons une évolution de celui-ci à travers une nouvelle fonction objectif. Celle-ci tire parti de l’hétérogénéité matérielle des nœuds et des liens pour introduire la qualité de service. Cela permet à RPL de satisfaire les multiples et différentes exigences en termes de fiabilité, de latence et de priorité dans l'acheminement des données. Nos résultats montrent que notre approche permet bien la différentiation du trafic tout en réduisant la latence du routage et en économisant l'énergie. Nous proposons également d'améliorer l'utilisation du réseau de capteurs en y introduisant l’auto-organisation et la réduction des données. Le but est alors de prédire la valeur des données mesurées plutôt que de les transmettre. Une autre approche explorée est d'agréger les différents messages transitant sur le réseau tout en considérant leurs différentes exigences de qualité de service. Ces deux approches permettent ainsi de réduire la consommation d'énergie tout en respectant les exigences des différentes applications des Smart Grids.
Smart Grids aim to transform the current electric grid into a "smarter" network where energy production is decentralized and automated, which facilitates the integration of renewable energy resources. This evolution is made possible thanks to the use of a communication network for the multiple heterogeneous data exchanges of the Smart Grids. Hence, the aim of this thesis is to propose an efficient communication paradigm in terms of quality of service for Smart Grids based on wireless sensor networks. First, we study data routing in Smart Grids with the RPL standard. Nevertheless, RPL is not suitable for Smart Grid applications in terms of quality of service. Therefore, we propose an objective function for RPL that takes different features of both nodes and links into consideration. Results show that our approach improves network performance compared to existing solutions in terms of packet delivery ratio, network lifetime, latency and traffic differentiation. Then, we also propose a more efficient data collection by introducing self-organization and data reduction for these wireless sensors. The goal is to predict the value of the measured data rather than transmitting them. Another explored approach is to aggregate the different messages sent across the network while considering their different requirements in terms of quality of service. These two approaches reduce the energy consumption while respecting the requirements of the different applications of the Smart Grids.
21-02-2019
21-02-2019
Thèse
Thèse

The shapes of level curves of real polynomials near strict local minima
The shapes of level curves of real polynomials near strict local minima


Accéder à la ressource
Nous considérons une fonction polynomiale de deux variables réelles qui s’annule à l’origine et qui a un minimum local strict en ce point. Nous nous plaçons dans un voisinage de l’origine dans lequel les lignes de niveau non nulles de cette fonction sont des courbes de Jordan lisses. Chaque fois que l’origine est un point critique de Morse, les niveaux suffisamment petits deviennent des bords de disques convexes. Si l’origine n’est pas de Morse, ces courbes de niveau peuvent ne pas être convexes, comme l’a montré Coste. Le but de cette thèse est double. Tout d'abord, nous nous intéressons à la construction d’exemples de minimums locaux stricts et non-Morse dont les lignes de niveau suffisamment petites sont loin d’être convexes. Et deuxièmement, nous étudions un objet combinatoire mesurant cette non-convexité : l’arbre de Poincaré-Reeb de la restriction de la première coordonnée à la région délimitée par une ligne de niveau donnée. Ces arbres planaires sont enracinés et leurs sommets correspondent en gros aux points de la courbe où les tangentes sont verticales. L’objectif principal de notre étude est de caractériser tous les types topologiques possibles d’arbres de Poincaré-Reeb. À cette fin, nous construisons une famille d’exemples réalisant une grande classe de tels arbres. Dans un premier temps, nous concentrons notre attention sur le cas des polynômes d’une variable, en utilisant un outil inspiré du travail de Ghys. L’un de nos résultats principaux donne une preuve nouvelle et constructive de l’existence de polynômes de Morse dont la permutation associée (appelée «le serpent d’Arnold») est séparable.
We consider a real bivariate polynomial function vanishing at the origin and exhibiting a strict local minimum at this point. We work in a neighbourhood of the origin in which the non-zero level curves of this function are smooth Jordan curves. Whenever the origin is a Morse critical point, the sufficiently small levels become boundaries of convex disks. Otherwise, these level curves may fail to be convex, as was shown by Coste. The aim of the present thesis is twofold. Firstly, to construct examples of non-Morse strict local minima whose sufficiently small level curves are far from being convex. And secondly, to study a combinatorial object measuring this non-convexity, namely the Poincaré-Reeb tree of the restriction of the first coordinate to the region bounded by a given level curve. These planar trees are rooted and their vertices roughly speaking correspond to points on the curve with vertical tangent lines. The main objective of our study is to characterise all possible topological types of Poincaré-Reeb trees. To this end, we construct a family of examples realising a large class of such trees. As a preliminary step, we restrict our attention to the univariate case, using a tool inspired by Ghys’ work. One of our main results gives a new and constructive proof of the existence of Morse polynomials whose associated permutation (the so-called “Arnold’s snake”) is separable.
Nous considérons une fonction polynomiale de deux variables réelles qui s’annule à l’origine et qui a un minimum local strict en ce point. Nous nous plaçons dans un voisinage de l’origine dans lequel les lignes de niveau non nulles de cette fonction sont des courbes de Jordan lisses. Chaque fois que l’origine est un point critique de Morse, les niveaux suffisamment petits deviennent des bords de disques convexes. Si l’origine n’est pas de Morse, ces courbes de niveau peuvent ne pas être convexes, comme l’a montré Coste. Le but de cette thèse est double. Tout d'abord, nous nous intéressons à la construction d’exemples de minimums locaux stricts et non-Morse dont les lignes de niveau suffisamment petites sont loin d’être convexes. Et deuxièmement, nous étudions un objet combinatoire mesurant cette non-convexité : l’arbre de Poincaré-Reeb de la restriction de la première coordonnée à la région délimitée par une ligne de niveau donnée. Ces arbres planaires sont enracinés et leurs sommets correspondent en gros aux points de la courbe où les tangentes sont verticales. L’objectif principal de notre étude est de caractériser tous les types topologiques possibles d’arbres de Poincaré-Reeb. À cette fin, nous construisons une famille d’exemples réalisant une grande classe de tels arbres. Dans un premier temps, nous concentrons notre attention sur le cas des polynômes d’une variable, en utilisant un outil inspiré du travail de Ghys. L’un de nos résultats principaux donne une preuve nouvelle et constructive de l’existence de polynômes de Morse dont la permutation associée (appelée «le serpent d’Arnold») est séparable.
We consider a real bivariate polynomial function vanishing at the origin and exhibiting a strict local minimum at this point. We work in a neighbourhood of the origin in which the non-zero level curves of this function are smooth Jordan curves. Whenever the origin is a Morse critical point, the sufficiently small levels become boundaries of convex disks. Otherwise, these level curves may fail to be convex, as was shown by Coste. The aim of the present thesis is twofold. Firstly, to construct examples of non-Morse strict local minima whose sufficiently small level curves are far from being convex. And secondly, to study a combinatorial object measuring this non-convexity, namely the Poincaré-Reeb tree of the restriction of the first coordinate to the region bounded by a given level curve. These planar trees are rooted and their vertices roughly speaking correspond to points on the curve with vertical tangent lines. The main objective of our study is to characterise all possible topological types of Poincaré-Reeb trees. To this end, we construct a family of examples realising a large class of such trees. As a preliminary step, we restrict our attention to the univariate case, using a tool inspired by Ghys’ work. One of our main results gives a new and constructive proof of the existence of Morse polynomials whose associated permutation (the so-called “Arnold’s snake”) is separable.
21-02-2019
21-02-2019
Thèse
Thèse

Novel learning and exploration-exploitation methods for effective recommender systems
Novel learning and exploration-exploitation methods for effective recommender systems


Accéder à la ressource
Cette thèse, réalisée en entreprise en tant que thèse CIFRE dans l'entreprise fifty-five, étudie les algorithmes des systèmes de recommandation. Nous avons proposé trois nouveaux algorithmes améliorant l'état de l'art que ce soit en termes de performance ou de prise en compte des contraintes industrielles. Pour cela nous avons proposé un premier algorithme basé sur la factorisation de tenseur, généralisation de la factorisation de matrice couramment appliquée en filtrage collaboratif. Nous avons ensuite proposé un algorithme permettant d'améliorer l'état de l'art des solutions de complétion de paniers. L'objectif des algorithmes de complétion de paniers est de proposer à l'utilisateur un nouveau produit à ajouter au panier qu'il/elle est en train d'acheter permettant ainsi d'augmenter la valeur d'un utilisateur. Pour cela nous nous sommes appuyés sur les processus ponctuels déterminantal. Nous avons généralisé l'approche de la complétion de paniers par DPP en utilisant une approche tensorielle. Enfin nous avons proposé un algorithme d'apprentissage par renforcement permettant d'alterner entre différents algorithmes de recommandation. En effet, utiliser toujours le même algorithme peut avoir tendance à ennuyer l'utilisateur pendant un certain temps, ou à l'inverse lui donner de plus en plus confiance en l'algorithme. Ainsi la performance d'un algorithme donné n'est pas stationnaire et dépend de quand et à quelle fréquence celui-ci a été utilisé. Notre algorithme d'apprentissage par renforcement apprend en temps réel à alterner entre divers algorithmes de recommandations dans le but de maximiser les performances sur le long terme.
This thesis, written in a company as a CIFRE thesis in the company fifty-five, studies recommender systems algorithms. We propose three new algorithms that improved over state-of-the-art solutions in terms of performance or matching industrial constraints. To that end, we proposed a first algorithm based on tensor factorization, a generalization of matrix factorization, commonly used on collaborative filtering. We then proposed a new algorithm that improves basket completion state-of-the-art algorithms. The goal of basket completion algorithms is to recommend a new product to a given user based on the products she is about to purchase in order to increase the user value. To that end we leverage Determinantal Point Processes, i.e., probability measure where the probability to observe a given set is proportional to the determinant of a kernel matrix. We generalized DPP approaches for basket completion using a tensor point of view coupled with a logistic regression. Finally, we proposed a reinforcement learning algorithm that allows to alternate between several recommender systems algorithms. Indeed, using always the same algorithm may either bore the user for a while or reinforce her trust in the system. Thus, the algorithm performance is not stationary and depends on when and how much the algorithm has been used in the past. Our reinforcement learning algorithm learns in real time how to alternate between several recommender system algorithms in order to maximize long term performances, that is in order to keep the user interested in the system as long as possible.
Cette thèse, réalisée en entreprise en tant que thèse CIFRE dans l'entreprise fifty-five, étudie les algorithmes des systèmes de recommandation. Nous avons proposé trois nouveaux algorithmes améliorant l'état de l'art que ce soit en termes de performance ou de prise en compte des contraintes industrielles. Pour cela nous avons proposé un premier algorithme basé sur la factorisation de tenseur, généralisation de la factorisation de matrice couramment appliquée en filtrage collaboratif. Nous avons ensuite proposé un algorithme permettant d'améliorer l'état de l'art des solutions de complétion de paniers. L'objectif des algorithmes de complétion de paniers est de proposer à l'utilisateur un nouveau produit à ajouter au panier qu'il/elle est en train d'acheter permettant ainsi d'augmenter la valeur d'un utilisateur. Pour cela nous nous sommes appuyés sur les processus ponctuels déterminantal. Nous avons généralisé l'approche de la complétion de paniers par DPP en utilisant une approche tensorielle. Enfin nous avons proposé un algorithme d'apprentissage par renforcement permettant d'alterner entre différents algorithmes de recommandation. En effet, utiliser toujours le même algorithme peut avoir tendance à ennuyer l'utilisateur pendant un certain temps, ou à l'inverse lui donner de plus en plus confiance en l'algorithme. Ainsi la performance d'un algorithme donné n'est pas stationnaire et dépend de quand et à quelle fréquence celui-ci a été utilisé. Notre algorithme d'apprentissage par renforcement apprend en temps réel à alterner entre divers algorithmes de recommandations dans le but de maximiser les performances sur le long terme.
This thesis, written in a company as a CIFRE thesis in the company fifty-five, studies recommender systems algorithms. We propose three new algorithms that improved over state-of-the-art solutions in terms of performance or matching industrial constraints. To that end, we proposed a first algorithm based on tensor factorization, a generalization of matrix factorization, commonly used on collaborative filtering. We then proposed a new algorithm that improves basket completion state-of-the-art algorithms. The goal of basket completion algorithms is to recommend a new product to a given user based on the products she is about to purchase in order to increase the user value. To that end we leverage Determinantal Point Processes, i.e., probability measure where the probability to observe a given set is proportional to the determinant of a kernel matrix. We generalized DPP approaches for basket completion using a tensor point of view coupled with a logistic regression. Finally, we proposed a reinforcement learning algorithm that allows to alternate between several recommender systems algorithms. Indeed, using always the same algorithm may either bore the user for a while or reinforce her trust in the system. Thus, the algorithm performance is not stationary and depends on when and how much the algorithm has been used in the past. Our reinforcement learning algorithm learns in real time how to alternate between several recommender system algorithms in order to maximize long term performances, that is in order to keep the user interested in the system as long as possible.
21-02-2019
21-02-2019
Thèse
Thèse

Collecte et remontée multi-sauts de données issues de lecteurs RFID pour la surveillance d'infrastructures urbaines
Collecte et remontée multi-sauts de données issues de lecteurs RFID pour la surveillance d'infrastructures urbaines


Accéder à la ressource
La forte urbanisation dont le monde est témoin exige une meilleure gestion des villes. Cette gestion améliorée passe par la surveillance et la maintenance des équipements et infrastructures urbaines afin d'assurer plus de sécurité et bien-être aux habitants. Un rôle clé a donc été confié aux TIC à travers les concepts de l'IoT et des Villes Intelligentes. Cette thèse se positionne dans ce contexte et propose l'Identification par Radio Fréquence (RFID) en complément des techniques déjà utilisées. L'adoption de la RFID à grande échelle pour les centres urbains nécessite cependant de résoudre deux principaux problèmes : les collisions de lecture et la collecte et remontée des données. A travers les travaux menés dans cette thèse, nous avons d'abord cherché à identifier les solutions déjà proposées dans la littérature pour réduire les collisions. Sur la base de cette étude, nous avons proposé deux algorithmes distribués d'anticollision de lecture DEFAR et CORA. Ils permettent d'assurer un débit de lecture important en maintenant un taux de collisions et une latence de couverture faible comparés aux solutions de la littérature. Par la suite, nous avons proposé DACAR, un algorithme distribué de collecte des données issues des lecteurs RFID de manière multi-sauts. Il s'adapte en fonction du protocole d'anticollision utilisé et de la position des lecteurs déployés pour fournir un ratio de délivrance des paquets fiable et un faible délai de bout-en-bout. Une version améliorée est ultérieurement proposée pour la priorisation des données et offrir des chemins différents plus appropriés à l'aide d'une combinaison de différents paramètres grâce à la logique floue.
The strong urbanization witnessed by the world requires better management of cities. This improved management involves the monitoring and maintenance of urban infrastructure and equipment to ensure greater safety and well-being for residents. A key role has therefore been given to ICTs through the concepts of IoT and Smart Cities. This thesis is positioned in this context and proposes the Radio Frequency Identification (RFID) in addition to the techniques already in use. The adoption of large-scale RFID for urban centers, however, needs to address two main issues: reading collisions and data collection and reporting. Through the work carried out in this thesis, we first sought to identify the solutions already proposed in the literature to reduce collisions. Based on this study, we proposed two distributed anti-collision algorithms DEFAR and CORA. They ensure a high read throughput by maintaining a low collapse rate and latency compared to literature solutions. Subsequently, we proposed DACAR, a distributed algorithm for collecting data from RFID readers in a multi-hop manner. It adapts according to the anti-collision protocol used and the position of deployed drives to provide a reliable packet delivery ratio and low end-to-end delay. An improved version is later proposed for the prioritization of data and to offer more suitable different paths using a combination of different parameters through fuzzy logic.
La forte urbanisation dont le monde est témoin exige une meilleure gestion des villes. Cette gestion améliorée passe par la surveillance et la maintenance des équipements et infrastructures urbaines afin d'assurer plus de sécurité et bien-être aux habitants. Un rôle clé a donc été confié aux TIC à travers les concepts de l'IoT et des Villes Intelligentes. Cette thèse se positionne dans ce contexte et propose l'Identification par Radio Fréquence (RFID) en complément des techniques déjà utilisées. L'adoption de la RFID à grande échelle pour les centres urbains nécessite cependant de résoudre deux principaux problèmes : les collisions de lecture et la collecte et remontée des données. A travers les travaux menés dans cette thèse, nous avons d'abord cherché à identifier les solutions déjà proposées dans la littérature pour réduire les collisions. Sur la base de cette étude, nous avons proposé deux algorithmes distribués d'anticollision de lecture DEFAR et CORA. Ils permettent d'assurer un débit de lecture important en maintenant un taux de collisions et une latence de couverture faible comparés aux solutions de la littérature. Par la suite, nous avons proposé DACAR, un algorithme distribué de collecte des données issues des lecteurs RFID de manière multi-sauts. Il s'adapte en fonction du protocole d'anticollision utilisé et de la position des lecteurs déployés pour fournir un ratio de délivrance des paquets fiable et un faible délai de bout-en-bout. Une version améliorée est ultérieurement proposée pour la priorisation des données et offrir des chemins différents plus appropriés à l'aide d'une combinaison de différents paramètres grâce à la logique floue.
The strong urbanization witnessed by the world requires better management of cities. This improved management involves the monitoring and maintenance of urban infrastructure and equipment to ensure greater safety and well-being for residents. A key role has therefore been given to ICTs through the concepts of IoT and Smart Cities. This thesis is positioned in this context and proposes the Radio Frequency Identification (RFID) in addition to the techniques already in use. The adoption of large-scale RFID for urban centers, however, needs to address two main issues: reading collisions and data collection and reporting. Through the work carried out in this thesis, we first sought to identify the solutions already proposed in the literature to reduce collisions. Based on this study, we proposed two distributed anti-collision algorithms DEFAR and CORA. They ensure a high read throughput by maintaining a low collapse rate and latency compared to literature solutions. Subsequently, we proposed DACAR, a distributed algorithm for collecting data from RFID readers in a multi-hop manner. It adapts according to the anti-collision protocol used and the position of deployed drives to provide a reliable packet delivery ratio and low end-to-end delay. An improved version is later proposed for the prioritization of data and to offer more suitable different paths using a combination of different parameters through fuzzy logic.
21-02-2019
21-02-2019
Thèse
Thèse

Estimation non-invasive de la durée de vie des infrastructures civiles soumises à des contraintes non-contrôlées
Estimation non-invasive de la durée de vie des infrastructures civiles soumises à des contraintes non-contrôlées


Accéder à la ressource
Les infrastructures civiles sont généralement soumises à des facteurs externes pouvant agir sur leur durée de vie. Pour les ponts en béton armé, l’environnement agressif induit une pénétration des ions, comme les chlorures, dans le béton poreux entrainant la corrosion des armatures, qui est une cause principale de détérioration pour ce type de structures. Les effets du temps sont aussi à prendre en considération, ceux-ci se manifestent par le fluage et le retrait du béton, suite auxquels la performance de ces ouvrages est fortement influencée. Cependant dans ce type de problème, le caractère probabiliste est souvent dominant. Cela ne se limite pas au trafic routier qui génère des contraintes non-contrôlées dans les sections portantes mais concerne aussi beaucoup de variables impliquées dans le calcul. La théorie de fiabilité a toujours constitué le moyen le plus efficace pour traiter ce type de problèmes, vu qu’elle puisse fournir une idée sur la durée de vie sous forme d’une probabilité de défaillance ou d’un indice de fiabilité. Ce travail comporte quatre axes principaux. Une famille de 21 ponts en béton armé servira pour l’application. Concernant le chargement du trafic, il est simulé en se basant sur des données de pesage en marche provenant d’autoroutes en Europe. La théorie de fiabilité est ensuite utilisée pour le calcul des indices de fiabilité avec le temps. Les effets de corrosion, du fluage et du retrait en plus du chargement réaliste de trafic sont introduits dans le calcul. Enfin, une approche basée sur l’optimisation génétique est proposée afin d’actualiser les lois d’évolution de la rigidité en se basant sur des données simulées de la déflexion à long terme.
Civil infrastructures are generally subjected to external factors that can affect their lifetime. In case of reinforced concrete bridges, the aggressive environment induces, for example, the penetration of ions such as chloride, into the porous concrete leading to the corrosion of reinforcement bars. This constitutes the main cause of deterioration for this kind of structure. Time effects are also to be taken into account, for example creep and shrinkage that strongly influence the performance of the structure. However, in this type of problems, the probabilistic nature is often dominant. This is not limited to the traffic loading which generates uncontrolled stresses, but also concerns most of the variables involved in the calculation. Reliability theory has always been the most appropriate way to deal with this kind of problems, since it can provide an idea about the structure lifetime in the form of failure probability or reliability index. This work has four main axes. A set of 21 reinforced concrete bridges will be used for the application. Regarding the traffic loading applied on the bridges, it is simulated according to weigh-in-motion data recorded in European motorways. Subsequently, the reliability theory is used to calculate the time-dependent reliability indices for the bridge set. The effects of corrosion, shrinkage and creep as well as the realistic traffic loading are introduced in the calculation. Finally, a new approach based on genetic optimization is proposed to update the evolution law of the global rigidity based on simulated data for long term deflection.
Les infrastructures civiles sont généralement soumises à des facteurs externes pouvant agir sur leur durée de vie. Pour les ponts en béton armé, l’environnement agressif induit une pénétration des ions, comme les chlorures, dans le béton poreux entrainant la corrosion des armatures, qui est une cause principale de détérioration pour ce type de structures. Les effets du temps sont aussi à prendre en considération, ceux-ci se manifestent par le fluage et le retrait du béton, suite auxquels la performance de ces ouvrages est fortement influencée. Cependant dans ce type de problème, le caractère probabiliste est souvent dominant. Cela ne se limite pas au trafic routier qui génère des contraintes non-contrôlées dans les sections portantes mais concerne aussi beaucoup de variables impliquées dans le calcul. La théorie de fiabilité a toujours constitué le moyen le plus efficace pour traiter ce type de problèmes, vu qu’elle puisse fournir une idée sur la durée de vie sous forme d’une probabilité de défaillance ou d’un indice de fiabilité. Ce travail comporte quatre axes principaux. Une famille de 21 ponts en béton armé servira pour l’application. Concernant le chargement du trafic, il est simulé en se basant sur des données de pesage en marche provenant d’autoroutes en Europe. La théorie de fiabilité est ensuite utilisée pour le calcul des indices de fiabilité avec le temps. Les effets de corrosion, du fluage et du retrait en plus du chargement réaliste de trafic sont introduits dans le calcul. Enfin, une approche basée sur l’optimisation génétique est proposée afin d’actualiser les lois d’évolution de la rigidité en se basant sur des données simulées de la déflexion à long terme.
Civil infrastructures are generally subjected to external factors that can affect their lifetime. In case of reinforced concrete bridges, the aggressive environment induces, for example, the penetration of ions such as chloride, into the porous concrete leading to the corrosion of reinforcement bars. This constitutes the main cause of deterioration for this kind of structure. Time effects are also to be taken into account, for example creep and shrinkage that strongly influence the performance of the structure. However, in this type of problems, the probabilistic nature is often dominant. This is not limited to the traffic loading which generates uncontrolled stresses, but also concerns most of the variables involved in the calculation. Reliability theory has always been the most appropriate way to deal with this kind of problems, since it can provide an idea about the structure lifetime in the form of failure probability or reliability index. This work has four main axes. A set of 21 reinforced concrete bridges will be used for the application. Regarding the traffic loading applied on the bridges, it is simulated according to weigh-in-motion data recorded in European motorways. Subsequently, the reliability theory is used to calculate the time-dependent reliability indices for the bridge set. The effects of corrosion, shrinkage and creep as well as the realistic traffic loading are introduced in the calculation. Finally, a new approach based on genetic optimization is proposed to update the evolution law of the global rigidity based on simulated data for long term deflection.
20-02-2019
20-02-2019
Thèse
Thèse
Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10