• 124 ressources ont été trouvées. Voici les résultats 51 à 60
Titre Description Date Format

Curve based approach for shape reconstruction of continuum manipulators
Curve based approach for shape reconstruction of continuum manipulators


Accéder à la ressource
Ce travail de thèse propose une nouvelle méthode de modélisation et de reconstruction de la forme d’une classe de manipulateurs continuum, basée sur la géométrie des courbes. Les Hodographes Pythagoriens (courbes HP) sont utilisées pour reconstruire des formes optimales pour ce type de robots, par une optimisation des énergies potentielles de flexion et de torsion. Cette méthode nous permis de déduire la cinématique optimale des bras manipulateurs continuum. La validation de la méthode proposée a été réalisée sur le robot dit trompe d’éléphant ‘Compact Bionic Handling Assistant (CBHA)’. Une calibration a été réalisée sur la méthode de reconstruction afin d’améliorer les performances en terme de précision et de prendre en considération les incertitudes dues à la structure du bras manipulateur. La méthode proposée est également testée dans le cas de la préhension, en s’appuyant sur une approche qualitative à base de réseaux de neurones. De plus, l'approche HP est étendue à la modélisation des structures de robots hétérogènes avec plusieurs sections. Ce dernier a été validé pour une chaîne cinématique fermée, composée de deux manipulateurs CBHA, manipulant conjointement une corde flexible.
This work provides a new methodology to reconstruct the shape of continuum manipulators using a curve based approach. Pythagorean Hodograph (PH) curves are used to reconstruct the optimal shape of continuum manipulators using minimum potential energy (bending and twisting energy) criteria. This methodology allows us to obtain the optimal kinematics of continuum manipulators. The models are applied to a continuum manipulator, namely, the Compact Bionic Handling Assistant (CBHA) for experimental validation under free load manipulation. The calibration of the PH-based shape reconstruction methodology is performed to improve its accuracy to accommodate the uncertainties due to the structure of the manipulator. The proposed method is also tested under the loaded manipulation after combining it with a qualitative Neural Network approach. Furthermore, the PH-based methodology is extended to model multi-section heterogeneous bodies. This model is experimentally validated for a closed loop kinematic chain formed using two CBHA manipulating jointly a rope.
Ce travail de thèse propose une nouvelle méthode de modélisation et de reconstruction de la forme d’une classe de manipulateurs continuum, basée sur la géométrie des courbes. Les Hodographes Pythagoriens (courbes HP) sont utilisées pour reconstruire des formes optimales pour ce type de robots, par une optimisation des énergies potentielles de flexion et de torsion. Cette méthode nous permis de déduire la cinématique optimale des bras manipulateurs continuum. La validation de la méthode proposée a été réalisée sur le robot dit trompe d’éléphant ‘Compact Bionic Handling Assistant (CBHA)’. Une calibration a été réalisée sur la méthode de reconstruction afin d’améliorer les performances en terme de précision et de prendre en considération les incertitudes dues à la structure du bras manipulateur. La méthode proposée est également testée dans le cas de la préhension, en s’appuyant sur une approche qualitative à base de réseaux de neurones. De plus, l'approche HP est étendue à la modélisation des structures de robots hétérogènes avec plusieurs sections. Ce dernier a été validé pour une chaîne cinématique fermée, composée de deux manipulateurs CBHA, manipulant conjointement une corde flexible.
This work provides a new methodology to reconstruct the shape of continuum manipulators using a curve based approach. Pythagorean Hodograph (PH) curves are used to reconstruct the optimal shape of continuum manipulators using minimum potential energy (bending and twisting energy) criteria. This methodology allows us to obtain the optimal kinematics of continuum manipulators. The models are applied to a continuum manipulator, namely, the Compact Bionic Handling Assistant (CBHA) for experimental validation under free load manipulation. The calibration of the PH-based shape reconstruction methodology is performed to improve its accuracy to accommodate the uncertainties due to the structure of the manipulator. The proposed method is also tested under the loaded manipulation after combining it with a qualitative Neural Network approach. Furthermore, the PH-based methodology is extended to model multi-section heterogeneous bodies. This model is experimentally validated for a closed loop kinematic chain formed using two CBHA manipulating jointly a rope.
23-01-2019
23-01-2019
Thèse
Thèse

Solitons sombres et ondes dispersives dans les fibres optiques
Solitons sombres et ondes dispersives dans les fibres optiques


Accéder à la ressource
Cette thèse a pour objectif l’étude expérimentale de la propagation de solitons sombres temporels aux abords de la longueur d’onde de dispersion nulle d’une fibre optique. Dans un premier temps, nous nous concentrons sur la génération d’ondes dispersives par des solitons sombres. Pour cela, plusieurs techniques de génération de solitons sont mises en oeuvre. La première, basée sur la collision de deux impulsions laser, permet de générer un train de quasi-solitons sombres. Ainsi, en fonction du nombre de solitons composant le train et de la puissance en entrée de la fibre, nous observons l’émission d’une seule ou de plusieurs ondes dispersives ainsi que la génération de supercontinua spectraux. La deuxième technique de génération de solitons sombres mise en place utilise un ensemble de deux façonneurs d’ondes optique. Au moyen de mesures spectrales et de corrélation croisée, nous montrons que celle-ci permet la génération de solitons sombres isolés dont la longueur d’onde, la phase, la profondeur et la durée peuvent être ajustées précisément. Nous montrons alors que la variation de ces paramètres induit une variation de la longueur d’onde des ondes dispersives émises. Nous étudions dans un deuxième temps la collision entre un soliton sombre et une onde dispersive. En réemployant la technique précédente, nous générons simultanément le soliton sombre et l’onde dispersive dans une fibre optique. Nous montrons alors théoriquement, numériquement et expérimentalement, que la collision mène à un décalage en fréquence de l’onde dispersive incidente suivant une relation d’accord de phase spécifique mettant en jeu la profondeur du soliton et la longueur d’onde de l’onde dispersive.
The aim of this thesis is to experimentally study the propagation of temporal dark solitons and their nonlinear dynamics around the zero-dispersion wavelength of an optical fiber. First, we focus on the generation of dispersive waves by dark solitons. For this, several techniques of solitons generation are implemented. The first one, based on the collision of two laser pulses, allows to generate a train of dark quasi-solitons. Depending on the number of solitons in the train and the input power, we observe the emission of one or more dispersive waves, as well as the generation of supercontinua. The second technique to generate dark solitons, uses a set of two waveshapers. By means of spectral and cross-correlation measurements, we show that this technique allows the generation of isolated dark solitons whose wavelength, phase, depth and duration can be precisely adjusted. Thus, we show that the variation of these parameters modifies the wavelength of the emitted dispersive waves. In a second time, we studied the optical collision between a dark soliton with a dispersive wave. Using the previous technique, we generate both the dark soliton and the dispersive wave in an optical fiber. We then show theoretically, numerically and experimentally, that the collision leads to a frequency shift of the incident dispersive wave. According to a specific phase matching, we show that this spectral shift varies as a function of the soliton grayness and also of the dispersive wave wavelength.
Cette thèse a pour objectif l’étude expérimentale de la propagation de solitons sombres temporels aux abords de la longueur d’onde de dispersion nulle d’une fibre optique. Dans un premier temps, nous nous concentrons sur la génération d’ondes dispersives par des solitons sombres. Pour cela, plusieurs techniques de génération de solitons sont mises en oeuvre. La première, basée sur la collision de deux impulsions laser, permet de générer un train de quasi-solitons sombres. Ainsi, en fonction du nombre de solitons composant le train et de la puissance en entrée de la fibre, nous observons l’émission d’une seule ou de plusieurs ondes dispersives ainsi que la génération de supercontinua spectraux. La deuxième technique de génération de solitons sombres mise en place utilise un ensemble de deux façonneurs d’ondes optique. Au moyen de mesures spectrales et de corrélation croisée, nous montrons que celle-ci permet la génération de solitons sombres isolés dont la longueur d’onde, la phase, la profondeur et la durée peuvent être ajustées précisément. Nous montrons alors que la variation de ces paramètres induit une variation de la longueur d’onde des ondes dispersives émises. Nous étudions dans un deuxième temps la collision entre un soliton sombre et une onde dispersive. En réemployant la technique précédente, nous générons simultanément le soliton sombre et l’onde dispersive dans une fibre optique. Nous montrons alors théoriquement, numériquement et expérimentalement, que la collision mène à un décalage en fréquence de l’onde dispersive incidente suivant une relation d’accord de phase spécifique mettant en jeu la profondeur du soliton et la longueur d’onde de l’onde dispersive.
The aim of this thesis is to experimentally study the propagation of temporal dark solitons and their nonlinear dynamics around the zero-dispersion wavelength of an optical fiber. First, we focus on the generation of dispersive waves by dark solitons. For this, several techniques of solitons generation are implemented. The first one, based on the collision of two laser pulses, allows to generate a train of dark quasi-solitons. Depending on the number of solitons in the train and the input power, we observe the emission of one or more dispersive waves, as well as the generation of supercontinua. The second technique to generate dark solitons, uses a set of two waveshapers. By means of spectral and cross-correlation measurements, we show that this technique allows the generation of isolated dark solitons whose wavelength, phase, depth and duration can be precisely adjusted. Thus, we show that the variation of these parameters modifies the wavelength of the emitted dispersive waves. In a second time, we studied the optical collision between a dark soliton with a dispersive wave. Using the previous technique, we generate both the dark soliton and the dispersive wave in an optical fiber. We then show theoretically, numerically and experimentally, that the collision leads to a frequency shift of the incident dispersive wave. According to a specific phase matching, we show that this spectral shift varies as a function of the soliton grayness and also of the dispersive wave wavelength.
22-01-2019
22-01-2019
Thèse
Thèse

Modèle d'auto-organisation pour les protocoles de routage dans les réseaux ad hoc de véhicules : application à la perception élargie et à la localisation coopératives
Modèle d'auto-organisation pour les protocoles de routage dans les réseaux ad hoc de véhicules : application à la perception élargie et à la localisation coopératives


Accéder à la ressource
Automatiser la conduite peut réduire le risque d'accidents et fluidifier le trafic en s’appuyant sur des communications entre véhicules et avec une infrastructure dédiée. Maintenir les services lorsque l’infrastructure faillit nécessite un protocole de routage adapté aux communications véhicule-à-véhicule (V2V). Cette thèse pose l’hypothèse de l’absence d’infrastructure et de service global de localisation, chaque véhicule connaissant sa seule position. Un modèle d’organisation des communications V2V, CBL, est proposé pour créer et maintenir une structure supportant les échanges proches, entre véhicules voisins, et lointains à travers le trafic. Il crée une hiérarchie où des groupes dissociés de véhicules voisins (feuilles) sont connectés via un véhicule leader (branche) à une colonne vertébrale (chaîne) formée le long de la route par interconnexion des branches. CBL requière la seule connaissance du voisinage à un saut et peut s’intégrer à tout protocole de routage. Les évaluations sur des scénarios routiers montrent que CBL exploite mieux les contraintes spatiales dues à la route, obtenant une structure plus adaptée à l’optimisation du trafic broadcast comparativement à la technique des multipoints relais dans OLSR, mais aussi face aux protocoles DSR, AODV et GRP, pour un trafic basé sur les préconisations IEEE de taille et fréquence de messages en milieu routier. Des évaluations sur des trafics d’applications coopératives telles que l’égo-localisation et la perception élargie montrent que CBL offre un service de communication à latence et taux de pertes faibles selon un compromis voulu entre fréquence de messages et performances.
Automated driving can reduce accidents and improve the traffic flow by using communications between vehicles and dedicated infrastructures. Maintaining services when an infrastructure failed requires a routing protocol adapted to vehicle-to-vehicle (V2V) communications. This dissertation assumes the absence of dedicated infrastructure and global location service, each vehicle knowing its only own position. A V2V communication organization model, CBL, is proposed to create and maintain a structure that supports close exchanges between neighbouring vehicles and remote exchanges through the traffic. CBL creates a hierarchy where disjoint groups of neighbouring vehicles (leaves) are connected via a leader vehicle (branch) to a backbone (chain) formed along the road by the interconnection of the branches. CBL requires only the knowledge of the one-hop neighborhood and can be integrated into any routing protocol. The evaluations on road scenarios using IEEE-based traffic recommended on road environments in terms of size and message frequency show that CBL makes a better use of the spatial constraints due to the road. A structure is obtained that suits better in the optimisation of the broadcast traffic than the technique of multipoint relays in OLSR, but also compared to DSR, AODV and GRP protocols. Evaluations of cooperative application traffic such as ego-localization and extended perception show that CBL offers a communication service with low latency, low packet loss, according to a wanted trade-off between message frequency and performance.
Automatiser la conduite peut réduire le risque d'accidents et fluidifier le trafic en s’appuyant sur des communications entre véhicules et avec une infrastructure dédiée. Maintenir les services lorsque l’infrastructure faillit nécessite un protocole de routage adapté aux communications véhicule-à-véhicule (V2V). Cette thèse pose l’hypothèse de l’absence d’infrastructure et de service global de localisation, chaque véhicule connaissant sa seule position. Un modèle d’organisation des communications V2V, CBL, est proposé pour créer et maintenir une structure supportant les échanges proches, entre véhicules voisins, et lointains à travers le trafic. Il crée une hiérarchie où des groupes dissociés de véhicules voisins (feuilles) sont connectés via un véhicule leader (branche) à une colonne vertébrale (chaîne) formée le long de la route par interconnexion des branches. CBL requière la seule connaissance du voisinage à un saut et peut s’intégrer à tout protocole de routage. Les évaluations sur des scénarios routiers montrent que CBL exploite mieux les contraintes spatiales dues à la route, obtenant une structure plus adaptée à l’optimisation du trafic broadcast comparativement à la technique des multipoints relais dans OLSR, mais aussi face aux protocoles DSR, AODV et GRP, pour un trafic basé sur les préconisations IEEE de taille et fréquence de messages en milieu routier. Des évaluations sur des trafics d’applications coopératives telles que l’égo-localisation et la perception élargie montrent que CBL offre un service de communication à latence et taux de pertes faibles selon un compromis voulu entre fréquence de messages et performances.
Automated driving can reduce accidents and improve the traffic flow by using communications between vehicles and dedicated infrastructures. Maintaining services when an infrastructure failed requires a routing protocol adapted to vehicle-to-vehicle (V2V) communications. This dissertation assumes the absence of dedicated infrastructure and global location service, each vehicle knowing its only own position. A V2V communication organization model, CBL, is proposed to create and maintain a structure that supports close exchanges between neighbouring vehicles and remote exchanges through the traffic. CBL creates a hierarchy where disjoint groups of neighbouring vehicles (leaves) are connected via a leader vehicle (branch) to a backbone (chain) formed along the road by the interconnection of the branches. CBL requires only the knowledge of the one-hop neighborhood and can be integrated into any routing protocol. The evaluations on road scenarios using IEEE-based traffic recommended on road environments in terms of size and message frequency show that CBL makes a better use of the spatial constraints due to the road. A structure is obtained that suits better in the optimisation of the broadcast traffic than the technique of multipoint relays in OLSR, but also compared to DSR, AODV and GRP protocols. Evaluations of cooperative application traffic such as ego-localization and extended perception show that CBL offers a communication service with low latency, low packet loss, according to a wanted trade-off between message frequency and performance.
22-01-2019
22-01-2019
Thèse
Thèse

Sur l’optimalité de l’inégalité de Bernstein-Walsh à poids et ses applications aux méthodes de Krylov
Sur l’optimalité de l’inégalité de Bernstein-Walsh à poids et ses applications aux méthodes de Krylov


Accéder à la ressource
Les méthodes de projection sur des espaces de Krylov ont été employées avec grand succès pour diverses tâches en calcul scientifique, par exemple la résolution de grands systèmes d’équations linéaires, le calcul approché de valeurs propres, ou encore le calcul approché des fonctions de matrices fois un vecteur. L’objectif majeur de cette thèse est d’étudier et d’expliquer la convergence superlinéaire des méthodes de Krylov. La plupart des résultats existants sont asymptotiques avec passage à la racine n-ième et considèrent des suites de matrices. Dans un premier temps, nous généralisons une formule de Ipsen et al. concernant la convergence superlinéaire des méthodes MR valable pour des disques, à l’aide des opérateurs de Hankel et de la théorie AAK. Notre analyse permet aussi d’obtenir des bornes supérieures pour des ensembles convexes en utilisant la transformée de Faber. Ensuite nous énonçons notre principal résultat qui est un théorème d’optimalité en théorie du potentiel logarithmique. Nous montrons, à l’aide d’une nouvelle technique de discrétisation d’un potentiel, que l’inégalité de Bernstein-Walsh à poids sur un intervalle réel est optimale, à un facteur universel près, dans le cas où le champs extérieur est un potentiel d’une mesure à support réel à gauche de l’intervalle, ce qui inclut le cas des poids polynômiaux. Via un lien avec un problème sous contrainte, l’inégalité précédente s’applique à l’analyse de la convergence des méthodes de Krylov, et permet de prédire analytiquement un taux de convergence superlinéaire de la méthode du gradient conjugué et des approximations de Rayleigh-Ritz pour des fonctions de Markov, à chaque étape et pour une seule matrice.
Projection methods on Krylov spaces were used with great success for various tasks in scientific computing, for example the resolution of large systems of linear equations, the approximate computation of eigenvalues, or the approximate computation of matrix functions times a vector. The main goal in this thesis is to study and explain superlinear convergence of Krylov methods. Most of the existing formulas provide asymptotic results for the n-th root considering an increasing sequence of matrices. Firstly, we generalize a formula of Ipsen et al. concerning superlinear convergence of MR methods valid for disks using Hankel operators and AAK theory, our analysis also allows to obtain upper bounds for convex sets using the Faber transform. Then we state our main theorem which is a sharpness result in logarithmic potential theory using a new technique of discretization of a logarithmic potential. We prove that the weighted Bernstein-Walsh inequality on a real interval is sharp up to some universal constant, when the external field is given by a potential of a real measure supported at the left of the interval. As a special case this result includes the case of weights given by polynomials. Via a link with a constrained extremal problem our inequality applies to the analysis of the convergence of Krylov methods, and allows us to predict analytically the superlinear convergence of the conjugate gradient method and of the error for Rayleigh-Ritz approximations for Markov functions. Our results apply to a simple matrix, without taking the limit and without n-th root.
Les méthodes de projection sur des espaces de Krylov ont été employées avec grand succès pour diverses tâches en calcul scientifique, par exemple la résolution de grands systèmes d’équations linéaires, le calcul approché de valeurs propres, ou encore le calcul approché des fonctions de matrices fois un vecteur. L’objectif majeur de cette thèse est d’étudier et d’expliquer la convergence superlinéaire des méthodes de Krylov. La plupart des résultats existants sont asymptotiques avec passage à la racine n-ième et considèrent des suites de matrices. Dans un premier temps, nous généralisons une formule de Ipsen et al. concernant la convergence superlinéaire des méthodes MR valable pour des disques, à l’aide des opérateurs de Hankel et de la théorie AAK. Notre analyse permet aussi d’obtenir des bornes supérieures pour des ensembles convexes en utilisant la transformée de Faber. Ensuite nous énonçons notre principal résultat qui est un théorème d’optimalité en théorie du potentiel logarithmique. Nous montrons, à l’aide d’une nouvelle technique de discrétisation d’un potentiel, que l’inégalité de Bernstein-Walsh à poids sur un intervalle réel est optimale, à un facteur universel près, dans le cas où le champs extérieur est un potentiel d’une mesure à support réel à gauche de l’intervalle, ce qui inclut le cas des poids polynômiaux. Via un lien avec un problème sous contrainte, l’inégalité précédente s’applique à l’analyse de la convergence des méthodes de Krylov, et permet de prédire analytiquement un taux de convergence superlinéaire de la méthode du gradient conjugué et des approximations de Rayleigh-Ritz pour des fonctions de Markov, à chaque étape et pour une seule matrice.
Projection methods on Krylov spaces were used with great success for various tasks in scientific computing, for example the resolution of large systems of linear equations, the approximate computation of eigenvalues, or the approximate computation of matrix functions times a vector. The main goal in this thesis is to study and explain superlinear convergence of Krylov methods. Most of the existing formulas provide asymptotic results for the n-th root considering an increasing sequence of matrices. Firstly, we generalize a formula of Ipsen et al. concerning superlinear convergence of MR methods valid for disks using Hankel operators and AAK theory, our analysis also allows to obtain upper bounds for convex sets using the Faber transform. Then we state our main theorem which is a sharpness result in logarithmic potential theory using a new technique of discretization of a logarithmic potential. We prove that the weighted Bernstein-Walsh inequality on a real interval is sharp up to some universal constant, when the external field is given by a potential of a real measure supported at the left of the interval. As a special case this result includes the case of weights given by polynomials. Via a link with a constrained extremal problem our inequality applies to the analysis of the convergence of Krylov methods, and allows us to predict analytically the superlinear convergence of the conjugate gradient method and of the error for Rayleigh-Ritz approximations for Markov functions. Our results apply to a simple matrix, without taking the limit and without n-th root.
21-01-2019
21-01-2019
Thèse
Thèse

Conception et fabrication de neurones artificiels pour le traitement bioinspiré de l'information
Conception et fabrication de neurones artificiels pour le traitement bioinspiré de l'information


Accéder à la ressource
Actuellement, les technologies du traitement d'information ont atteint leurs limites et il devient donc urgent de proposer de nouveaux paradigmes capables de réduire la consommation d'énergie tout en augmentant la capacité de calcul des ordinateurs. Le cerveau humain est un fascinant et puissant organe, avec ses 300 milliards de cellule, il est capable d’effectuer des taches cognitives en consommant 20W. Dans ce contexte nous avons investiguer un nouveau paradigme appelé "neuromorphic computing" ou le traitement bio-inspiré de l'information. L'objectif de cette thèse est de concevoir et de fabriquer un neurone artificiel a très faible consommation utilisant les récentes avancées scientifiques dans les neurosciences et les nanotechnologies. Premièrement, on a investigué le fonctionnement d'un neurone vivant, sa membrane neuronale et nous avons exploré 3 différents modèles de membranes connues sous le nom de Hodgkin Huxley, Wei et Morris Lecar. Deuxièmement, en se basant sur le modèle de Morris Lecar, nous avons réalisé des neurones artificiels analogiques à spike avec différentes constantes de temps. Puis ils ont été fabriqués avec la technologie 65nm CMOS. Par la suite, nous les avons caractérisés et obtenu des performances dépassant l’état de l’art en terme de surface occupée, puissance dissipée et efficacité énergétique. Finalement, on a analysé et comparé le bruit dans ces neurones artificiels avec le bruit dans des neurones biologiques et on a démontré expérimentalement le phénomène de résonance stochastique. Ces neurones artificiels peuvent être extrêmement utiles pour une large variété d’application allant du traitement de données à l’application médicale.
Current computing technology has now reached its limits and it becomes thus urgent to propose new paradigms for information processing capable of reducing the energy consumption while improving the computing performances. Moreover, the human brain, is a fascinating and powerful organ with remarkable performances in areas as varied as learning, creativity, fault tolerance. Furthermore, with its total 300 billion cells, is able to perform complex cognitive tasks by consuming only around 20W. In this context, we investigated a new paradigm called neuromorphic or bio-inspired information processing. More precisely, the purpose of this thesis was to design and fabricate an ultra-low power artificial neuron using recent advances in neuroscience and nanotechnology. First, we investigated the functionalities of living neurons, their neuronal membrane and explored different membrane models known as Hodgkin Huxley, Wei and Morris Lecar models. Second, based on the Morris Lecar model, we designed analog spiking artificial neurons with different time constants and these neurons were fabricated using 65nm CMOS technology. Then we characterized these artificial neurons and obtained state of the art performances in terms of area, dissipated power and energy efficiency. Finally we investigated the noise within these artificial neurons, compared it with the biological sources of noise in a living neuron and experimentally demonstrated the stochastic resonance phenomenon. These artificial neurons can be extremely useful for a large variety of applications, ranging from data analysis (image and video processing) to medical aspect (neuronal implants).
Actuellement, les technologies du traitement d'information ont atteint leurs limites et il devient donc urgent de proposer de nouveaux paradigmes capables de réduire la consommation d'énergie tout en augmentant la capacité de calcul des ordinateurs. Le cerveau humain est un fascinant et puissant organe, avec ses 300 milliards de cellule, il est capable d’effectuer des taches cognitives en consommant 20W. Dans ce contexte nous avons investiguer un nouveau paradigme appelé "neuromorphic computing" ou le traitement bio-inspiré de l'information. L'objectif de cette thèse est de concevoir et de fabriquer un neurone artificiel a très faible consommation utilisant les récentes avancées scientifiques dans les neurosciences et les nanotechnologies. Premièrement, on a investigué le fonctionnement d'un neurone vivant, sa membrane neuronale et nous avons exploré 3 différents modèles de membranes connues sous le nom de Hodgkin Huxley, Wei et Morris Lecar. Deuxièmement, en se basant sur le modèle de Morris Lecar, nous avons réalisé des neurones artificiels analogiques à spike avec différentes constantes de temps. Puis ils ont été fabriqués avec la technologie 65nm CMOS. Par la suite, nous les avons caractérisés et obtenu des performances dépassant l’état de l’art en terme de surface occupée, puissance dissipée et efficacité énergétique. Finalement, on a analysé et comparé le bruit dans ces neurones artificiels avec le bruit dans des neurones biologiques et on a démontré expérimentalement le phénomène de résonance stochastique. Ces neurones artificiels peuvent être extrêmement utiles pour une large variété d’application allant du traitement de données à l’application médicale.
Current computing technology has now reached its limits and it becomes thus urgent to propose new paradigms for information processing capable of reducing the energy consumption while improving the computing performances. Moreover, the human brain, is a fascinating and powerful organ with remarkable performances in areas as varied as learning, creativity, fault tolerance. Furthermore, with its total 300 billion cells, is able to perform complex cognitive tasks by consuming only around 20W. In this context, we investigated a new paradigm called neuromorphic or bio-inspired information processing. More precisely, the purpose of this thesis was to design and fabricate an ultra-low power artificial neuron using recent advances in neuroscience and nanotechnology. First, we investigated the functionalities of living neurons, their neuronal membrane and explored different membrane models known as Hodgkin Huxley, Wei and Morris Lecar models. Second, based on the Morris Lecar model, we designed analog spiking artificial neurons with different time constants and these neurons were fabricated using 65nm CMOS technology. Then we characterized these artificial neurons and obtained state of the art performances in terms of area, dissipated power and energy efficiency. Finally we investigated the noise within these artificial neurons, compared it with the biological sources of noise in a living neuron and experimentally demonstrated the stochastic resonance phenomenon. These artificial neurons can be extremely useful for a large variety of applications, ranging from data analysis (image and video processing) to medical aspect (neuronal implants).
21-01-2019
21-01-2019
Thèse
Thèse

Etude expérimentale du calcaire et la constitution de modèle micro-macro pour les roches typiquement poreuses
Etude expérimentale du calcaire et la constitution de modèle micro-macro pour les roches typiquement poreuses


Accéder à la ressource
Dans ce travail, une série d’études expérimentales ont été réalisées sur le comportement mécanique, l’évolution de la perméabilité et les effets de la pression interstitielle sur la déformation plastique et la rupture du calcaire d’Anstrude. Les résultats permettent d'identifier deux mécanismes de déformation plastique, leurs effets sur l'évolution de la perméabilité et les effets de la pression interstitielle de pore sur la déformation plastique et le rupture du calcaire saturé à eau. Sur les données expérimentales, la validité du concept de contrainte effective pour la surface plastique et la rupture est discutée. Pour la modélisation du comportement mécanique de la roche poreuse, un modèle micromécanique est d'abord développé sur la base d'un modèle récent de type Gurson pour un matériau poreux avec une matrice de Mises-Schleicher. Considérant que la roche à forte porosité présente un compactage volumétrique sous faible Pc, un modèle non associé est alors proposé. Le modèle proposé est d'abord appliqué et étendu pour décrire les comportements poromécaniques de la craie de Lixhe. Des simulations numériques montrent que le modèle proposé décrit correctement les principales caractéristiques de la craie. Le modèle est ensuite étendu pour décrire le comportement mécanique du calcaire étudié en prenant en compte l'effet de l'évolution de la porosité dans l'effet de durcissement de la matrice solide. D'une craie de forte porosité à un calcaire de porosité moyenne, le modèle proposé est finalement vérifié dans différentes conditions de charge par des comparaisons entre les prédictions numériques et les données expérimentales pour les essaies drainés et non drainés.
In this work, a series of experimental investigations have been performed on the basic mechanical behavior, permeability evolution and effects of pore pressure on plastic deformation and failure of Anstrude limestone. The obtained results allow to identifying two plastic deformation mechanisms, their effects on the permeability evolution, and the effects of pore pressure on plastic deformation and failure of water saturated limestone. Based on experimental data, the validity of effective stress concept for plastic yielding and failure strength is discussed. For modelling of mechanical behavior of porous rock, a micromechanics-based model is firstly developed on basis of a recent Gurson-type model for porous material with a Mises–Schleicher matrix. Considering that the high-porosity rock exhibits a volumetric compaction under low confining pressure, a non-associated model is then proposed. The proposed model is firstly applied and extended to describe the mechanical and poromechanical behaviors of Lixhe chalk. Numerical simulations show that the proposed model describes correctly the main features of the chalk. On considering the mechanical behavior of porous limestone, the model is then extended to describe the mechanical behavior of studied limestone by taking the effect of porosity evolution into account in the hardening effect of solid matrix. From a high porosity chalk to a medium porosity limestone, the proposed model is finally verified in different loading conditions through comparisons between the numerical predictions and experimental data for both drained and undrained tests.
Dans ce travail, une série d’études expérimentales ont été réalisées sur le comportement mécanique, l’évolution de la perméabilité et les effets de la pression interstitielle sur la déformation plastique et la rupture du calcaire d’Anstrude. Les résultats permettent d'identifier deux mécanismes de déformation plastique, leurs effets sur l'évolution de la perméabilité et les effets de la pression interstitielle de pore sur la déformation plastique et le rupture du calcaire saturé à eau. Sur les données expérimentales, la validité du concept de contrainte effective pour la surface plastique et la rupture est discutée. Pour la modélisation du comportement mécanique de la roche poreuse, un modèle micromécanique est d'abord développé sur la base d'un modèle récent de type Gurson pour un matériau poreux avec une matrice de Mises-Schleicher. Considérant que la roche à forte porosité présente un compactage volumétrique sous faible Pc, un modèle non associé est alors proposé. Le modèle proposé est d'abord appliqué et étendu pour décrire les comportements poromécaniques de la craie de Lixhe. Des simulations numériques montrent que le modèle proposé décrit correctement les principales caractéristiques de la craie. Le modèle est ensuite étendu pour décrire le comportement mécanique du calcaire étudié en prenant en compte l'effet de l'évolution de la porosité dans l'effet de durcissement de la matrice solide. D'une craie de forte porosité à un calcaire de porosité moyenne, le modèle proposé est finalement vérifié dans différentes conditions de charge par des comparaisons entre les prédictions numériques et les données expérimentales pour les essaies drainés et non drainés.
In this work, a series of experimental investigations have been performed on the basic mechanical behavior, permeability evolution and effects of pore pressure on plastic deformation and failure of Anstrude limestone. The obtained results allow to identifying two plastic deformation mechanisms, their effects on the permeability evolution, and the effects of pore pressure on plastic deformation and failure of water saturated limestone. Based on experimental data, the validity of effective stress concept for plastic yielding and failure strength is discussed. For modelling of mechanical behavior of porous rock, a micromechanics-based model is firstly developed on basis of a recent Gurson-type model for porous material with a Mises–Schleicher matrix. Considering that the high-porosity rock exhibits a volumetric compaction under low confining pressure, a non-associated model is then proposed. The proposed model is firstly applied and extended to describe the mechanical and poromechanical behaviors of Lixhe chalk. Numerical simulations show that the proposed model describes correctly the main features of the chalk. On considering the mechanical behavior of porous limestone, the model is then extended to describe the mechanical behavior of studied limestone by taking the effect of porosity evolution into account in the hardening effect of solid matrix. From a high porosity chalk to a medium porosity limestone, the proposed model is finally verified in different loading conditions through comparisons between the numerical predictions and experimental data for both drained and undrained tests.
18-01-2019
18-01-2019
Thèse
Thèse

From runtime failures to patches : study of patch generation in production
From runtime failures to patches : study of patch generation in production


Accéder à la ressource
Dans le cadre de la gestion du cycle de vie d’une application, la création de correctifs de bugs est une des tâches les plus importantes. Or celle-ci prend aussi le plus de temps, non seulement parce qu'il est difficile de créer un bon correctif, mais également parce qu'elle nécessite des interventions humaines. Un utilisateur doit en effet signaler le bug et le développeur doit le reproduire et le corriger, processus long et fastidieux. Il existe des techniques qui automatisent cette tâche mais elles exigent toujours l’intervention humaine à savoir qu'un développeur crée un test reproduisant le bug, exigence qui réduit considérablement leur applicabilité. Dans le cadre de cette thèse, nous proposons une nouvelle approche qui supprime cette exigence en créant de nouvelles techniques de génération de correctifs. Notre approche repose sur l'idée de rapprocher le plus possible la génération de correctifs de l'environnement de production. En effet c’est celui-ci qui contient toutes les données et toutes les interactions humaines qui mènent aux bugs. Au cours de cette thèse, nous présentons comment exploiter ces données pour détecter les bugs, comment générer les correctifs et comment les valider, le tout sans l'intervention d'un développeur. Nous évaluons notre approche sur sept jeux différents de correctifs réels provenant de projets open-sources en veillant, entre autres, à être particulièrement attentifs au nombre de correctifs générés, à leur validité ainsi qu’au temps requis pour leur génération. Ces évaluations démontrent l'applicabilité et la faisabilité de notre approche dans la génération de correctifs en production sans l'intervention d'un développeur.
Patch creation is one of the most important actions in the life cycle of an application. Creating patches is a really time-consuming task. Not only because it is difficult to create a good and valid patch, but also because it requires the intervention of humans. Indeed, a user must report the bug and a developer must reproduce it and fix it, which takes a lot of time. To address this problem, techniques that automate this task have been created but those techniques still require a developer to create a test that reproduces the bug. This requirement drastically reduces the applicability of the approach since it still relies on the human. This thesis proposes new patch generation techniques that remove the human intervention for the generation of patches. Our idea is to put as close as possible the generation of patches to the production environment. We adopt this approach because the production environment contains all the data and human interactions that lead to the bug. During this thesis, we present how to exploit this data to detect bugs, generate and validate patches without the intervention of developers. We evaluate this approach on seven different benchmarks of real bugs collected from open-source projects. During the evaluation, we are particularly attentive to the number of generated patches, the correctness and the readability of the generated patches and the time required for generating them. Our evaluation shows the applicability and feasibility of our approach to generate patches in the production environment without the intervention of a developer.
Dans le cadre de la gestion du cycle de vie d’une application, la création de correctifs de bugs est une des tâches les plus importantes. Or celle-ci prend aussi le plus de temps, non seulement parce qu'il est difficile de créer un bon correctif, mais également parce qu'elle nécessite des interventions humaines. Un utilisateur doit en effet signaler le bug et le développeur doit le reproduire et le corriger, processus long et fastidieux. Il existe des techniques qui automatisent cette tâche mais elles exigent toujours l’intervention humaine à savoir qu'un développeur crée un test reproduisant le bug, exigence qui réduit considérablement leur applicabilité. Dans le cadre de cette thèse, nous proposons une nouvelle approche qui supprime cette exigence en créant de nouvelles techniques de génération de correctifs. Notre approche repose sur l'idée de rapprocher le plus possible la génération de correctifs de l'environnement de production. En effet c’est celui-ci qui contient toutes les données et toutes les interactions humaines qui mènent aux bugs. Au cours de cette thèse, nous présentons comment exploiter ces données pour détecter les bugs, comment générer les correctifs et comment les valider, le tout sans l'intervention d'un développeur. Nous évaluons notre approche sur sept jeux différents de correctifs réels provenant de projets open-sources en veillant, entre autres, à être particulièrement attentifs au nombre de correctifs générés, à leur validité ainsi qu’au temps requis pour leur génération. Ces évaluations démontrent l'applicabilité et la faisabilité de notre approche dans la génération de correctifs en production sans l'intervention d'un développeur.
Patch creation is one of the most important actions in the life cycle of an application. Creating patches is a really time-consuming task. Not only because it is difficult to create a good and valid patch, but also because it requires the intervention of humans. Indeed, a user must report the bug and a developer must reproduce it and fix it, which takes a lot of time. To address this problem, techniques that automate this task have been created but those techniques still require a developer to create a test that reproduces the bug. This requirement drastically reduces the applicability of the approach since it still relies on the human. This thesis proposes new patch generation techniques that remove the human intervention for the generation of patches. Our idea is to put as close as possible the generation of patches to the production environment. We adopt this approach because the production environment contains all the data and human interactions that lead to the bug. During this thesis, we present how to exploit this data to detect bugs, generate and validate patches without the intervention of developers. We evaluate this approach on seven different benchmarks of real bugs collected from open-source projects. During the evaluation, we are particularly attentive to the number of generated patches, the correctness and the readability of the generated patches and the time required for generating them. Our evaluation shows the applicability and feasibility of our approach to generate patches in the production environment without the intervention of a developer.
17-01-2019
17-01-2019
Thèse
Thèse

Etude des propriétés de commutation de composés en série indolino-oxazolidine par spectroscopie RMN et calculs DFT
Etude des propriétés de commutation de composés en série indolino-oxazolidine par spectroscopie RMN et calculs DFT


Accéder à la ressource
Les composés moléculaires étudiés présentent une fonction indolino-oxazolidine (Box) et une jonction éthylénique (lié à un groupement thiényle – Box simples) qui sont toutes deux commutables chimiquement ou photochimiquement entre deux états. Le suivi des réactions associées a été réalisé en solution par spectroscopie RMN 1H afin de caractériser les différents états de commutation de ces composés. L’ouverture de la fonction Box peut être provoquée par ajout d’acide ou par irradiation dans l’UV (chloroforme), et ce processus est réversible en présence de base. Quel que soit l’état de la Box, l’isomérisation trans  cis de la jonction éthylénique est photochimique par irradiation à 436 nm alors que la réaction inverse est spontanée et thermique. Des composés comportant deux fonctions Box et deux jonctions éthyléniques liées à un groupement aromatique phényle ou bithiényle (BiBox) ont également été étudiés et des processus de commutation similaires ont été observés entre un nombre d’états supérieur du fait de la présence de quatre entités commutables. La commutation entre les différents états a donc été montrée et est déterminé le stimulus le plus adapté pour donner un été sélectivement et quasi quantitativement. Des calculs de chimie quantique de DFT et de TD-DFT ont permis de caractériser les structures moléculaire et électronique de chacun des états de commutation des Box simples ainsi que certains états des systèmes BiBox et de rationaliser certaines observations expérimentales. Des propriétés de fluorescence ont été observées et les spectres d’émission mesurés et les rendements quantiques de fluorescence calculés en fonction de l’état ouvert ou fermé de la (des) Box.
Molecular systems studied here present an indolino-oxazolidine (Box) moiety and an ethylenic junction (linked to a thienyl residue – Box simple) which are both chemically and photochemically switchable between two states. The switching reactions were followed in solution by 1H NMR spectroscopy in order to characterize the different metastable states. Opening of the Box moiety can be triggered upon acidification or by UV irradiation in chloroform and the reaction is reversible upon neutralization with base. Whatever the closed/open state of the Box moiety is, ethylenic junction trans  cis isomerization is photochemically driven by 436 nm irradiation, whereas the reverse reaction is thermally spontaneous. Compounds with two Box moieties and two ethylenic junction linked together by a phenyl or bithienyl aromatic bridge (BiBox) have also been studied and similar switching behavior have been observed between much more states due to the presence of four switchable functions. Thus, the commutation between different states has been shown and most suitable stimulus to convert selectively and almost quantitatively from one state to another have been evidenced. Based on DFT and TDDFT methods, quantum chemistry calculations allowed to characterize molecular and electronic structures of the four switching states for Box simple systems and of some of BiBox and to rationalize some experimental observations. Fluorescence properties being surprisingly observed and so, then emission spectra and corresponding fluorescence quantum yields have been determined. The fluorescence data depend on the open/closed state of the Box moieties, allowing additional properties to these compounds.
Les composés moléculaires étudiés présentent une fonction indolino-oxazolidine (Box) et une jonction éthylénique (lié à un groupement thiényle – Box simples) qui sont toutes deux commutables chimiquement ou photochimiquement entre deux états. Le suivi des réactions associées a été réalisé en solution par spectroscopie RMN 1H afin de caractériser les différents états de commutation de ces composés. L’ouverture de la fonction Box peut être provoquée par ajout d’acide ou par irradiation dans l’UV (chloroforme), et ce processus est réversible en présence de base. Quel que soit l’état de la Box, l’isomérisation trans  cis de la jonction éthylénique est photochimique par irradiation à 436 nm alors que la réaction inverse est spontanée et thermique. Des composés comportant deux fonctions Box et deux jonctions éthyléniques liées à un groupement aromatique phényle ou bithiényle (BiBox) ont également été étudiés et des processus de commutation similaires ont été observés entre un nombre d’états supérieur du fait de la présence de quatre entités commutables. La commutation entre les différents états a donc été montrée et est déterminé le stimulus le plus adapté pour donner un été sélectivement et quasi quantitativement. Des calculs de chimie quantique de DFT et de TD-DFT ont permis de caractériser les structures moléculaire et électronique de chacun des états de commutation des Box simples ainsi que certains états des systèmes BiBox et de rationaliser certaines observations expérimentales. Des propriétés de fluorescence ont été observées et les spectres d’émission mesurés et les rendements quantiques de fluorescence calculés en fonction de l’état ouvert ou fermé de la (des) Box.
Molecular systems studied here present an indolino-oxazolidine (Box) moiety and an ethylenic junction (linked to a thienyl residue – Box simple) which are both chemically and photochemically switchable between two states. The switching reactions were followed in solution by 1H NMR spectroscopy in order to characterize the different metastable states. Opening of the Box moiety can be triggered upon acidification or by UV irradiation in chloroform and the reaction is reversible upon neutralization with base. Whatever the closed/open state of the Box moiety is, ethylenic junction trans  cis isomerization is photochemically driven by 436 nm irradiation, whereas the reverse reaction is thermally spontaneous. Compounds with two Box moieties and two ethylenic junction linked together by a phenyl or bithienyl aromatic bridge (BiBox) have also been studied and similar switching behavior have been observed between much more states due to the presence of four switchable functions. Thus, the commutation between different states has been shown and most suitable stimulus to convert selectively and almost quantitatively from one state to another have been evidenced. Based on DFT and TDDFT methods, quantum chemistry calculations allowed to characterize molecular and electronic structures of the four switching states for Box simple systems and of some of BiBox and to rationalize some experimental observations. Fluorescence properties being surprisingly observed and so, then emission spectra and corresponding fluorescence quantum yields have been determined. The fluorescence data depend on the open/closed state of the Box moieties, allowing additional properties to these compounds.
17-01-2019
17-01-2019
Thèse
Thèse

Reacting and adapting to the environment : designing autonomous methods for multi-objective combinatorial optimisation
Reacting and adapting to the environment : designing autonomous methods for multi-objective combinatorial optimisation


Accéder à la ressource
Les problèmes d'optimisation à grande échelle sont généralement difficiles à résoudre de façon optimale. Des algorithmes d'approximation tels que les métaheuristiques, capables de trouver rapidement des solutions sous-optimales, sont souvent préférés. Cette thèse porte sur les algorithmes de recherche locale multi-objectif (MOLS), des métaheuristiques capables de traiter l'optimisation simultanée de plusieurs critères. Comme de nombreux algorithmes, les MOLS exposent de nombreux paramètres qui ont un impact important sur leurs performances. Ces paramètres peuvent être soit prédits et définis avant l'exécution de l'algorithme, soit ensuite modifiés dynamiquement. Alors que de nombreux progrès ont récemment été réalisés pour la conception automatique d'algorithmes, la grande majorité d'entre eux ne traitent que d'algorithmes mono-objectif et l'optimisation d'un unique indicateur de performance. Dans cette thèse, nous étudions les relations entre la conception automatique d'algorithmes et l'optimisation multi-objective. Nous passons d'abord en revue les stratégies MOLS possibles et présentons un framework MOLS général et hautement configurable. Nous proposons également MO-ParamILS, un configurateur automatique spécialement conçu pour gérer plusieurs indicateurs de performance. Nous menons ensuite plusieurs études sur la conception automatique de MOLS sur de multiples problèmes combinatoires bi-objectifs. Enfin, nous discutons deux extensions de la configuration d'algorithme classique : d'abord l'intégration des mécanismes de contrôle de paramètres, pour bénéficier de multiples prédictions de configuration; puis l'utilisation séquentielle de plusieurs configurations.
Large-scale optimisation problems are usually hard to solve optimally. Approximation algorithms such as metaheuristics, able to quickly find sub-optimal solutions, are often preferred. This thesis focuses on multi-objective local search (MOLS) algorithms, metaheuristics able to deal with the simultaneous optimisation of multiple criteria. As many algorithms, metaheuristics expose many parameters that significantly impact their performance. These parameters can be either predicted and set before the execution of the algorithm, or dynamically modified during the execution itself. While in the last decade many advances have been made on the automatic design of algorithms, the great majority of them only deal with single-objective algorithms and the optimisation of a single performance indicator such as the algorithm running time or the final solution quality. In this thesis, we investigate the relations between automatic algorithm design and multi-objective optimisation, with an application on MOLS algorithms. We first review possible MOLS strategies ans parameters and present a general, highly configurable, MOLS framework. We also propose MO-ParamILS, an automatic configurator specifically designed to deal with multiple performance indicators. Then, we conduct several studies on the automatic offline design of MOLS algorithms on multiple combinatorial bi-objective problems. Finally, we discuss two online extensions of classical algorithm configuration: first the integration of parameter control mechanisms, to benefit from having multiple configuration predictions; then the use of configuration schedules, to sequentially use multiple configurations.
Les problèmes d'optimisation à grande échelle sont généralement difficiles à résoudre de façon optimale. Des algorithmes d'approximation tels que les métaheuristiques, capables de trouver rapidement des solutions sous-optimales, sont souvent préférés. Cette thèse porte sur les algorithmes de recherche locale multi-objectif (MOLS), des métaheuristiques capables de traiter l'optimisation simultanée de plusieurs critères. Comme de nombreux algorithmes, les MOLS exposent de nombreux paramètres qui ont un impact important sur leurs performances. Ces paramètres peuvent être soit prédits et définis avant l'exécution de l'algorithme, soit ensuite modifiés dynamiquement. Alors que de nombreux progrès ont récemment été réalisés pour la conception automatique d'algorithmes, la grande majorité d'entre eux ne traitent que d'algorithmes mono-objectif et l'optimisation d'un unique indicateur de performance. Dans cette thèse, nous étudions les relations entre la conception automatique d'algorithmes et l'optimisation multi-objective. Nous passons d'abord en revue les stratégies MOLS possibles et présentons un framework MOLS général et hautement configurable. Nous proposons également MO-ParamILS, un configurateur automatique spécialement conçu pour gérer plusieurs indicateurs de performance. Nous menons ensuite plusieurs études sur la conception automatique de MOLS sur de multiples problèmes combinatoires bi-objectifs. Enfin, nous discutons deux extensions de la configuration d'algorithme classique : d'abord l'intégration des mécanismes de contrôle de paramètres, pour bénéficier de multiples prédictions de configuration; puis l'utilisation séquentielle de plusieurs configurations.
Large-scale optimisation problems are usually hard to solve optimally. Approximation algorithms such as metaheuristics, able to quickly find sub-optimal solutions, are often preferred. This thesis focuses on multi-objective local search (MOLS) algorithms, metaheuristics able to deal with the simultaneous optimisation of multiple criteria. As many algorithms, metaheuristics expose many parameters that significantly impact their performance. These parameters can be either predicted and set before the execution of the algorithm, or dynamically modified during the execution itself. While in the last decade many advances have been made on the automatic design of algorithms, the great majority of them only deal with single-objective algorithms and the optimisation of a single performance indicator such as the algorithm running time or the final solution quality. In this thesis, we investigate the relations between automatic algorithm design and multi-objective optimisation, with an application on MOLS algorithms. We first review possible MOLS strategies ans parameters and present a general, highly configurable, MOLS framework. We also propose MO-ParamILS, an automatic configurator specifically designed to deal with multiple performance indicators. Then, we conduct several studies on the automatic offline design of MOLS algorithms on multiple combinatorial bi-objective problems. Finally, we discuss two online extensions of classical algorithm configuration: first the integration of parameter control mechanisms, to benefit from having multiple configuration predictions; then the use of configuration schedules, to sequentially use multiple configurations.
16-01-2019
16-01-2019
Thèse
Thèse

Assistance au développement de logiciels embarqués contraints en énergie
Assistance au développement de logiciels embarqués contraints en énergie


Accéder à la ressource
La désignation sous le terme d'Internet des Objets regroupe un ensemble vaste de systèmes connectés différents. Un nombre significatif de ces objets ne disposent pas d'une alimentation continue et sont alimentés grâce à des batteries. Par ailleurs, il existe de nombreux cas d'utilisation où le rechargement de cette dernière se trouve être difficile voire impossible (e.g. objet enfoui dans le béton pour la surveillance de structures). De ce fait, l'aspect énergétique représente une contrainte primordiale à prendre en compte par les développeurs lors de la conception de l'application embarquée sur l'objet. La problématique de nos travaux consiste à placer l'énergie comme ressource de premier ordre lors du développement en fournissant une aide et une assistance aux développeurs face à la complexité de gestion de cette ressource. Nous proposons comme solution une méthodologie et des outils pour soutenir les activités du développeur embarqué dans un environnement contraint en énergie. En outre, nous affirmons que la capacité de mesurer et de suivre finement la consommation énergétique des objets connectés, puis de la corréler au logiciel sous-jacent permet d'améliorer l'efficacité énergétique globale en mettant en œuvre des bonnes pratiques liées à l'utilisation des différents composants matériels. Pour arriver à cela, nous basons nos travaux sur une méthode de mesure énergétique matérielle capable de fournir des chiffres de consommation précis. Nous construisons ainsi un framework de profilage et de cartographie énergétique d'un logiciel embarqué permettant d'aider le développeur dans la compréhension du comportement énergétique de son application.
The designation under the term Internet of Things brings together a vast array of different connected systems. A significant number of these objects do not have a continuous power supply and are therefore supplied with batteries. In addition, we can list multiple use cases where the recharging of the battery is difficult or impossible (e.g. a buried object for structures monitoring). As a result, the energetic aspect represents a primary constraint to be taken into account by the developers when designing the embedded application on the object. The work issue consists in placing energy as a hard resource during the development phase by providing assistance and help to the developers in the management of this complex resource. We propose as a solution a methodology and tools to support the activities of the embedded developer in a constrained energy environment. We assert that the ability to accurately measure and track the energy consumption of a connected object and then correlate it to the underlying software can improve overall energy efficiency by implementing best practices related to use of the different hardware components. To achieve this goal, we base our work on a hardware energy measurement method able of providing accurate consumption figures. We than build an energy profiling and cartography framework of embedded software to help the developer understand the energy behavior of his application.
La désignation sous le terme d'Internet des Objets regroupe un ensemble vaste de systèmes connectés différents. Un nombre significatif de ces objets ne disposent pas d'une alimentation continue et sont alimentés grâce à des batteries. Par ailleurs, il existe de nombreux cas d'utilisation où le rechargement de cette dernière se trouve être difficile voire impossible (e.g. objet enfoui dans le béton pour la surveillance de structures). De ce fait, l'aspect énergétique représente une contrainte primordiale à prendre en compte par les développeurs lors de la conception de l'application embarquée sur l'objet. La problématique de nos travaux consiste à placer l'énergie comme ressource de premier ordre lors du développement en fournissant une aide et une assistance aux développeurs face à la complexité de gestion de cette ressource. Nous proposons comme solution une méthodologie et des outils pour soutenir les activités du développeur embarqué dans un environnement contraint en énergie. En outre, nous affirmons que la capacité de mesurer et de suivre finement la consommation énergétique des objets connectés, puis de la corréler au logiciel sous-jacent permet d'améliorer l'efficacité énergétique globale en mettant en œuvre des bonnes pratiques liées à l'utilisation des différents composants matériels. Pour arriver à cela, nous basons nos travaux sur une méthode de mesure énergétique matérielle capable de fournir des chiffres de consommation précis. Nous construisons ainsi un framework de profilage et de cartographie énergétique d'un logiciel embarqué permettant d'aider le développeur dans la compréhension du comportement énergétique de son application.
The designation under the term Internet of Things brings together a vast array of different connected systems. A significant number of these objects do not have a continuous power supply and are therefore supplied with batteries. In addition, we can list multiple use cases where the recharging of the battery is difficult or impossible (e.g. a buried object for structures monitoring). As a result, the energetic aspect represents a primary constraint to be taken into account by the developers when designing the embedded application on the object. The work issue consists in placing energy as a hard resource during the development phase by providing assistance and help to the developers in the management of this complex resource. We propose as a solution a methodology and tools to support the activities of the embedded developer in a constrained energy environment. We assert that the ability to accurately measure and track the energy consumption of a connected object and then correlate it to the underlying software can improve overall energy efficiency by implementing best practices related to use of the different hardware components. To achieve this goal, we base our work on a hardware energy measurement method able of providing accurate consumption figures. We than build an energy profiling and cartography framework of embedded software to help the developer understand the energy behavior of his application.
16-01-2019
16-01-2019
Thèse
Thèse
Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10