• 122 ressources ont été trouvées. Voici les résultats 51 à 60
Tri :   Date Editeur Auteur Titre

Estimation non-invasive de la durée de vie des infrastructures civiles soumises à des contraintes non-contrôlées

/ El Hajj Chehade Fatima / Université Lille1 - Sciences et Technologies, Université libanaise / 25-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
Les infrastructures civiles sont généralement soumises à des facteurs externes pouvant agir sur leur durée de vie. Pour les ponts en béton armé, l’environnement agressif induit une pénétration des ions, comme les chlorures, dans le béton poreux entrainant la corrosion des armatures, qui est une cause principale de détérioration pour ce type de structures. Les effets du temps sont aussi à prendre en considération, ceux-ci se manifestent par le fluage et le retrait du béton, suite auxquels la performance de ces ouvrages est fortement influencée. Cependant dans ce type de problème, le caractère probabiliste est souvent dominant. Cela ne se limite pas au trafic routier qui génère des contraintes non-contrôlées dans les sections portantes mais concerne aussi beaucoup de variables impliquées dans le calcul. La théorie de fiabilité a toujours constitué le moyen le plus efficace pour traiter ce type de problèmes, vu qu’elle puisse fournir une idée sur la durée de vie sous forme d’une probabilité de défaillance ou d’un indice de fiabilité. Ce travail comporte quatre axes principaux. Une famille de 21 ponts en béton armé servira pour l’application. Concernant le chargement du trafic, il est simulé en se basant sur des données de pesage en marche provenant d’autoroutes en Europe. La théorie de fiabilité est ensuite utilisée pour le calcul des indices de fiabilité avec le temps. Les effets de corrosion, du fluage et du retrait en plus du chargement réaliste de trafic sont introduits dans le calcul. Enfin, une approche basée sur l’optimisation génétique est proposée afin d’actualiser les lois d’évolution de la rigidité en se basant sur des données simulées de la déflexion à long terme.

Novel learning and exploration-exploitation methods for effective recommender systems

/ Warlop Romain / Université Lille1 - Sciences et Technologies / 19-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
Cette thèse, réalisée en entreprise en tant que thèse CIFRE dans l'entreprise fifty-five, étudie les algorithmes des systèmes de recommandation. Nous avons proposé trois nouveaux algorithmes améliorant l'état de l'art que ce soit en termes de performance ou de prise en compte des contraintes industrielles. Pour cela nous avons proposé un premier algorithme basé sur la factorisation de tenseur, généralisation de la factorisation de matrice couramment appliquée en filtrage collaboratif. Nous avons ensuite proposé un algorithme permettant d'améliorer l'état de l'art des solutions de complétion de paniers. L'objectif des algorithmes de complétion de paniers est de proposer à l'utilisateur un nouveau produit à ajouter au panier qu'il/elle est en train d'acheter permettant ainsi d'augmenter la valeur d'un utilisateur. Pour cela nous nous sommes appuyés sur les processus ponctuels déterminantal. Nous avons généralisé l'approche de la complétion de paniers par DPP en utilisant une approche tensorielle. Enfin nous avons proposé un algorithme d'apprentissage par renforcement permettant d'alterner entre différents algorithmes de recommandation. En effet, utiliser toujours le même algorithme peut avoir tendance à ennuyer l'utilisateur pendant un certain temps, ou à l'inverse lui donner de plus en plus confiance en l'algorithme. Ainsi la performance d'un algorithme donné n'est pas stationnaire et dépend de quand et à quelle fréquence celui-ci a été utilisé. Notre algorithme d'apprentissage par renforcement apprend en temps réel à alterner entre divers algorithmes de recommandations dans le but de maximiser les performances sur le long terme.

Mesure de la température de transistors de type HEMT AlGaN/GaN en régime de fonctionnement hyperfréquence

/ Cozette Flavien / Université Lille1 - Sciences et Technologies, Université de Sherbrooke (Québec, Canada) / 19-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
Le développement de composants de puissance pour les applications hyperfréquence représente un formidable défi qui doit conduire à l’amélioration des systèmes radars, spatiales ou de télécommunications existants. Les transistors de type HEMT AlGaN/GaN ont démontré leurs potentialités pour répondre à cet enjeu. Cependant, l’augmentation des performances des systèmes s’accompagne d’une miniaturisation de plus en plus poussée des transistors entrainant une augmentation de leur température de fonctionnement. Dans ce contexte, la gestion thermique des composants est très importante. Une température de fonctionnement élevée a en effet pour conséquence de dégrader les performances et la fiabilité des composants. Plusieurs voies, comme la fabrication de composants sur substrat diamant ou encore l’intégration de micro-canaux au plus près des transistors, sont en développement pour améliorer la dissipation thermique des transistors de la filière GaN. Ainsi, il a été mis en évidence que la gestion thermique des transistors est un enjeu majeur pour obtenir des systèmes performants et fiable. Afin d’optimiser la gestion thermique des composants, il est important de déterminer avec précision la température de fonctionnement des composants en temps réel. Ce travail de thèse a pour objectif le développement d’une méthode permettant de mesurer en temps réel la température de fonctionnement de transistors de type AlGaN/GaN en régime hyperfréquence. Cette mesure permettrait d’étudier la fiabilité des composants, de contrôler leur température en fonctionnement et d’assurer une maintenance préventive et non curative de systèmes. Plusieurs méthodes de la littérature permettent d’extraire la température de fonctionnement de composants. Cependant, ces méthodes ne sont pas adaptées pour mesurer la température en temps réel de composants packagés. La solution proposée ici consiste à intégrer un capteur de température résistif directement au niveau de la zone active des transistors. Un design permettant l’intégration des capteurs dans des composants compatibles pour des applications de puissance hyperfréquence au-delàs de 10 GHZ a été développé. Une partie conséquente du travail de thèse a consisté à fabriquer les dispositifs (transistors et capteurs intégrés) en central technologique. Des caractérisations thermiques des transistors fabriqués ont ensuite été menées en régime statique et hyperfréquence.

Collecte et remontée multi-sauts de données issues de lecteurs RFID pour la surveillance d'infrastructures urbaines

/ Mbacke Abdoul Aziz / Université Lille1 - Sciences et Technologies / 18-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
La forte urbanisation dont le monde est témoin exige une meilleure gestion des villes. Cette gestion améliorée passe par la surveillance et la maintenance des équipements et infrastructures urbaines afin d'assurer plus de sécurité et bien-être aux habitants. Un rôle clé a donc été confié aux TIC à travers les concepts de l'IoT et des Villes Intelligentes. Cette thèse se positionne dans ce contexte et propose l'Identification par Radio Fréquence (RFID) en complément des techniques déjà utilisées. L'adoption de la RFID à grande échelle pour les centres urbains nécessite cependant de résoudre deux principaux problèmes : les collisions de lecture et la collecte et remontée des données. A travers les travaux menés dans cette thèse, nous avons d'abord cherché à identifier les solutions déjà proposées dans la littérature pour réduire les collisions. Sur la base de cette étude, nous avons proposé deux algorithmes distribués d'anticollision de lecture DEFAR et CORA. Ils permettent d'assurer un débit de lecture important en maintenant un taux de collisions et une latence de couverture faible comparés aux solutions de la littérature. Par la suite, nous avons proposé DACAR, un algorithme distribué de collecte des données issues des lecteurs RFID de manière multi-sauts. Il s'adapte en fonction du protocole d'anticollision utilisé et de la position des lecteurs déployés pour fournir un ratio de délivrance des paquets fiable et un faible délai de bout-en-bout. Une version améliorée est ultérieurement proposée pour la priorisation des données et offrir des chemins différents plus appropriés à l'aide d'une combinaison de différents paramètres grâce à la logique floue.

Elaboration de revêtements organosilicés assistée par plasma froid pour la protection de l’acier au carbone contre la corrosion

/ Esbayou Maryem / Université Lille1 - Sciences et Technologies, Université Chouaïb Doukkali (El Jadida, Maroc) / 18-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
Cette thèse a été réalisée dans le cadre du programme de Partenariat Hubert Curien (PHC Toubkal). L’objectif du projet consiste à élaborer des revêtements organosilicés par plasma froid d’azote pour la protection d’un acier contre la corrosion en milieu NaCl 3%. Dans ce contexte, un procédé permettant d’obtenir, à partir du 1,1,3,3-tétraméthyldisiloxane (TMDSO), un revêtement amorphe assisté par plasma froid micro-onde basse pression (PECVD) a été développé. Ce procédé permet le dépôt de films minces sans l’utilisation de solvant. Dans un premier temps, la mise en œuvre d’un plan d’expérience a permis l’optimisation de plusieurs paramètres expérimentaux tels que, le temps de dépôt, le débit d’azote, le débit d’oxygène, le débit du monomère (TMDSO) et la puissance du générateur micro-onde. La microstructure, l’adhérence, l’épaisseur, la mouillabilité ainsi que les propriétés anticorrosion des revêtements organosilicés ont été caractérisées en utilisant différentes techniques telles que FTIR, RMN solide, MEB, OCP, SIE,.... Ensuite l’effet du prétraitement de la surface de l’acier sur les performances anticorrosion des couches déposées a été étudié en utilisant la phosphatation amorphe, un plasma d’argon (Ar) ou un plasma d’azote (N2). Les résultats montrent une amélioration significative de la protection anticorrosion de l’acier lorsqu’un prétraitement par plasma d’azote (N2) est utilisé. Les caractérisations par EIS montrent que les propriétés anticorrosion des revêtements sont stables en fonction du temps. En effet, le module d’impédance à basse fréquence (0,01 Hz) reste largement supérieur en comparaison avec celui du substrat non revêtu même après plusieurs jours d’immersion dans NaCl 3%.

A Cross-efficiency approach to portfolio selection

/ Ganouati Janet / Université Lille1 - Sciences et Technologies, Université de Tunis / 17-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
Le processus de sélection de portefeuille peut être effectué en deux étapes: la première consiste à évaluer les actifs financiers et la deuxième à déterminer la combinaison d’actifs qui permettrai d‘allouer de façon optimale la richesse. La combinaison des actifs financiers retenue à la fin de ce processus se doit de répondre simultanément et de façon optimale aux différents objectifs de l‘investisseur. Le problème de sélection de portefeuille peut être considéré comme un processus de décision multicritère. Dans cette thèse, plusieurs critères ont été analysés et on a tenté de répondre à la question de combien et où investir ? On a proposé une nouvelle approche multicritère basée sur la méthode d‘enveloppement des données (DEA) et l‘approche de l‘efficacité croisée pour sélectionner un portefeuille d’actifs financier. La première méthodologie proposée consiste à incorporer la méthode d’efficacité croisée dans un espace Moyenne-Variance-Skewness-Kurtosis (MVSK). Le deuxième modèle combine la mesure de l'efficacité croisée par l'enveloppement de données vue comme solution d'un jeu avec la composante risque pour choisir un portefeuille. Finalement, on a proposé d’incorporer la mesure de l'efficacité croisée par l'enveloppement de données vue comme solution d'un jeu dans un modèle d’arbitrage entre profitabilité et efficacité afin de sélectionner un portefeuille. Globalement, ces méthodes ont permis la discrimination entre les actifs financiers et de leur donner un classement unique dans un premier temps, ensuite de sélectionner un portefeuille en prenant en considération les préférences du décideur.

Obtention théorique et expérimentale des lois de diffusion thermique de l’eau légère

/ Jaiswal Vaibhav / Université Lille1 - Sciences et Technologies / 15-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
Une bonne connaissance des sections efficaces de l'eau légère est importante, car l'eau est le modérateur le plus employé dans les réacteurs à eau pressurisée (REP), qui fonctionnent à des températures et des pressions avoisinant 550 K et 150 bar. Les sections efficaces neutroniques dans le domaine d'énergie thermique dépendent de la structure et de la dynamique du matériau diffusant, décrites par des lois de diffusion thermiques (TSL). Les évaluations des TSL existantes n’ont pas été validées aux hautes températures et pressions, et doivent être revues. Pour produire de nouvelles TSL, des mesures de la diffusion inélastique des neutrons sur l'eau ont été effectuées à l'Institut Laue-Langevin (ILL), à l'aide de deux spectromètres IN4c et IN6. Afin de compléter ces mesures, des simulations de dynamique moléculaire (MD) ont été réalisées en s'appuyant sur deux modèles classiques d'interaction moléculaire, le modèle non polarisable TIP4P/2005f et le modèle polarisable TCPE. Les spectres de fréquence à différentes pressions et températures obtenus grâce aux mesures de temps de vol et aux simulations MD ont été exploités pour développer de nouvelles TSL. Les performances de ces nouvelles bibliothèques ont été testées sur une série de mesures de sections efficaces différentielles, double-différentielles et totales disponibles dans la littérature. Des benchmarks critiques (ICSBEP benchmarks) ont également été utilisés. Les résultats de ces études permettent une meilleure compréhension de l'impact de la température et de la pression sur les TSL dans les applications liées à l'exploitation des REP.

Conséquences d’une perturbation de l’expérience sensorimotrice sur la plasticité synaptique du cortex cérébral : implication de deux modifications post-traductionnelles, la phosphorylation et la O-GlcNAcylation

/ Fourneau Julie / Université Lille1 - Sciences et Technologies / 15-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
La sédentarité ou un alitement prolongé sont des situations ayant en commun une perturbation sensorimotrice (PSM), conduisant à une dégradation de la posture et la locomotion, dont l’origine est à la fois musculaire et nerveuse. Des études réalisées sur un modèle animal de PSM ont notamment montré des modifications biochimiques et morphologiques au niveau du cortex sensorimoteur. Cependant, les mécanismes sous-jacents ne sont tous pas élucidés. La O-GlcNAcylation, une glycosylation atypique, est une bonne candidate pour participer à cette neuroplasticité. Par interaction avec la phosphorylation, ces modifications post-traductionnelles sont impliquées dans des processus essentiels tels que l'activité synaptique ou la morphogenèse neuronale. L’objectif principal de cette thèse a été d’étudier les mécanismes moléculaires de la plasticité synaptique du cortex sensorimoteur et d’examiner l’implication potentielle de la O-GlcNAcylation au cours d’une période de PSM. Des changements d’activation et d’expression de protéines synaptiques ont été mis en évidence, montrant une diminution de la libération des neurotransmetteurs et une réduction de l’efficacité synaptique. La O-GlcNAcylation et la phosphorylation interviennent dans ces modifications en régulant finement l’activité de protéines spécifiques. La modulation des taux corticaux de O-GlcNAcylation permet de prévenir la réorganisation du cortex somesthésique, et prévient partiellement certaines altérations des performances sensorimotrices induite par une PSM. En conclusion, ces travaux montrent que la O-GlcNAcylation, en interaction avec la phosphorylation, participe activement à la plasticité synaptique induite par une PSM.

Ubiquitous networks for Smart Grids

/ Nassar Jad / Université Lille1 - Sciences et Technologies / 12-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
Les Smart Grids visent à transformer le réseau électrique actuel en un réseau "plus intelligent" où la production énergétique est décentralisée et automatisée, facilitant l'intégration des sources d'énergie renouvelables. Cette évolution est rendue possible grâce à l'utilisation d'un réseau de communication pour les multiples échanges de données hétérogènes des Smart Grids. L'objectif de cette thèse est de proposer un paradigme de communication efficace en termes de qualité de service pour les Smart Grids basé sur les réseaux de capteurs. Dans un premier temps, on s’intéresse au protocole standard RPL. Nous proposons une évolution de celui-ci à travers une nouvelle fonction objectif. Celle-ci tire parti de l’hétérogénéité matérielle des nœuds et des liens pour introduire la qualité de service. Cela permet à RPL de satisfaire les multiples et différentes exigences en termes de fiabilité, de latence et de priorité dans l'acheminement des données. Nos résultats montrent que notre approche permet bien la différentiation du trafic tout en réduisant la latence du routage et en économisant l'énergie. Nous proposons également d'améliorer l'utilisation du réseau de capteurs en y introduisant l’auto-organisation et la réduction des données. Le but est alors de prédire la valeur des données mesurées plutôt que de les transmettre. Une autre approche explorée est d'agréger les différents messages transitant sur le réseau tout en considérant leurs différentes exigences de qualité de service. Ces deux approches permettent ainsi de réduire la consommation d'énergie tout en respectant les exigences des différentes applications des Smart Grids.

Combinaison robuste à la dépendance entre classifieurs dans un contexte d’apprentissage décentralisé

/ Albardan Mahmoud / Université Lille1 - Sciences et Technologies / 11-10-2018
Voir le résumé | Accéder à la ressource
Voir le résumé
L’apprentissage automatique est un domaine en forte croissance à la fois dans le nombre de méthodes employées mais aussi dans le nombre de base de données mises à disposition des utilisateurs. La classification, qui est une tâche qui peut être abordée par l’apprentissage artificiel, est ainsi affectée par ce changement. La présence d’un grand nombre d’algorithmes de classification incite alors à créer des systèmes globaux −basés sur des comités de classifieurs− dont le but est de donner des solutions plus efficaces pour les problèmes de classification complexes. Pour cette raison, on traite dans cette thèse la problématique des systèmes multi-classifieurs ou bien les comités de classifieurs dans un sens général. Le but de mes travaux de recherche est alors la conception de systèmes multi-classifieurs assurant une amélioration des performances de classification ainsi qu’un certain niveau de robustesse. Cependant, une conception de tels systèmes de classifieurs, qu'on peut voir comme des sources d'informations différentes et qui seront entraînés sur des exemples d’apprentissage corrélés, engendre une dépendance dans les différentes décisions individuelles produites par ces classifieurs et par conséquent on rajoute le but de construire des systèmes multi-classifieurs qui s'adaptent à la dépendance à l’intérieur du comité. Ainsi, nous proposons deux solutions qui seront les principales contributions de cette thèse. La première est une approche possibiliste basée sur une règle de combinaison bien connue en logique floue, la t-norme tandis que la deuxième est une approche probabiliste basée sur les copules qui sont des modèles de dépendance entre variables aléatoires.

Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10