• 9 ressources ont été trouvées. Voici les résultats 1 à 9
Tri :   Date Editeur Auteur Titre

Automated on-line early fault diagnosis of wind turbines based on hybrid dynamic classifier

/ Toubakh Houari / Université Lille1 - Sciences et Technologies / 27-11-2015
Voir le résumé | Accéder à la ressource
Voir le résumé
L'objectif principal de cette thèse est de développer un schéma générique et adaptatif basée sur les approches d'apprentissage automatique, intégrant des mécanismes de détection et d'isolation des défauts avec une force d’apparition progressive. Le but de ce schéma est de réaliser le diagnostic en ligne des défauts simple et multiple de type dérive dans les systèmes éoliens, et plus particulièrement dans le système du calage des pales et le convertisseur de puissance. Le schéma proposé est basé sur la décomposition du système éolien en plusieurs composantes. Ensuite, un classifieur est conçu et utilisé pour réaliser le diagnostic de défauts dans chaque composant. Le but de cette décomposition en composants est de faciliter l'isolation des défauts et d'augmenter la robustesse du schéma globale de diagnostic dans le sens que lorsque le classifier lié à un composant est défaillant, les classifieurs liées aux autres composants continuent à réaliser le diagnostic des défauts dans leurs composants. Ce schéma a aussi l'avantage de prendre en compte la dynamique hybride de l’éolienne.

Virtualization support for application runtime specialization and extension

/ Polito Guillermo / Université Lille1 - Sciences et Technologies / 13-04-2015
Voir le résumé | Accéder à la ressource
Voir le résumé
Un environnement d'exécution est l'ensemble des éléments logiciels qui représentent une application pendant son exécution. Les environnements d'exécution doivent être adaptables à differents contextes. Les progrès des technologies de l'information, tant au niveau logiciel qu'au niveau matériel, rendent ces adaptations nécessaires. Par exemple, nous pouvons envisager d'étendre un langage de programmation pour améliorer la productivité des développeurs. Aussi, nous pouvons envisager de réduire la consommation mémoire des applications de manière transparente afin de les adapter à certaines contraintes d'exécution e.g., des réseaux lents ou de la mémoire limités. Nous proposons Espell, une infrastructure pour la virtualisation d'environnement d'execution de langages orienté-objets haut-niveau. Espell fournit une infrastructure généraliste pour le contrôle et la manipulation d'environnements d'exécution pour différentes situations. Une représentation de "premier-ordre" de l'environnement d'exécution orienté-objet, que nous appelons "object space", fournit une interface haut-niveau qui permet la manipulation de ces environnements et clarifie le contrat entre le langage et la machine virtuelle. Un hyperviseur est client d'un object space et le manipule soit directement au travers d'objets "miroirs", soit en y exécutant des expressions arbitraires. Nous avons implémenté un prototype de Espell sur Pharo. Nous montrons au travers de notre prototype que cet infrastructure supporte le "bootstrapping" (i.e., l'amorçage ou initialisation circulaire) des langages et le "tailoring"~(i.e., la construction sur-mesure ou "taille") d'environnement d'exécution. En utilisant l'amorçage nous initialisons un langage orienté-objet haut-niveau qui est auto-décrit. Un langage amorcé profite de ses propres abstractions se montrant donc plus simple à étendre. Nous avons amorcé quatre langages qui présentent des modèles de programmation différents e.g., avec des "traits", avec des variables d'instance de 'premier-ordre' ou avec une couche réflexive basé sur le concept de "miroirs". La taille d'environnements d'exécution est une technique qui génère une application spécialisé en extrayant seulement le code utilisé pendant l'exécution d'un programme. Une application taillée inclut seulement les classes et méthodes qu'elle nécessite, et évite que des librairies et des frameworks externes surchargent inutilement la base de code. Notre technique de taille basé sur Espell, que nous appelons "run-fail-grow" (i.e., exécuter-échouer-grandir), créé des versions spécialisées des applications, en sauvant entre un 95% et 99% de la mémoire en comparaison avec la distribution officielle de Pharo.

Centralized and decentralized fault diagnosis of a class of hybrid dynamic systems : application to three cell converter

/ Louajri Hanane / Université Lille1 - Sciences et Technologies / 05-02-2015
Voir le résumé | Accéder à la ressource
Voir le résumé
Les travaux de ma thèse ont pour but la définition d’une démarche modulaire permettant le diagnostic des défauts liés conjointement aux dynamiques continue et discrète des systèmes dynamiques hybrides, en particulier les Systèmes Continus à Commande Discrète. L’objectif est de construire un modèle de diagnostic appelé, diagnostiqueur, permettant de diagnostiquer à la fois les défauts paramétriques et discrets des systèmes dynamiques hybrides de grande taille. Les défauts paramétriques sont caractérisés par un changement anormal de certains paramètres tandis que les défauts discrets sont caractérisés par un changement inattendu du mode discret du système. Cette démarche est basée sur une modélisation modulaire orientée composant permettant de tenir compte de la nature composite du système. Elle tient compte également des interactions entre les dynamiques discrètes et continue. Cette démarche est développée à travers deux approches. Une approche de diagnostique modulaire dont le diagnostiqueur est construite à partir du modèle global de système, et une approche de diagnostique décentralisé dont d’un ensemble des diagnostiqueurs locaux sont construits à partir des modèles locaux des composants système. Ces deux approches sont validées en utilisant un convertisseur à trois cellules.

Online classification and clustering of persons using appearance-based features from video images : application to person discovery and re-identification in multicamera environments

/ Lu Yanyun / Université Lille1 - Sciences et Technologies / 26-09-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
De nos jours, la vidéo-surveillance est une thématique pour laquelle se pose le problème du traitement de données de masse pour la reconnaissance et le suivi de personnes. L’objectif est de créer un système de reconnaissance automatique de personnes basée sur l’apparence en environnement réel. Deux différentes tâches sont visées : ré-identification et découverte de nouvelles personnes. Le système proposé se divise en quatre modules : acquisition des données, extraction du fond et de la silhouette, extraction et sélection des attributs basées sur l’apparence et reconnaissance. Pour l’évaluation du système, en sus d’une base de données publique (CASIA), une nouvelle base de données a été créée avec de très faibles contraintes sur le scénario. Des attributs couleurs normalisés et les attributs de textures d’Haralick sont extraits, puis des algorithmes de sélection d’attributs sont comparés. Ces sous-ensembles d’attributs optimaux sont utilisés tout d’abord pour la ré-identification de personnes à l’aide de SVM incrémental et décrémental (MID-SVM), ayant l’avantage de ne nécessiter que peu de données pour la création du modèle. Une seconde utilisation de ces données se fait pour ajouter la découverte de nouvelles personnes inconnues jusqu’alors, en utilisant un algorithme de regroupement (Self-Adaptive Kernel Machine – SAKM) capable de différentier des personnes existantes qui peuvent être classifiées de nouvelles personnes pour lesquelles un modèle est créé. Le système proposé est capable de ré-identifier des personnes avec un taux de succès supérieur à 95% et atteint des performances satisfaisantes pour la découverte de nouvelles personnes avec un taux de plus de 90%.

Drift detection and characterization for supervision, diagnosis and prognosis of dynamical systems

/ Chammas Antoine / Université Lille1 - Sciences et Technologies / 18-04-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Le travail présenté dans cette thèse traite l'intégration de diagnostic et de pronostic pour l'optimisation et l’aide à la décision d’actions de maintenance de systèmes complexes. Les défauts considérés dans ce travail sont les dérives. Une architecture générique pour la surveillance, le diagnostic et le pronostic basée sur le traitement des dérives est développée. La surveillance et le diagnostic permettent de déterminer le composant en défaillance et le mode opérationnel de défaut qui initie la dérive. Ensuite, le pronostic permet d’anticiper les défaillances du système en fournissant des informations sur les futurs États des composants. En se basant sur le retour du pronostic, des actions de maintenance préventive peuvent être alors considérées. Les méthodes employées sont basées sur les données. Ceci est d’autant plus intéressant parce que l’hypothèse de connaissance de modèle physique n’y est pas toujours vérifiée. A partir des données mesurées est construit (ou sont construits) un (des) espace(s) de représentation et de décision dans lequel sont matérialisées ou modélisées les classes de fonctionnement. L’environnement dynamique dans lequel se trouve le système peut (va) provoquer des dérives de fonctionnement qui auront comme conséquence un changement dans la structure des classes. Les techniques proposées sont sensibles à ces dérives et permettent de calculer des indicateurs de détection et de caractérisation de la dérive. La détection de dérive vise à détecter, dès que possible, l'apparition d'une dérive. La caractérisation de dérive a pour but de trouver le mode de défaillance entraînant la dérive et de calculer un indicateur de dégradation qui reflète l'état de santé. Le pronostic est fait en modélisant l'évolution de l'indicateur de dégradation du système et permet l’estimation d’RUL (durée de vie utile) ainsi qu'un intervalle de confiance qui lui est associé. Tous ces aspects sont combinés ensemble pour former l'architecture générique pour la surveillance, de diagnostic et de pronostic.

Remote debugging and reflection in resource constrained devices

/ Papoulias Nikolaos / Université Lille1 - Sciences et Technologies / 19-12-2013
Voir le résumé | Accéder à la ressource
Voir le résumé
La construction de logiciels pour des appareils qui ne peuvent pas accueillir localement des outils de développement peut être difficile. Ces appareils ont soit une puissance de calcul trop limitée pour exécuter un IDE, ou manque des interfaces d’entrée / sortie appropriées pour la programmation ou sont tout simplement inaccessibles pour des développements locaux. Dans ces situations, les développeurs ont besoin d’une infrastructure appropriée pour développer et déboguer des applications distantes. Dans cette thèse nous identifions d’abord quatre propriétés désirables qu’une solution idéale pour le débogage à distance doit présenter : l’ interactivité, l’instrumentation, la distribution et la sécurité. Compte tenu de ces propriétés, nous proposons Mercury, un modèle de débogage à distance et une architecture pour des langues réfléxifs à objets. Mercury ouvre (1) l’interactivité grâce à un méta-niveau à distance miroir basé sur un lien de causalité avec sa cible, (2) l’instrumentation à travers une intercession réflective basée sur la réification de l’environnement d’exécution sous-jacent, (3) la distribution grâce à un middleware adaptable et (4) la sécurité par la décomposition et l’authentification de l’accès aux aspects réflexifs. Nous validons notre proposition à travers un prototype dans le langage de programmation Pharo à l’aide d’un cadre expérimental diversifié de multiples dispositifs contraints. Nous illustrons des techniques de débogage à distance soutenus par les propriétés de Mercury, tels que distance agile débogage et instrumentation objet à distance et montrons comment ils peuvent résoudre dans la pratique, les problèmes que nous avons identifiés.

Vers une agentification de comportements observés : une approche originale basée sur l’apprentissage automatique pour la simulation d’un environnement réel

/ Saffar Imen / Université Lille1 - Sciences et Technologies / 19-06-2013
Voir le résumé | Accéder à la ressource
Voir le résumé
La conception d'outils de simulation capables de reproduire la dynamique et l'évolution de phénomènes complexes réels est une tâche difficile. La modélisation de ces phénomènes par des approches analytiques est souvent impossible, obligeant le concepteur à s'orienter vers des approches comportementales. Dans ce contexte, les simulations multi-agents représentent aujourd'hui une alternative crédible aux simulations classiques. Elles restent cependant délicates à mettre en œuvre. En effet, le concepteur de la simulation doit être capable de transcrire en comportement d'agents la dynamique du phénomène qu'il observe. Cette étape requiert généralement les compétences d'un spécialiste possédant une certaine expertise du phénomène à simuler. Dans cette thèse, nous proposons une manière originale de traiter l'observation de comportements réels à simuler, sans avoir recours à l'aide d'un expert. Il s'agit de s'appuyer sur des techniques d'apprentissage non supervisé pour identifier et extraire des comportements et ainsi faciliter l'agentification de la simulation. Notre approche constitue, de ce fait, un pas vers la conception automatique de simulations multi-agents reproduisant des phénomènes observables. Cette approche est motivée par un cadre applicatif visant la simulation de comportements de clients à l'intérieur d'un espace de vente.

Application-level virtual memory for object-oriented systems

/ Martinez Peck Mariano / Université Lille1 - Sciences et Technologies / 29-10-2012
Voir le résumé | Accéder à la ressource
Voir le résumé
Lors de l'exécution des applications à base d'objets, plusieurs millions d'objets peuvent être créés, utilisés et enfin détruits s'ils ne sont plus référencés. Néanmoins, des dysfonctionnements peuvent apparaitre, quand des objets qui ne sont plus utilisés ne peuvent être détruits car ils sont référencés. De tels objets gaspillent la mémoire principale et les applications utilisent donc d'avantage de mémoire que ce qui est effectivement requis. Nous affirmons que l'utilisation du gestionnaire de mémoire virtuel du système d'exploitation ne convient pas toujours, car ce dernier est totalement isolé des applications. Le système d'exploitation ne peut pas prendre en compte ni le domaine ni la structure des applications. De plus, les applications n'ont aucun moyen de contrôler ou influencer la gestion de la mémoire virtuelle. Dans cette thèse, nous présentons Marea, un gestionnaire de mémoire virtuelle piloté par les applications à base d'objets. Il constitue une solution originale qui permet au développeurs de gérer la mémoire virtuelle au niveau applicatif. Les développeurs d'une application peuvent ordonner à nôtre système de libérer la mémoire principale en transférant les \emph{objets inutilisés, mais encore référencés} vers une mémoire secondaire (telle qu'un disque dur). En plus de la description du modèle et des algorithmes sous-jacents à Marea, nous présentons notre implémentation dans le langage Pharo. Notre approche a été validée à la fois qualitativement et quantitativement. Ainsi, nous avons réalisés des expérimentations et des mesures sur des applications grandeur-nature pour montrer que Marea peut réduire l'empreinte mémoire de 25% et jusqu'à 40%.

Application de techniques d’apprentissage pour la détection et la reconnaissance d’individus

/ Hamoudi Lyes / Université Lille1 - Sciences et Technologies / 07-06-2011
Voir le résumé | Accéder à la ressource
Voir le résumé
Nous présentons dans cette thèse une approche de reconnaissance de personnes basée sur l’apparence. L’objectif est de fournir un bloc de traitement pouvant s’incorporer dans un système de surveillance plus global dédié à l’analyse comportementale. A l’inverse des méthodes de reconnaissance biométriques telles que la reconnaissance de visage ou la reconnaissance de la démarche, notre objectif est ici de distinguer des personnes entre elles, par le biais de leur « modèle d’apparence », plutôt que d’associer un identifiant unique à chaque individu. En outre, contrairement aux méthodes qui existent dans la littérature, le « modèle d’apparence » que nous construisons est issu de la modélisation séparée des parties supérieure et inférieure des corps des individus à reconnaitre. Ainsi, nous avons mis au point une stratégie de classification (basée sur la technique one-class SVM) nous permettant d’effectuer deux opérations. Nous appelons la première opération la « fusion des classes » et qui consistent à détecter en amont (c'est-à-dire lors de l’apprentissage) les classes de vêtement similaires et les rassembler en une seule classe. Cette opération est effectuée afin d’éviter des confusions entre les classes lors de la reconnaissance des individus. La deuxième opération est un « apprentissage en ligne ». Cette dernière permet au système, lors de la phase de reconnaissance, de reconnaitre que l’individu présent dans la scène correspond à une « nouveauté » (c'est-à-dire que cet individu n’a pas été appris), puis de l’incorporer dans la base d’apprentissage.

Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10