• 70 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Editeur Auteur Titre

Data-driven evaluation of contextual bandit algorithms and applications to dynamic recommendation

/ Nicol Olivier / Université Lille1 - Sciences et Technologies / 18-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Ce travail de thèse a été réalisé dans le contexte de la recommandation dynamique. La recommandation est l'action de fournir du contenu personnalisé à un utilisateur utilisant une application, dans le but d'améliorer son utilisation e.g. la recommandation d'un produit sur un site marchant ou d'un article sur un blog. La recommandation est considérée comme dynamique lorsque le contenu à recommander ou encore les goûts des utilisateurs évoluent rapidement e.g. la recommandation d'actualités. Beaucoup d'applications auxquelles nous nous intéressons génèrent d'énormes quantités de données grâce à leurs millions d'utilisateurs sur Internet. Néanmoins, l'utilisation de ces données pour évaluer une nouvelle technique de recommandation ou encore comparer deux algorithmes de recommandation est loin d'être triviale. C'est cette problématique que nous considérons ici. Certaines approches ont déjà été proposées. Néanmoins elles sont très peu étudiées autant théoriquement (biais non quantifié, borne de convergence assez large...) qu'empiriquement (expériences sur données privées). Dans ce travail nous commençons par combler de nombreuses lacunes de l'analyse théorique. Ensuite nous discutons les résultats très surprenants d'une expérience à très grande échelle : une compétition ouverte au public que nous avons organisée. Cette compétition nous a permis de mettre en évidence une source de biais considérable et constamment présente en pratique : l'accélération temporelle. La suite de ce travail s'attaque à ce problème. Nous montrons qu'une approche à base de bootstrap permet de réduire mais surtout de contrôler ce biais.

Patient-specific biomechanical simulation for deep brain stimulation

/ Bilger Alexandre / Université Lille1 - Sciences et Technologies / 16-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
La stimulation cérébrale profonde est un traitement chirurgical impliquant l'implantation permanante d'électrodes dans le cerveau, afin de stimuler une zone spécifique. La stimulation électrique continue de certaines structures cérébrales traite des symptomes de troubles neurologiques moteurs ou affectifs. Le succès de l'opération repose sur la précision du placement de l'électrode dont le but est de maximiser les bénéfices thérapeutiques, et de minimiser les effets secondaires. Pour cela, une phase de plannification pre-opératoire détermine les coordonnées de la cible à stimuler, ainsi que la trajectoire de l'électrode pour y arriver, à l'aide d'une combinaison d'images médicales du patient et d'outils numériques. Cependant, la déformation intra-opératoire du cerveau, appelée brain shift, peut rendre la plannification invalide. Les contributions de cette thèse s'appuient sur un modèle biomécanique du brain shift qui comprend un modèle de déformation mécanique, ainsi qu'une modélisation de la fuite de liquide cérébro-spinal. Nous présentons un outil pré-opératoire, basé sur notre modèle, afin de fournir au chirurgien une information sur les risques de déformation, qu'il utilise pour sélectionner une trajectoire sécurisée pour le patient, même en cas de brain shift. Dans un deuxième temps, nous proposons une méthode de recalage intra-opératoire basée sur notre modèle biomécanique, afin de calculer la nouvelle position des structures anatomiques. Enfin, grâce à un modèle d'insertion de l'électrode et de son interaction avec les tissus cérébraux, nous reproduisons le protocole opératoire afin de calculer la déflexion de l'électrode due au brain shift.

Heterogeneity and locality-aware work stealing for large scale Branch-and-Bound irregular algorithms

/ Vu Trong-Tuan / Université Lille1 - Sciences et Technologies / 12-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Chaque cadre doit contenir un résumé de 1700 caractères maximum, espaces compris. En cas de dépassement, la coupure sera automatique. Les algorithmes Branch-and-Bound (B&B) font partie des méthodes exactes pour la résolution de problèmes d’optimisation combinatoire. Les calculs induits par un algorithme B&B sont extrêmement couteux surtout lorsque des instances de grande tailles sont considérées. Un algorithme B&B peut être vu comme une exploration implicite d’un espace représenté sous la forme d’un arbre qui a pour spécificité d’être hautement irrégulier. Pour accélérer l’exploration de cet espace, les calculs parallèles et distribués à très large échelle sont souvent utilisés. Cependant, atteindre des performances parallèles optimales est un objectif difficile et jalonné de plusieurs défis, qui découlent essentiellement de deux facteurs: (i) l’irrégularité des calculs inhérents à l’arbre B&B et (ii) l’hétérogénéité inhérente aux environnements de calcul large échelle. Dans cette thèse, nous nous intéressons spécifiquement à la résolution de ces deux défis. Nous nous concentrons sur la conception d’algorithmes distribués pour l’équilibrage de charge afin de garantir qu’aucune entiré de calcul n’est surchargée ou sous-utilisée. Nous montrons comment résoudre l’irrégularité des calculs sur différents type d’environnements, et nous comparons les approches proposées par rapport aux approches de références existantes. En particulier, nous proposons un ensemble de protocols spécifiques à des contextes homogènes, hétérogène en terme de pussance de calcul (muti-coeurs, CPU et GPU), et hétérogènes en terme de qualité des lien réseaux. Nous montrons à chaque fois la supériorité de nos protocoles à travers des études expérimentales extensives et rigoureuses.

Comprendre, modéliser et concevoir l’interaction gestuelle tactile

/ Rekik Yosra / Université Lille1 - Sciences et Technologies / 10-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Cette thèse présente nos travaux de recherche sur la variabilité du geste tactile multi-doigts. Nous étudions d’abord la variabilité du geste du point de vue utilisateur, ensuite nous décrivons un ensemble d’outils et de techniques d’interaction. Dans le but de comprendre la variabilité du geste multi-doigts, nous avons mis en place deux études utilisateur. À partir de la première étude, nous proposons une taxonomie des gestes multi-doigts qui présente de façon unifiée les différents aspects qui amènent les utilisateurs à la production d’un geste. De la seconde étude, nous proposons une analyse fine de la variabilité des gestes multi-doigts. Nous distinguons les sources majeures et mineures de variation et présentons huit classes représentatives de la variabilité. Nous analysons notamment le lien entre la forme du geste et comment il est produit. Nous abordons, ensuite, la question de savoir si les différentes sources de variations induisent différents degrés de difficulté ou si elles sont équivalentes pour l’utilisateur. Pour celà, nous décrivons une nouvelle étude sur la perception de la difficulté des gestes multi-doigts. Après avoir compris la variabilité de gestes multi-doigts, nous fournissons un ensemble d’outils: nous proposons d’abord une nouvelle étape de prétraitement des gestes multi-doigts, Match-Up, qui structure les mouvements des doigts. Nous appliquons ensuite Match-Up dans le cadre de la reconnaissance (Match-Up & Conquer), et nous amélio-rons les taux de reconnaissance de 10%. Enfin, nous introduisons le concept du mouvement rigide et nous étudions son potentiel pour rendre l’interaction plus flexible.

Modelling and simulation of distributed large scale situated multi-agent systems

/ Rihawi Omar / Université Lille1 - Sciences et Technologies / 03-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les systèmes multi-agents sont constitués d'entités autonomes qui interagissent avec leur environnement pour résoudre un objectif collectif. Si l'on souhaite modéliser des systèmes contenant des millions d'agents, une puissance de calcul et de stockage importante devient nécessaire. Pour atteindre de telles simulations large échelle, distribuer le simulateur sur un réseau de machines est nécessaire, mais il faut prendre en compte quelques aspects. Le premier aspect se concentre sur deux types de répartition de la charge de calcul : la première basée sur l'environnement, la deuxième basée sur les agents. Nous évaluons les performances de ces répartitions en les confrontant à des applications dont les dynamiques de déplacement sont très différentes, ce qui nous permet d'identifier plusieurs critères devant être pris en compte pour garantir des gains de performance lors de la distribution de simulations d'agents situés. Le second aspect de notre travail étudie la synchronisation. En effet, à notre connaissance, tous les simulateurs existants fonctionnent sur la base d'une synchronisation forte entre les machines, ce qui garantit la causalité temporelle et la cohérence des calculs. Dans cette thèse, nous remettons en cause cette hypothèse en étudiant la relaxation de la contrainte de synchronisation. Nous proposons deux politiques de synchronisation : la synchronisation forte classique et une forme de synchronisation reposant sur une fenêtre de temps bornée entre la machine la plus lente et la machine la plus rapide. Des applications de natures différentes sont exécutées avec ces différents mécanismes de synchronisation.

Learning 3D geometric features for soft-biometrics recognition

/ Xia Baiqiang / Université Lille1 - Sciences et Technologies / 25-11-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
La reconnaissance des biomètries douces (genre, âge, etc.) trouve ses applications dans plusieurs domaines. Les approches proposées se basent sur l’analyse de l’apparence (images 2D), très sensibles aux changements de la pose et à l’illumination, et surtout pauvre en descriptions morphologiques. Dans cette thèse, nous proposons d’exploiter la forme 3D du visage. Basée sur une approche Riemannienne d’analyse de formes 3D, nous introduisons quatre descriptions denses à savoir: la symétrie bilatérale, la moyenneté, la configuration spatiale et les variations locales de sa forme. Les évaluations faites sur la base FRGCv2 montrent que l’approche proposée est capable de reconnaître des biomètries douces. A notre connaissance, c’est la première étude menée sur l’estimation de l’âge, et c’est aussi la première étude qui propose d’explorer les corrélations entre les attributs faciaux, à partir de formes 3D.

APISENSE® : une plate-forme répartie pour la conception, le déploiement et l’exécution de campagnes de collecte de données sur des terminaux intelligents

/ Haderer Nicolas / Université Lille1 - Sciences et Technologies / 05-11-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Le mobile crowdsensing est une nouvelle forme de collecte de données exploitant la foule de terminaux intelligents déjà déployés à travers le monde pour collecter massivement des données environnementales ou comportementales d'une population. Ces dernières années, ce type de collecte de données a suscité l'intérêt d'un grand nombre d'acteurs industriels et académiques dans de nombreux domaines tels que l'étude de la mobilité urbaine, la surveillance de l'environnement, la santé ou l'étude des comportements socioculturels. Cependant, le mobile crowdsensing n'en n'est qu'à ses premiers stades de développement, et de nombreux défis doivent encore être relevés pour pleinement profiter de son potentiel. Ces défis incluent la protection de la vie privée des utilisateurs, les ressources énergétiques limitées des terminaux mobiles, la mise en place de modèles de récompense et de déploiement adaptés pour recruter les utilisateurs les plus à même de collecter les données désirées, ainsi que faire face à l’hétérogénéité des plateformes mobiles disponibles. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiés au mobile crowdsensing pour adresser les limitations liées au développement, au déploiement et à l'exécution de campagnes de collecte de données. Les différentes contributions proposées sont articulées autour APISENSE, la plate-forme résultante des travaux de cette thèse. APISENSE a été utilisé pour réaliser une campagne de collecte de données déployée auprès d'une centaine d'utilisateurs au sein d'une étude sociologique, et évalué à travers des expériences qui démontrent la validité, l'efficacité et le passage à échelle de notre solution.

Assessing and improving rules to support software evolution

/ Cavalcante Hora André / Université Lille1 - Sciences et Technologies / 04-11-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les systèmes logiciels évoluent pour ajouter de nouvelles fonctionnalités, corriger des bugs ou refactoriser du code source. Durant ce processus, certains problèmes peuvent survenir provoquant l'inconsistance ou l'échec des systèmes en évolution et avec leurs clients, ce qui aboutit finalement à une baisse de la qualité du code. Pour faire face à ces problèmes, il est possible d'utiliser des règles. Ces règles peuvent être créées par des experts ou extraites de précédentes versions du code source. Nous soutenons que les approches existantes : (i) n'analysent pas précisément les avantages des règles créées par des experts; (ii) gagneraient à mieux utiliser les dépôt de codes sources pour extraire des règles basées sur l'historique, et (iii) devraient analyser à grande échelle et sur des cas réels l'impact de l'évolution du code source sur les clients. Dans cette thèse, nous proposons d'analyser et d'améliorer les règles pour aider les développeurs à mieux suivre l'évolution du code source. Pour cela, nous étudions trois aspects différents : - Les avantages prévus par les règles créées par des experts : nous analysons précisément ces règles pour comprendre si elles valent la peine d'être adoptées malgré le coût pour les produire. - L'amélioration des règles basées sur l'historique : nous proposons deux solutions pour extraire de meilleures règles à partir du dépôt de codes sources. - L'impact de l'évolution du code source sur un écosystème logiciel : nous étudions les conséquences de l'évolution de code source sur des systèmes clients dans le contexte d'un écosystème de grande échelle. Les résultats que nous avons obtenus démontrent l'utilité de nos approches.

Approche à base de modèles pour la construction d’applications mobiles multimodales

/ Elouali Nadia / Université Lille1 - Sciences et Technologies / 27-10-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Aujourd'hui, les smartphones intègrent une grande variété de capteurs tel que l’accéléromètre, le capteur de lumière, le capteur d'orientation, etc. Créé pour détecter les informations du contexte, ces capteurs ont permis également l’apparition des nouvelles modalités d'interaction comme par exemple le secouage du téléphone ou la modification de son orientation. L’utilisation de ces modalités réduit les restrictions d’interaction avec les smartphones et ouvrent la voie à une grande expansion des interactions multimodales sous mobiles. Malheureusement, le contexte actuel de développement des logiciels mobiles rend difficile le développement d'applications multimodales. Dans cette thèse, notre challenge consiste à aider les développeurs pour faire face à cette difficulté. Nous proposons une solution à base des modèles qui vise à faciliter le développement d'interfaces mobiles multimodales. Nous adoptons les principes de l’Ingénierie Dirigée par les Modèles (IDM), qui convient parfaitement avec un tel contexte. Notre proposition consiste en un langage de modélisation nommé M4L (mobile multimodalité Modeling Language), ainsi qu’un framework nommé MIMIC (mobiles multimodalité Créateur) qui se base sur M4L pour permettre la modélisation graphique et la génération automatique des interfaces mobiles multimodales (en entrée et en sortie). Notre approche respecte les principaux critères de l’IDM afin d‘être efficace. Les résultats de nos évaluations suggèrent que l'utilisation de MIMIC (basé sur le langage M4L) facilite le développement des interfaces mobiles multimodales.

Cloud environment selection and configuration : a software product lines-based approach

/ Quinton Clément / Université Lille1 - Sciences et Technologies / 22-10-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Pour tirer pleinement profit des avantages liés au déploiement dans les nuages, les applications doivent s’exécuter sur des environnements configurés de façon à répondre précisément aux besoins desdites applications. Nous considérons que la sélection et la configuration d’un nuage peut s’appuyer sur une approche basée sur les Lignes de Produits Logiciels (LPLs). Les LPLs sont définies pour exploiter les points communs par la définition d’éléments réutilisables. Cette thèse propose une approche basée sur les LPLs pour sélectionner et configurer un nuage en fonction des besoins d’une application à déployer. Concrètement, nous introduisons un modèle de variabilité permettant de décrire les points communs des différents nuages. Ce modèle de variabilité est notamment étendu avec des attributs et des multiplicités, qui peuvent être également impliqués dans des contraintes complexes. Ensuite, nous proposons une approche permettant de vérifier la cohérence de modèles de variabilité étendus avec des cardinalités, en particulier lorsque ceux-ci évoluent. En cas d’incohérence, nous fournissons un support permettant d’en expliquer son origine et sa cause. Enfin, nous proposons une plateforme automatisée de sélection et configuration de nuages, permettant la dérivation de fichiers de configuration relatifs aux besoins de l’application à déployer en fonction du nuage choisi. Ce travail de recherche s’est effectué dans le cadre du projet européen PaaSage. Les expérimentations menées montrent les avantages de notre approche basée sur les LPLs et, en particulier, comment son utilisation améliore la fiabilité lors d’un déploiement, tout en proposant une plateforme flexible et extensible.

Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10