• 79 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Editeur Auteur Titre

Assistance à l’apprentissage de l’algorithmique : méthode et outil pour l’évaluation et la rétroaction

/ Ali Houssein Souleiman / Université Lille1 - Sciences et Technologies / 12-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
La maîtrise des concepts fondamentaux de la programmation et la capacité à réaliser des programmes simples sont les objectifs essentiels de l’enseignement dans les cours d’introduction à l’informatique. L’enseignement et l’apprentissage de la programmation sont considérés complexes, ce qui explique le taux d’abandon important de ces filières, largement documenté dans la littérature. De nombreux travaux proposent des environnements d’apprentissage de la programmation assistant les apprenants dans la maîtrise de la syntaxe et de la sémantique des langages de programmation. Toutefois, parmi les causes d’échecs, la littérature identifie un manque de capacité à décomposer et formaliser un problème sous forme d’algorithme. Dans le cadre de cette thèse, nous nous intéressons à la phase d’analyse et de mise en solution algorithmique. Cette phase a pour rôle de faire acquérir à l’apprenant une démarche de résolution de problème et de formalisation de la solution. Dans cette phase l’apprenant décrit ou structure sa solution algorithmique à l’aide d’une notation formelle (pseudo-code) indépendant de tout langage de programmation. L’étude de la littérature indique que l’amélioration de la capacité de résolution de problème passe par la pratique. Dans le cadre de la programmation pour les novices, il est nécessaire de faire de nombreux exercices (résolution de problème) avec des niveaux de difficulté croissante. Il est par ailleurs nécessaire de fournir une rétroaction en rapport avec les erreurs commises par les apprenants. Dans cet objectif nous proposons AlgoInit, un environnement Web pour l’apprentissage de l’algorithmique. En nous basant sur l’étude de la littérature, nous avons défini : - Une modélisation basée sur la taxonomie de Bloom pour définir le niveau cognitif des exercices proposés ; - Une approche d’évaluation basée sur la comparaison de la solution apprenant à une solution modèle. Pour comparer les solutions (apprenant et modèles) décrites en pseudo-code, nous passons par une étape de transformation des solutions en des arbres étiquetés construits à partir d’une base de règle ; - Des règles pour fournir rétroaction et exercices progressifs en fonction du résultat de l’évaluation de la solution de l’apprenant. Afin d’évaluer la potentialité de notre prototype, nous avons mené deux expérimentations à l’université de Djibouti. La première expérimentation a été consacrée à l’évaluation de la capacité de notre prototype à reconnaître les différentes solutions algorithmiques. Quant à la deuxième, elle a été consacrée à l’évaluation de l’intérêt pédagogique d’AlgoInit. Ces expérimentations ont montré des résultats probants sur la capacité d’AlgoInit de classer les solutions (correctes et incorrectes) et de fournir des rétroactions utiles. Les résultats indiquent également que notre système à une influence significative sur la capacité de résolution de problèmes des étudiants.

Développement des textiles instrumentés intégrant des électrodes organiques de mesure de bio-potentiel

/ Ankhili Amale / Université Lille1 - Sciences et Technologies / 03-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Les maladies cardiovasculaires sont les premières causes de mortalités dans le monde. La manière la plus efficace de combattre ces maladies est le suivi en temps réel de l’électrocardiogramme (ECG) qui traduit les signaux électriques générés par les cellules cardiaques. Le signal ECG fournit aux cardiologues toutes les informations nécessaires pour diagnostiquer les pathologies cardiaques. De nos jours, l’électrocardiogramme s’enregistre en cabinet à l’aide d’électrodes cutanées à base d’argent et chlorure de l’argent (Ag/AgCl). Celles-ci ne sont pas conçues pour un usage prolongé et peuvent provoquer des irritations de la peau à cause du gel ionique qui les compose et qui sert à réduire l’impédance de l’interface électrode/peau. Dans cette thèse, des électrodes textiles flexibles fonctionnant sans aucun gel ionique ont été développées en tant qu’alternatives aux électrodes médicales (Ag/AgCl). Notre approche est basée sur la modification d’encres conductrices à base du polymère intrinsèquement conducteur, le poly (3,4-éthylènedioxythiophène) poly(styrènesulfonate) (PEDOT:PSS) compatible avec les substrats textiles choisis. La réalisation des électrodes fait appel à des techniques de fabrication qui peuvent être transférées facilement à l’industrie textile. Des caractérisations ont été mises en places afin d’évaluer la fiabilité de ces systèmes avant et après 50 lavages en machine de laboratoire et domestique. En l’occurrence, la résistivité surfacique des électrodes-capteurs, la modélisation de l’interface électrode/peau, l’analyse du signal ECG en statique et en dynamique, la densité spectrale de puissance du signal ECG, le rapport signal sur bruit (SNR) ont été analysés et comparés à des électrodes commerciales à base d’argent. Comme nos électrodes-capteurs développées possèdent un véritable potentiel clinique et industriel, nous avons également étudié la faisabilité de la connectique et sa durabilité. La solution retenue se compose de deux fils conducteurs en polyamide argenté, existants sur le marché, brodés pour réaliser les connexions entre les électrodes-capteurs textiles et un module électronique flexible à base d’un film composite (polyester-aluminium). De plus deux méthodes d’encapsulation des systèmes ont été également développées en vue de leur protection au lavage et futur commercialisation.

Use of Smart Technology for heating energy optimization in buildings : experimental and numerical developments for indoor temperature forecasting

/ Attoue Nivine / Université Lille1 - Sciences et Technologies, Université libanaise / 13-05-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
L’inquiétude croissante concernant le futur des ressources énergétique a fait de l’optimisation énergétique une priorité dans tous les secteurs. De nombreux sujets de recherche se sont focalisés sur celui du bâtiment étant le principal consommateur d’énergie, en particulier à cause de ses besoins en chauffage. L’application des stratégies de contrôle et de gestion innovantes peuvent contribuer à des économies d'énergie. L'objectif de cette thèse est d'introduire le concept intelligent dans les bâtiments pour réduire la consommation d'énergie. L'étude vise à développer un modèle permettant de prédire le comportement thermique des bâtiments. La thèse propose une méthodologie basée sur la sélection des paramètres d'entrée pertinents, après une analyse de pertinence, pour développer un modèle simplifié de réseau de neurones artificiel, utilisé pour la prévision de température intérieure. Le domaine intelligent nécessite un processus automatisé pour comprendre la dynamique des bâtiments et décrire ses caractéristiques. L’utilisation des modèles thermiques réduits convient pour de telles stratégies. Ainsi, la thèse présente une étude préliminaire pour la génération d'un processus automatisé pour déterminer la prévision de température intérieure à court terme et les caractéristiques des bâtiments basées sur la modélisation en boîte grise. Cette étude est basée sur une méthodologie capable de trouver l'ensemble de données le plus fiable qui décrit le mieux la dynamique du bâtiment. L'étude montre que l'ordre le plus performant pour les modèles réduits est régi par la dynamique des données collectées utilisées.

Implication de réseaux de récepteurs membranaires dans la signalisation du NGF et de son précurseur dans les cellules cancéreuses de sein

/ Aubert Léo / Université Lille1 - Sciences et Technologies / 08-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Notre laboratoire a montré que le NGF et les neurotrophines sont des facteurs déterminants de la cancérogenèse mammaire, et plus particulièrement de la croissance et de l’invasion des cellules cancéreuses de sein. Les effets du NGF dépendent, entre autres, de l’activation du récepteur à activité tyrosine kinase TrkA. Récemment, nous avons décrit que le précurseur du NGF, le proNGF, est également produit et sécrété par les cellules cancéreuses de sein pour induire leur invasion via la formation d’un complexe sortiline/TrkA. Néanmoins, les différentes signalisations induites par le NGF et le proNGF ne sont pas encore parfaitement décryptées dans le cancer du sein. Au cours de ma thèse, j’ai démontré que le NGF et le proNGF induisent des complexes de récepteurs distincts. Ainsi, alors que le NGF conduit à la formation d’un complexe membranaire TrkA/CD44, le proNGF recrute quant à lui la sortiline, TrkA et EphA2. En outre, les études in vivo, réalisées dans un modèle de souris SCID, montrent que la croissance tumorale est dépendante de la formation de ces complexes. Ainsi, l’administration conjointe d’un inhibiteur de l’activité kinase de TrkA (CEP-701) et d’un ARN interférent dirigé soit contre CD44, soit contre EphA2, diminue significativement le volume tumoral en comparaison à l’utilisation en monothérapie du CEP-701 ou d’un siEphA2 ou du siCD44. L’ensemble de mes résultats a permis d’approfondir les mécanismes d’action du NGF et de son précurseur dans les cellules cancéreuses mammaires et suggère l’existence de mécanismes de résistance à travers les coopérations TrkA/CD44 et TrkA/EphA2, ouvrant ainsi l’opportunité à de nouvelles stratégies thérapeutiques dans les cancers.

Modèles génératifs pour la classification et la séparation de sources sonores en temps-réel

/ Baelde Maxime / Université Lille1 - Sciences et Technologies / 20-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Cette thèse s'inscrit dans le cadre de l'entreprise A-Volute, éditrice de logiciels d'amélioration d'expérience audio. Elle propose un radar qui transpose l'information sonore multi-canale en information visuelle en temps-réel. Ce radar, bien que pertinent, manque d'intelligence car il analyse uniquement le flux audio en terme d'énergie et non en termes de sources sonores distinctes. Le but de cette thèse est de développer des algorithmes de classification et de séparation de sources sonores en temps-réel. D'une part, la classification de sources sonores a pour but d'attribuer un label (par exemple voix) à un son monophonique (un label) ou polyphonique (plusieurs labels). La méthode développée utilise un attribut spécifique, le spectre de puissance normalisé, utile à la fois dans le cas monophonique et polyphonique de part sa propriété d'additivité des sources sonores. Cette méthode utilise un modèle génératif qui permet de dériver une règle de décision basée sur une estimation non paramétrique. Le passage en temps-réel est réalisé grâce à un pré-traitement des prototypes avec une classification hiérarchique ascendante. Les résultats sont encourageants sur différentes bases de données (propriétaire et de comparaison), que ce soit en terme de précision ou de temps de calcul, notamment dans le cas polyphonique. D'autre part, la séparation de sources consiste à estimer les sources en terme de signal dans un mélange. Deux approches de séparation ont été considérées dans la thèse. La première considère les signaux à retrouver comme des données manquantes et à les estimer via un schéma génératif et une modélisation probabiliste. L'autre approche consiste, à partir d'exemples sonores présent dans une base de données, à calculer des transformations optimales de plusieurs exemples dont la combinaison tends vers le mélange observé. Les deux propositions sont complémentaires, avec chacune des avantages et inconvénients (rapidité de calcul pour la première, interprétabilité du résultat pour la deuxième). Les résultats expérimentaux semblent prometteurs et nous permettent d'envisager des perspectives de recherches intéressantes pour chacune des propositions.

Négociation multi-agents pour la réallocation dynamique de tâches et application au patron de conception MapReduce

/ Baert Quentin / Université Lille1 - Sciences et Technologies / 13-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Le problème Rm||Cmax consiste à allouer un ensemble de tâches à m agents de sorte à minimiser le makespan de l’allocation, c’est-à-dire le temps d’exécution de l’ensemble des tâches. Ce problème est connu pour être NP-dur dès que les tâches sont allouées à deux agents ou plus (m ≥ 2). De plus, il est souvent admis que le coût d’une tâche est précisément estimé pour un agent et que ce coût ne varie pas au cours de l’exécution des tâches. Dans cette thèse, je propose une approche décentralisée et dynamique pour l’amélioration d’une allocation de tâches. Ainsi, à partir d’une allocation initiale et pendant qu’ils exécutent les tâches, les agents collaboratifs initient de multiples enchères pour réallouer les tâches qui restent à exécuter. Ces réallocations sont socialement rationnelles, c’est-à-dire qu’un agent accepte de prendre en charge une tâche initialement allouée à un autre agent si la délégation de cette tâche bénéficie à l’ensemble du système en faisant décroître le makespan. De plus, le dynamisme du procédé permet d’améliorer une allocation malgré une fonction de coût peu précise et malgré les variations de performances qui peuvent survenir lors de l’exécution des tâches. Cette thèse offre un cadre formel pour la modélisation et la résolution multi-agents d’un problème de réallocation de tâches situées. Dans un tel problème, la localité des ressources nécessaires à l’exécution d’une tâche influe sur son coût pour chaque agent du système. À partir de ce cadre, je présente le protocole d’interaction des agents et je propose plusieurs stratégies pour que les choix des agents aient le plus d’impact sur le makespan de l’allocation courante. Dans le cadre applicatif de cette thèse, je propose d’utiliser ce processus de réallocation de tâches pour améliorer le patron de conception MapReduce. Très utilisé pour le traitement distribué de données massives, MapReduce possède néanmoins des biais que la réallocation dynamique des tâches peut aider à contrer. J’ai donc implémenté un prototype distribué qui s’inscrit dans le cadre formel et implémente le patron de conception MapReduce. Grâce à ce prototype, je suis en mesure d’évaluer l’apport du processus de réallocation et l’impact des différentes stratégies d’agent.

Approches comparées des paramètres de Hansen et du modèle COSMO-RS pour l'étude des phénomènes de solubilisation : application à la caractérisation et à la valorisation des agro-solvants

/ Benazzouz Adrien / Université Lille1 - Sciences et Technologies / 23-10-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
L'évolution du cadre réglementaire et la prise de conscience générale des enjeux environnementaux et de santé publique sont à l'origine d'une profonde modification du paysage des solvants. L'avènement de solvants alternatifs, comme les agro-solvants, nécessite le recours à des outils physico-chimiques systématiques de caractérisation de leurs propriétés solubilisantes. L'approche des paramètres de Hansen, issue de la théorie de Hildebrand, propose une représentation des principales interactions moléculaires en solution. Ses performances applicatives ont été éprouvées pour la caractérisation des agro-solvants émergents et l'étude de la solubilisation de solutés moléculaires et macromoléculaires. Alternativement, le modèle COSMO-RS combine chimie quantique et thermodynamique statistique pour la prédiction des propriétés moléculaires à l'état liquide. Les performances de ce modèle ont été évaluées et exploitées pour rendre compte des phénomènes de solubilisation de solutés complexes tels que la nitrocellulose et le C60-fullerène. Permettant de traduire les deux mécanismes principaux de solubilisation (similarité et complémentarité), les descripteurs issus de COSMO-RS ont été mis à profit pour forger de nouveaux paramètres de solubilité aussi simples que ceux de Hansen mais plus rigoureux scientifiquement. Cette jouvence des paramètres de solubilité s'appuie sur la prise en compte des interactions acide-base de Lewis et le concept nouveau de COSMOmorphe permettant le calcul des interactions dispersives. Les connaissances ainsi acquises ont permis l'élaboration d'une microémulsion dégraissante verte dont l'efficacité repose sur un mécanisme original de décapage dégraissant.

La coordination dans les organisations temporaires à forte intensité de connaissances : variations autour d’un projet de type “complex product systems”

/ Benmerikhi Mohamed / Université Lille1 - Sciences et Technologies / 17-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Si la coordination a été largement abordée dans les organisations et les projets, elle l’a été beaucoup moins dans les projets de type complex product systems (COPS). Dans cette thèse sur travaux, nous mobilisons une approche qualitative longitudinale d'étude de cas unique pour aborder différentes questions de recherche. Théoriquement, nous décrivons le caractère multi-niveaux de la coordination plaidant en faveur d'une combinaison de mécanismes de coordination émergents et planifiés. Nous montrons ensuite, empiriquement, comment, considéré comme un artefact, un référentiel de connaissance dans la gestion de projet (le Guide PMBOK), assure la coordination de ses communautés de pratiques dispersées géographiquement. Ainsi, nous caractérisons la relation entre communautés de pratique et artefact comme étant mutuellement constitutive et co-évolutive. Ensuite, au niveau des acteurs projet, nous explorons le processus de développement des interdépendances en montrant que combler les écarts de connaissances engendre des changements dynamiques dans les interdépendances entre acteurs et celles entre tâches. Ceci nous a permis de mettre en évidence un flux réciproque de causalité entre taches et entre acteurs. Enfin, nous montrons que les barrières de connaissances entravant la coordination sont caractéristiques des projets COPS et nous expliquons comment les acteurs projet les surmontent à l'aide de différents artefacts imbriqués à leurs actions. Cette analyse nous permet de fournir un appui empirique à l’idée que les processus émergents de création de connaissance offrent une explication complémentaire aux problèmes de coordination. Ainsi, notre thèse présente une compréhension novatrice de la coordination dans les projets COPS avec des contributions qui s’inscrivent dans la littérature du management de projet ainsi que dans celle du management stratégique.

Influence des paramètres opératoires sur la production de surfactine dans un bioréacteur à biofilm aéré par membrane

/ Berth Alexandre / Université Lille1 - Sciences et Technologies / 18-07-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Les bioréacteurs à biofilm aéré par contacteur membranaire représentent un moyen de production alternatif aux bioréacteurs aérés par bullage. Ils sont, par exemple, utilisés pour éviter la formation abondante de mousse lors de la production de lipopeptides, molécules d’intérêt aux propriétés surfactantes produites notamment par Bacillus subtilis. La maîtrise du biofilm qui se forme à l’interface gaz-liquide dans la membrane représente la clé pour optimiser les paramètres de production et préparer une montée en échelle. Dans un premier temps, le transfert d’oxygène seul est étudié dans un bioréacteur aéré par membrane à fibre creuse microporeuse. Une analyse dimensionnelle a été couplée de façon innovante à un plan d’expériences fractionnaire, réduisant considérablement le nombre d’expérience pour obtenir une relation de procédés. Les performances de transfert d’oxygène sont modélisées en fonction du débit de liquide, du volume de liquide et de la pression de gaz. Dans un second temps, l’état physiologique du biofilm et la production de surfactine sont étudiés en régime continu. La présence d’un biofilm agit comme un accélérateur de transfert d’oxygène au lieu d’une résistance. Les variations de débit de liquide, de pression de gaz, de concentrations en glucose et en oxygène ont permis de déterminer le régime de limitation en substrats, apportés en contre-diffusion, tous deux révélés comme limitants. L’augmentation du débit de liquide permet une meilleure pénétration du glucose dans le biofilm sans en augmenter la taille. L’augmentation de la concentration en oxygène conduit aux meilleurs résultats de production de surfactine atteignant 1,2 g.m-2.h-1, niveau encore jamais atteint avec d’autres types de bioréacteurs.

Ingénierie de substrat par micro-usinage laser pour l’amélioration des performances de composants et fonctions RF intégrées en technologie SOI-CMOS

/ Bhaskar Arun / Université Lille1 - Sciences et Technologies / 07-10-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Dans l'industrie des semi-conducteurs, l'approche More-than-Moore constitue un facteur clé pour améliorer les performances du système, l'intégration et la diversification des applications. Dans le domaine des systèmes RF/hyperfréquences, il est essentiel de développer des fonctionnalités optimisées pour diverses exigences comme la linéarité, les pertes, la sensibilité, etc. Bien que la technologie silicium-sur-isolant (SOI) offre des solutions concurrentielles pour le marché des radiofréquences et des hyperfréquences, il a été démontré dans des études antérieures que l'ingénierie des substrats SOI permet d'améliorer encore les performances. Dans ce contexte, l'objet spécifique de ce travail de thèse a été d'étudier le traitement des substrats porteurs de tranches SOI (Silicium-sur-Isolant). L'objectif a consisté à enlever le substrat de silicium sous la zone active des fonctions RF pour obtenir des membranes SOI menant à des pertes RF réduites et une amélioration de la linéarité. Nous avons donc développé le procédé de micro-usinage et de gravure assistée par laser femtoseconde FLAME (Femtosecond Laser Assisted Micromachining and Etch) pour suspendre en membrane les fonctions RF intégrées sur un substrat SOI. Un taux d'ablation spécifique élevé de 8,5 x 106 µm3 s-1 a été obtenu pour produire des membranes dont la surface varie de quelques centaines de µm2 à plusieurs mm2. La caractérisation RF a été réalisée sur différentes fonctions RF suspendues : commutateurs, inductances et amplificateurs à faible bruit (LNA). Une comparaison avec des substrats SOI à haute résistivité montre des performances supérieures pour les fonctions RF intégrées en membranes. Pour le commutateur, les mesures de distorsion harmonique ont montré une amélioration de 23 dB et 6 dB des secondes et troisièmes harmoniques, respectivement. Des mesures en régime petit signal d'inductance sur membranes ont révélé un quasi-doublement du facteur de qualité Q jusqu'à 3,2 nH. L'élimination du substrat de l'inductance d'adaptation d'entrée des LNA entraine une réduction du facteur de bruit de ~0,1 dB. Ces résultats mettent en évidence le potentiel important que constitue l’ingénierie des substrats pour l'amélioration des performances RF des technologies CMOS. De plus, pour les besoins d'analyse en boucle courte, la méthode FLAME permet de quantifier très rapidement l'influence du substrat sur les pertes et la linéarité sans avoir recours à des techniques d’élimination complète. Un autre avantage distinctif de cette méthode est la possibilité de quantifier l'effet du substrat sur un circuit complet en suspendant un composant spécifique sans affecter les autres. Les méthodes de fabrication développées sont également applicables aux capteurs en technologie SOI, ce qui apporte une valeur ajoutée globale en ligne avec le paradigme More-than-Moore.

Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10