• 39 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Editeur Auteur Titre

Biosensing of cellular processes in cellulo and in vivo

/ Riquet Franck / Université Lille1 - Sciences et Technologies / 12-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Bien que les méthodes traditionnelles fournissent des indications précieuses dans la compréhension de nombreux processus biologiques, la possibilité aujourd’hui de suivre un événement biologique spécifique dans une cellule vivante en temps réel a profondément transformé notre conception du vivant. En effet l’étude dynamique des processus cellulaires est une approche puissante car elle augmente la résolution spatiotemporelle au niveau de la cellule unique. Les évènements ne sont plus cloisonnés dans des fenêtres spatiales et temporelles déterminées par biochimie, mais sont liées les uns aux autres par la visualisation simultanée de différents évènements à l’échelle de la cellule. Cela permet de déterminer une séquence d’évènements moléculaires: localisation, activité, interaction, changement de conformation, en lien avec le phénotype et une fonction cellulaire. Couplées à des techniques d’imagerie fonctionnelles, ces approches apportent des données quantitatives et qualitatives permettant de mieux comprendre un processus dans son ensemble. Ce mémoire présente notre axe de recherche et fait état de la mise en place d’une vision intégrée du « biosensing » des processus cellulaires in cellulo et in vivo et de l’approche méthodologique transversale associée au travers de trois projets de recherche distincts portant sur les processus d’adhérence, de prolifération et de mort cellulaire.

La ville morcelée : Effets de coupure en milieu urbain

/ Héran Frédéric / Université Lille1 - Sciences et Technologies / 09-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les villes sont aujourd’hui sillonnées par de nombreuses infrastructures de transport et encombrées de grandes emprises infranchissables qui découpent leur territoire en autant d’entités plus ou moins isolées, les rendant quasi inaccessibles à pied ou à bicyclette et compliquant leur desserte par les transports publics, renforçant ainsi la dépendance automobile des usagers des lieux, qu’il s’agisse d’habitants, de salariés ou de clients. Si une entité ainsi enclavée est suffisamment grande pour contenir une diversité de destinations de proximité – logements, écoles, commerces, services… – une certaine vie locale peut malgré tout s’y développer. Si, en revanche, sa taille est restreinte ou ses fonctions urbaines réduites jusqu’à devenir monofonctionnelle, l’enclavement devient problématique. Les relations de voisinage s’atrophient et il n’est plus possible de se déplacer autrement qu’en voiture. Dans un contexte de rareté croissante des ressources, cette dépendance est une source actuelle et potentielle de difficultés pour les populations concernées. Une coupure urbaine peut donc être définie comme une emprise dont la taille ou ce qu’elle accueille perturbent les relations entre les populations alentour. L’effet de coupure est clairement une nuisance, au même titre que le bruit ou la pollution, car c’est une externalité négative infligée sans contreparties par des émetteurs – les usagers motorisés en véhicules individuels ou collectifs qui circulent sur ces infrastructures – à des récepteurs – les usagers non motorisés, piétons et cyclistes, mais aussi les services de distribution, de desserte et d’urgence –, engendrant des gagnants et des perdants, qui peuvent l’être tour à tour selon leur choix modal. Le mémoire présente l’évolution des réflexions sur le sujet dans le monde depuis plus de cinquante ans, précise quels sont les publics les plus concernés, propose une typologie des coupures urbaines, montre le rôle particulier de la vitesse dans leur genèse, élabore ce que pourraient être les principes de cartographie des coupures, analyse le cas particulier des barrières de trafic, ex¬plique les limites de la monétarisation, explore les différentes solutions de traitement des coupures et montre que seule une approche intégrée de la voie et de la ville est vraiment pertinente.

Cryptosporidium, de la diversité génétique à la pathogénicité

/ Certad Gabriela / Université Lille1 - Sciences et Technologies / 09-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les espèces du genre Cryptosporidium sont la cause d’une zoonose cosmopolite, la cryptosporidiose, une maladie opportuniste émergente ayant un impact considérable chez les patients immunodéprimés pour lesquels la cryptosporidiose peut devenir chronique voire létale. Dans le cadre de nos travaux de recherche, un modèle murin reproductible de cryptosporidiose a été développé permettant de clarifier la physiopathologie et la dynamique d’infection de Cryptosporidium. Ce modèle a été établi à l’aide de souris SCID (Severe Combined Immunodeficiency) placées sous dexaméthasone (SCID-D). Le fait le plus marquant de ce travail a été la découverte chez les animaux inoculés avec l’espèce zoonotique C. parvum, du développement d’adénocarcinomes digestifs invasifs. De plus, nous avons mis en évidence une variabilité importante de la pathogénicité du parasite en fonction des espèces de Cryptosporidium et des isolats de C. parvum infectant les souris. D’autre part, une corrélation entre l’importance du processus néoplasique et le taux d’infection a été établie. Plus récemment, nous avons également pu démontrer qu’un seul oocyste de C. parvum suffisait à infecter de manière durable la souris SCID-D et à induire les lésions néoplasiques invasives. Enfin, deux voies métaboliques potentiellement impliquées dans ces changements néoplasiques ont été explorées. Des analyses immunohistochimiques ont été menées dans les régions iléo-caecales à l’aide des marqueurs de cancer P53, APC et β-caténine. Pour tous ces marqueurs, des marquages cytoplasmiques anormaux ont été mis en évidence dans les cellules épithéliales néoplasiques. Ces observations suggèrent que les voies métaboliques Wnt et P53, altérées dans les cancers colorectaux humains, sont impliquées dans le développement néoplasique induit par C. parvum chez la souris. La découverte de la capacité de C. parvum à induire des processus néoplasiques chez la souris SCID, constitue la première observation de cancer épithélial induit par un protiste.

Risques, incertitudes et flexibilité du processus de décision et de planification des projets d’infrastructure de transport

/ Zembri-Mary Geneviève / Université Lille1 - Sciences et Technologies / 08-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les risques et les incertitudes caractérisent la planification et la réalisation des grands projets d’infrastructures, qui sont par nature des projets de longue haleine. Ces incertitudes et ces risques peuvent être sociaux, politiques, financiers, institutionnels, environnementaux, etc. Une sensibilité croissante au respect de l’environnement humain et naturel des projets, des changements réglementaires, la crise économique actuelle, qui n’assure plus un recours aisé au financement public et l’usage du financement privé des projets, piloté par des banques soucieuses de leur retour sur investissement, mettent la question des risques et des incertitudes au cœur du processus de décision, de planification et de conduite des projets d’infrastructures. Cette HDR propose d’analyser les modalités d’une planification des grands projets confrontés à des risques et des incertitudes. La planification actuelle semble flexible et adaptable à des événements imprévus, à des changements de contexte ou de position des acteurs et en même temps robuste par le recours à des pratiques d’anticipation et de management des risques, à des procédures (comme la concertation) et à la contractualisation. D’un point de vue opérationnel, l’HDR analyse en quoi ces pratiques des acteurs (élus, maîtrise d’ouvrage publique et privée, associations, Etat, riverains, citoyens) permettent de limiter le risque et l’incertitude et en donne les limites. Notamment, ces pratiques génèrent-elles de nouveaux risques ? D’un point de vue théorique, l’HDR montre en quoi ces pratiques permettent d’envisager une mutation du modèle de planification de référence, le modèle collaboratif.

Contribution à l’étude de la rotation résonnante dans le système solaire

/ Noyelles Benoît / Université Lille1 - Sciences et Technologies / 08-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Cette thèse d'Habilitation à Diriger des Recherches est consacrée à l'étude de la rotation de satellites naturels des planètes géantes et de Mercure. Ces corps ont la particularité d'avoir une rotation résonnante. En effet, la plupart des satellites naturels ont une rotation synchrone, présentant toujours le même hémisphère à leur planète parente (résonance 1:1). De son côté, Mercure présente la particularité d'avoir une vitesse de rotation égale à exactement 1.5 fois sa vitesse angulaire de révolution autour du Soleil (résonance 3:2). Ces 2 cas sont des configurations d'équilibre dynamique atteintes après amortissement de la rotation initiale. On peut alors montrer que l'état de rotation de ces objets est une signature de leur intérieur, révélant notamment la présence ou non d'une couche liquide globale. Ce manuscrit est composé de 3 parties. La première est consacrée à la résonance synchrone, j'en profite pour présenter des modèles de rotation de plus en plus complexes. Les corps sont d'abord considérés comme constitués d'une couche rigide, puis un noyau fluide ellipsoïdal est introduit, avant d'ajouter une graine, rigide, au centre de ce corps. Les modèles sont le plus souvent Hamiltoniens, considèrent tous les degrés de liberté simultanément, et sont traités aussi bien de façon analytique que numérique. J'applique ces modèles à Titan, Callisto, Janus, Épiméthée, Mimas, Hypérion, et Io. Dans une deuxième partie, j'applique ces méthodes à Mercure, en pleine actualité puisque cible des missions MESSENGER et BepiColombo. J'explique de plus comment Mercure a été capturée en résonance spin-orbite 3:2. La troisième partie, plus courte, est consacrée à un outil mathématique que j'ai élaboré pour traiter ces problèmes.

Centrer l’ingénierie dirigée par les modèles sur l’humain

/ Le Pallec Xavier / Université Lille1 - Sciences et Technologies / 05-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
L’ingénierie Dirigée par les Modèles (IDM) est une démarche conception logicielle apparue au début des années 2000 qui prône des chaînes de conception/développement où les modèles sont les principaux ingrédients. La majorité des travaux scientifiques liée à l’IDM portent sur les opérateurs de composition / transformation de modèles, de création de langages spécifiques et de génération de code. J’ai, pour ma part, concentrer mes travaux sur l’utilisabilité de ces opérateurs et sur l’activité de modélisation telle qu’elle a lieu en IDM. Cette HDR présente les différentes contributions que j’ai pu apporter pour cette problématique. Trois aspects principaux ont été étudiés pendant mes onze années de recherche. Le premier concerne le mapping vertical, en particulier son problème de traçabilité mais aussi son inadaptation à certaines projections technologiques. Le second concerne l’activité de modélisation au travers des assistants de modélisation, de la réutilisation d’éléments de diagrammes et de la modélisation collaborative. Enfin la troisième se focalise sur les notations visuelles et leur efficacité cognitive.

Élements de conception de systèmes embarqués fortement contraints

/ Hauspie Michaël / Université Lille1 - Sciences et Technologies / 04-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Au cours des dernières années, les systèmes embarqués sont de plus en plus présents dans notre vie de tous les jours. Ils sont dans notre portefeuille, dans notre voiture ou dans nos appareils ménagers. La tendance actuelle est à contrôler de plus en plus d'objets à l'aide de ces systèmes. Les grands acteurs de l'industrie ont déjà commencé à envisager le futur de l'internet, l'internet des objets. Dans les années à venir, de plus en plus de nos objets seront « intelligents », connectés... et sujets à des fautes logicielles. Les micro contrôleurs, de minuscules ordinateurs possédant quelques centaines d'octets de mémoire, sont au coeur de cette révolution. Ils deviennent de moins en moins cher et de plus en plus puissant. Néanmoins, à la différence de nos ordinateurs de bureau ou des serveurs, le but de l'industrie des micro contrôleurs n'est pas la puissance. En effet, contrôler la température de notre maison et le taux d'humidité de notre cave à vin ne nécessite pas des processeurs cadencés à plusieurs gigahertz. Cela ne nécessite même pas plusieurs coeurs de calculs. Le véritable besoin de ces équipements est d'être bons marché, d'être produits en très grands volumes, d'êtres petits, facilement intégrables et d'utiliser une faible quantité d'énergie électrique. Le meilleur exemple de cette tendance est très certainement la carte à puce. Depuis le début des années 90, de plus en plus de cartes à puce sont produites, vendues et utilisées dans le monde. Cependant, elles n'en restent pas moins de tout petits équipements d'une puissance inférieure de plusieurs ordres de grandeur de nos ordinateurs de bureau. Quand il s'agit de développer du logiciel pour ces équipements, un développeur débutant n'est généralement pas suffisamment préparé et ne sera pas capable d'écrire du logiciel efficace pour ces cibles avant de longue années passées à gagner de l'expérience et de l'expertise. Si le logiciel que l'ont souhaite produire doit être efficace, sûr et correct au sens le plus strict du terme, l'industrie doit compter sur des développeurs très spécialisés, expérimentés et donc chers. Les acteurs industriels ont donc deux alternatives : produire du logiciel bon marché, mais assez inefficace et défectueux ou dépenser une somme importante pour le développement et fournir un logiciel de bonne qualité. On peu aisément supposer que la tendance actuelle est au logiciel bon marché, et que la probabilité que le logiciel qui équipera les millions d'équipements formant l'internet des objets sera de piètre qualité et offrira quantité de failles que des acteurs malveillants se feront une joie d'exploiter si rien n'est fait pour rendre bon marché le développement correct de logiciels embarqués. [...]

Etudes des interactions liquide / surface structurée et dispositifs d'électromouillage pour des applications de type laboratoire sur puce

/ Thomy Vincent / Université Lille1 - Sciences et Technologies / 02-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les travaux présentés traitent d’une façon générale des surfaces structurées super non-mouillantes et de leurs remarquables propriétés de déperlance et de résistance à l’adsorption non-spécifiques de biomolécules. Dans ce cadre les problématiques abordées concernent la question du mouillage et de l’électromouillage sur ces mêmes surfaces, ainsi que de leur intégration dans des dispositifs microfluidiques en vue d’obtenir des laboratoires sur puce. Après avoir rappelé le contexte et les motivations de mes recherches, je discuterai dans une première partie des différents modèles de mouillage sur surfaces super non-mouillantes. Je présenterai les limitations des approches classiques développées par Cassie-Baxter et Wenzel qui sont basées sur des modèles 2D. J’introduirai un modèle appelé ‘Cassie différentiel’ plus à même de décrire la complexité de l’interaction entre liquide et surface structurée. A partir des surfaces super non-mouillantes que nous avons conçues, réalisées et caractérisées, je détaillerai comment ce dernier modèle nous a permis d’une part, de mettre en avant un phénomène de saturation de l’hystérésis de mouillage pour des liquides présentant une tension de surface décroissante et d’autre part, de justifier l’apparition de dépôts de nano-volumes de liquide aux sommets des rugosités de surface lors du glissement de gouttes. Dans une seconde partie je présenterai la technique d’électromouillage sur diélectrique et en particulier mes travaux concernant la modification d’angle de contact d’une goutte déposée sur des surfaces superhydrophobes présentant des rugosités multi-échelles (micro / nanométriques). En fonction du type de surface testée, nous avons pu caractériser des états de Wenzel, semi Wenzel ou Cassie. Je discuterai en particulier des résultats pionniers obtenus à partir de surfaces recouvertes de nanofils de silicium (croissance par méthode CVD suivi d’un dépôt plasma de fluoropolymère) qui amènent à une modification réversible de l’angle de contact sous électromouillage (état de Cassie permanent). En complément de l’utilisation de ces surfaces texturées, j’exposerai une solution alternative et originale pour limiter l’adsorption non spécifique de biomolécules : des nanofeuillets d’oxyde de graphène adsorbent des protéines sur leur surface tout en restant en solution. Je détaillerai en particulier l’influence de ces nanofeuillets sur les propriétés de mouillage et d’électromouillage de goutte contenant des protéines. Dans une troisième partie je traiterai de l’intégration des deux solutions étudiées précédemment (surfaces superhydrophobes et nanofeuillets d’oxyde de graphène) dans des dispositifs de microfluidique digitale à base d’électromouillage. Leur couplage à des outils d’analyse (spectrométrie de masse) et de détection (SPR) nous a permis de développer des preuves de concept de laboratoire sur puce. [...]

Shape Analysis of 3D Human Faces and Applications

/ Ben Amor Boulbaba / Université Lille1 - Sciences et Technologies / 02-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
En Vision par ordinateur, les caractéristiques visuelles issues des images, sont souvent représentées dans des espaces vectoriels (linéaires) et plus particulièrement Euclidiens. Cependant, les formes des objets (courbes ou surfaces) vivent dans des espaces de structures non-linéaires, appelés aussi espaces courbes. D.G. Kendall définit la forme par l'information géométrique qui reste lorsque les effets de translation, d'échelle et de rotation sont filtrés. L'analyse de formes continues nécessite en plus de s'en passer de ces transformations, l'invariance aux paramétrisations. Plus formellement, une forme est définie par sa classe d'équivalence, c'est-à-dire un espace quotient de préformes par les groupes de transformations (groupe de rotations et groupe de difféomorphismes), une fois l'invariance à l'échelle et à la translation traitée. Une approche émergente qui mobilise de plus en plus de chercheurs de différents horizons – des géomètres en dimension infinie, informaticiens spécialistes en vision par ordinateur ainsi que des statisticiens – considère l'espace des formes comme une variété Riemannienne sur laquelle il est possible d'avoir recours aux outils classiques de la géométrie différentielle. Mes travaux de recherche rejoignent les efforts de cette communauté. Je me suis intéressé plus particulièrement à l'analyse de formes faciales et à leurs dynamiques avec une approche basée sur l'information tridimensionnelle (3-D). Le passage à la 3-D a suscité l'intérêt d'une bonne partie de la communauté vue les problèmes inhérents à l'analyse 2-D comme les variations de la pose et de l'illumination. Cet intérêt est d'autant plus important avec le développement et la démocratisation de caméras capables de fournir la profondeur en chaque point visible de la scène, produisant ainsi des nuages de points ou encore des maillages 3-D. Cependant, dans le contexte de l’analyse faciale, les déformations dues aux expressions faciales ainsi que les données manquantes causées par les occultations constituent des défis scientifiques à résoudre afin d'apporter des solutions robustes et efficaces. Les problèmes fondamentaux que j'ai abordés dans mes travaux sont les suivants, (1) Comment quantifier les déformations des surfaces faciales modulo des transformations rigides et non-rigides ? (2) Comment mettre en correspondance des surfaces faciales? (3) Quelles sont les métriques adéquates de point de vue mathématique et efficaces de point de vue algorithmique pour comparer des surfaces faciales ? (3) Comment calculer des statistiques sur des ensembles de surfaces?, et (4) Peut-on apprendre des caractéristiques géométriques pertinentes pour des tâches de reconnaissance et de classification ? [...]

Analyses atmosphériques par mesures infrarouges à haute résolution spectrale

/ Herbin Hervé / Université Lille1 - Sciences et Technologies / 01-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
De par ses nombreuses implications sur le climat, la météorologie ou la santé, l’étude de la composition de l’atmosphère terrestre est désormais un domaine de recherche d’envergure, qui la place au cœur des enjeux sociétaux. En effet, l’impact de l’activité humaine est avéré et se traduit notamment à l’échelle locale par l’émission de polluants gazeux et particulaires qui détériorent la qualité de l’air, et de façon globale par l’augmentation des concentrations des gaz à effet de serre. La surveillance de l’atmosphère et de son évolution requiert la combinaison d’observations in-situ, ou à distance que ce soit par avions, ballons ou satellites. Ces dernières reposent sur la compréhension, la modélisation et l’analyse de l’interaction rayonnement-matière. Ainsi, la présentation de mes activités sur ce thème sera l’occasion de parcourir différents domaines de recherche théoriques ou expérimentaux, ayant tous en commun la Spectroscopie Infrarouge à Haute Résolution Spectrale. Largement utilisée comme technique d’analyse dans diverses expériences de physique, de chimie ou de biologie, cette dernière apparait également comme un puissant outil de diagnostic de l’atmosphère. D’abord cantonnée aux études de laboratoire, la SIHRS a connu depuis une vingtaine d’année un essor considérable en télédétection aussi bien depuis le sol que depuis l’espace. Aussi, nous aborderons ici trois aspects différents, mais complémentaires de l’exploitation des mesures infrarouges. Au laboratoire, tout d’abord, nous présenterons d’une part, la mise en œuvre de méthodes expérimentales de détection sélective et ultrasensible, ainsi que l’analyse de spectres afin de déterminer les paramètres moléculaires (positions, largeurs de raies et constantes ro-vibrationnelles) d’espèces gazeuse de courte durée de vie. D’autre part, nous proposerons le développement d’une méthode de détermination des propriétés optiques des aérosols. Dans une seconde partie, nous détaillerons les travaux réalisés en modélisation du transfert radiatif et en particulier les algorithmes sophistiqués qui ont été mis au point pour l’exploitation des mesures satellitaires (IMG, ACE-fts, IASI, TANSO-fts, IASI-NG), dans le but de restituer la composition gazeuse et particulaire de l’atmosphère, ainsi que leurs applications à l’étude des gaz traces (e.g. CH3OH, C2H4, HCOOH, PAN, SO2), des aérosols d’origines désertique et volcanique ou encore de la vapeur d’eau. Enfin, nous présenterons un prototype instrumental destiné aux campagnes de mesures, dont les caractéristiques devraient permettre d’étendre l’utilisation de la SIHRS aux études locales dans les basses couches atmosphériques. D’une manière générale, les travaux qui font l’objet de cette présentation ont participé à la démonstration de l’intérêt de la SIHRS pour les mesures atmosphériques et les observations satellitaires en particulier, dont la quantité et la qualité sont en progrès constant et qui serviront de base à mes projets de recherches futures.

Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10