• 39 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Editeur Auteur Titre

Biosensing of cellular processes in cellulo and in vivo

/ Riquet Franck / Université Lille1 - Sciences et Technologies / 12-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Bien que les méthodes traditionnelles fournissent des indications précieuses dans la compréhension de nombreux processus biologiques, la possibilité aujourd’hui de suivre un événement biologique spécifique dans une cellule vivante en temps réel a profondément transformé notre conception du vivant. En effet l’étude dynamique des processus cellulaires est une approche puissante car elle augmente la résolution spatiotemporelle au niveau de la cellule unique. Les évènements ne sont plus cloisonnés dans des fenêtres spatiales et temporelles déterminées par biochimie, mais sont liées les uns aux autres par la visualisation simultanée de différents évènements à l’échelle de la cellule. Cela permet de déterminer une séquence d’évènements moléculaires: localisation, activité, interaction, changement de conformation, en lien avec le phénotype et une fonction cellulaire. Couplées à des techniques d’imagerie fonctionnelles, ces approches apportent des données quantitatives et qualitatives permettant de mieux comprendre un processus dans son ensemble. Ce mémoire présente notre axe de recherche et fait état de la mise en place d’une vision intégrée du « biosensing » des processus cellulaires in cellulo et in vivo et de l’approche méthodologique transversale associée au travers de trois projets de recherche distincts portant sur les processus d’adhérence, de prolifération et de mort cellulaire.

Contributions to the development of polymer nanocomposites : assessment of physical, rheological and mechanical performance

/ Prashantha bKalappa / Université Lille1 - Sciences et Technologies / 16-10-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Ce mémoire présente les travaux de recherche menés sur le développement et la caractérisation de nanocomposites à matrice polymère. L’objectif général est d’identifier et d’étudier les relations entre les procédés d’élaboration, la structure et les proprieties finales de ces matériaux. Dans ce contexte, sont tout d’abord presentés les travaux concernant le développement de membranes en nanocomposites polymères pour piles à combustible. Des membranes à base de nanocharges de dioxyde de titane et de polymères sulfonées ont été préparées et leurs performances ont été évaluées. Une seconde partie des travaux porte sur la dégradation de nanotubes de carbone multi-parois et leur état de dispersion dans une matrice polymère. De nombreux travaux traitant de l’élaboration et de la caractérisation de nanocomposites multifonctionnels à base de nanotubes de carbone et d’halloysite, dispersés dans une grande variété de matrices thermoplastiques sont présentés. Une attention particulière est portée sur l’optimisation des procédés et l’évaluation des propriétés physiques, rhéologiques et mécaniques de ces matériaux. Les travaux réalisés montrent que le contrôle de la dispersion des nanocharges dans la matrice polymère joue un rôle majeur sur les propriétés finales de ces matériaux. De plus, dans l’optique de proposer de matériaux respectueux de l’environnement, des bio-nanocomposites à base d’amidon et de nanotubes d’halloysite ont édé développés. L’influence de différents plastifiants et types de nanotubes sur la structure et les propriétés mécaniques de l’amidon thermoplastique a été analysée en détail. Le potentiel de ces bionanocomposites en tant que systèmes de délivrance de médicament a été évalué. L’élaboration de nanocomposites poreux à base d’amidon plastifié et de nanotubes d’halloysite a également été considéré, pour des applications biomédicales.

Sample complexity in sequential decision-making

/ Ghavamzadeh Mohammad / Université Lille1 - Sciences et Technologies / 11-06-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
De nombreux problèmes intéressants de prise de décision séquentielle peuvent être formulés comme des problèmes d’apprentissage par renforcement. En apprentissage par renforcement, un agent interagit avec un environnement dynamique, stochastique et qu’il ne connaît que partiellement, dans le but de trouver une stratégie de prise d’actions, ou politique, qui maximise une certaine mesure de performance à long terme. Les algorithmes de programmation dynamique sont les outils les plus puissants pour résoudre les problèmes d’apprentissage par renforcement, c’est à dire pour trouver la politique optimale. Cependant, pour ces algorithmes, la découverte du comportement décisionnel optimal n’est garantie que si l’environnement (à savoir, la dynamique de l’état du système et les récompenses) est connu de manière complète et que les espaces d’état et d’action ne sont pas de trop grandes tailles. Lorsque l’une de ces conditions se trouve violée (par exemple si l’unique information disponible sur l’environnement prend la forme d’échantillons de transitions et de récompenses), des algorithmes d’approximation sont requis, et dès lors, les méthodes de programmation dynamique se convertissent en méthodes de programmation dynamique approchée et en algorithmes d’apprentissage par renforcement. La théorie de l’apprentissage statistique est fondamentale pour l’étude des propriétés statistiques des algorithmes développés en apprentissage automatique. En particulier, apprentissage statistique décrit l’interaction entre le processus générant les échantillons et l’espace d’hypothèse utilisé par l’algorithme d’apprentissage, et établit à quelles conditions et dans quelles mesures les problèmes de régression et de classification peuvent être résolus. Ces résultats ont aussi montré leur utilité pour dimensionner les problèmes d’apprentissage automatique (nombre d’échantillons, complexité de l’espace d’hypothèse) et pour ajuster les paramètres des algorithmes (par exemple le paramètre de régularisation des méthodes de régularisation). L’objet principal de ce travail est d’employer les outils de l’apprentissage statistique afin d’étudier les performances des algorithmes d’apprentissage par renforcement hors ligne et de programmation dynamique approchée pour aboutir à des bornes en échantillons finis sur la perte en performance (par rapport à la politique optimale) de la politique apprise par ces algorithmes. Un tel objectif demande de combiner efficacement des outils de l’apprentissage statistique avec les algorithmes de programmation dynamique approchée, et de montrer comment l’erreur se propage d’itération en itération chez ces algorithmes itératifs. Nous considérons différents types d’algorithmes de programmation dynamique approchée : basés soit sur une régression, une classification ou une méthode de point fixe, et, pour chacun, nous soulignons les principaux défis que posent leurs analyses en échantillons finis.

Shape Analysis of 3D Human Faces and Applications

/ Ben Amor Boulbaba / Université Lille1 - Sciences et Technologies / 02-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
En Vision par ordinateur, les caractéristiques visuelles issues des images, sont souvent représentées dans des espaces vectoriels (linéaires) et plus particulièrement Euclidiens. Cependant, les formes des objets (courbes ou surfaces) vivent dans des espaces de structures non-linéaires, appelés aussi espaces courbes. D.G. Kendall définit la forme par l'information géométrique qui reste lorsque les effets de translation, d'échelle et de rotation sont filtrés. L'analyse de formes continues nécessite en plus de s'en passer de ces transformations, l'invariance aux paramétrisations. Plus formellement, une forme est définie par sa classe d'équivalence, c'est-à-dire un espace quotient de préformes par les groupes de transformations (groupe de rotations et groupe de difféomorphismes), une fois l'invariance à l'échelle et à la translation traitée. Une approche émergente qui mobilise de plus en plus de chercheurs de différents horizons – des géomètres en dimension infinie, informaticiens spécialistes en vision par ordinateur ainsi que des statisticiens – considère l'espace des formes comme une variété Riemannienne sur laquelle il est possible d'avoir recours aux outils classiques de la géométrie différentielle. Mes travaux de recherche rejoignent les efforts de cette communauté. Je me suis intéressé plus particulièrement à l'analyse de formes faciales et à leurs dynamiques avec une approche basée sur l'information tridimensionnelle (3-D). Le passage à la 3-D a suscité l'intérêt d'une bonne partie de la communauté vue les problèmes inhérents à l'analyse 2-D comme les variations de la pose et de l'illumination. Cet intérêt est d'autant plus important avec le développement et la démocratisation de caméras capables de fournir la profondeur en chaque point visible de la scène, produisant ainsi des nuages de points ou encore des maillages 3-D. Cependant, dans le contexte de l’analyse faciale, les déformations dues aux expressions faciales ainsi que les données manquantes causées par les occultations constituent des défis scientifiques à résoudre afin d'apporter des solutions robustes et efficaces. Les problèmes fondamentaux que j'ai abordés dans mes travaux sont les suivants, (1) Comment quantifier les déformations des surfaces faciales modulo des transformations rigides et non-rigides ? (2) Comment mettre en correspondance des surfaces faciales? (3) Quelles sont les métriques adéquates de point de vue mathématique et efficaces de point de vue algorithmique pour comparer des surfaces faciales ? (3) Comment calculer des statistiques sur des ensembles de surfaces?, et (4) Peut-on apprendre des caractéristiques géométriques pertinentes pour des tâches de reconnaissance et de classification ? [...]

Supporting Software Evolution in the Organizations

/ Anquetil Nicolas / Université Lille1 - Sciences et Technologies / 09-05-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les systèmes logiciels font maintenant partie intrinsèque de nos vies à tel point que nous ne les voyons plus. Ils pilotent nos téléphones, nos voitures, nos loisirs, nos banques, nos magasins, nos villes, … Cela apporte de lourdes contraintes à l'industrie du logiciel car tous ces systèmes doivent être continuellement mis à jour, corrigés, étendus quand les utilisateurs et consommateurs expriment de nouveaux besoins. Le résultat en est que la plus grande part de l'activité de génie logiciel peut être classifié comme de la Maintenance Logicielle, « La totalité des activités requises pour fournir un support efficient d'un système logiciel ». Dans un écosystème où la puissance de calcul des ordinateurs, ou beaucoup d'autres métriques reliées comme la capacité des disques, ou le débit des réseaux, double tous les 18 mois (« loi de Moore »), les technologies évoluent rapidement. Dans cet écosystème la maintenance logiciel souffre de l'inconvénient de devoir traiter le passé (langages du passé, systèmes existants, vielles technologies). Elle est souvent mal perçue et traitée comme une punition. À cause de cela, les solutions et les outils pour la maintenance logicielle sont depuis toujours très en retard sur ceux pour le développement. Par exemple, l'antique méthode de correction de problème consistant à insérer des instructions pour retracer et comprendre le flot d'exécution d'un programme est toujours complètement actuelle. Toute mon activité de recherche s'est concentrée à aider les gens à faire de la maintenance logicielle dans de meilleures conditions ou plus efficacement. Une approche holistique du problème doit considérer le logiciel qui doit être maintenu, les gens qui le font et les organisations dans lesquelles et pour lesquelles cela est fait. Pour cela, j'ai étudié différents aspects du problème qui seront présentés en trois parties dans ce document : Le Logiciel : Le code source est la pièce centrale de l'activité de maintenance logicielle. Quelque soit la tâche (ex : amélioration ou correction d'erreur), elle revient typiquement à comprendre le code source actuel pour trouver quoi changer et/ou ajouter pour obtenir le comportement souhaité. J'ai étudié comment contrôler l'évolution du code source, comment prévenir son délitement et comment remédier à des mauvaises situations ; les Gens : L'un des principaux avantages des personnes qui traitent de maintenance logicielle est les connaissances qu'elles ont de l'informatique (techniques de programmation), du domaine d'application, du logiciel lui-même. Il est très significatif que de 40 % à 60 % du temps de maintenance logicielle soit passé à lire le code pour comprendre ce qu'il fait, comment il le fait et comment il peut-être changé ; les Organisations : Elles peuvent avoir un profond impact sur la façon dont des activités comme la maintenance logicielle sont exécutées par les individus. [...]

Watermarking security: fundamentals, secure design, and attacks

/ Bas Patrick / Université Lille1 - Sciences et Technologies / 23-01-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Ce mémoire vise à présenter mes activités de recherche liées à la problématique de sécurité de tatouage. Il s'accompagne également d'une présentation rapide de mes responsabilités liées à l'organisation d'événements scientifiques, aux tâches éditoriales, ou encore à l'enseignement. Si le tatouage consiste en l'insertion d'une information imperceptible et indélébile dans un contenu hôte, la sûreté de l'insertion est aussi de première importance. Une insertion sûre permet en effet d'assurer qu'il est impossible à un adversaire d'avoir accès à l'information de tatouage, ou encore de l'effacer sans également détruire le document hôte. Après une introduction générale définissant notamment la méthodologie qu'il convient d'adopter pour appréhender cette problématique, le second chapitre présente les méthodes de tatouage les plus utilisées dans la littérature (les méthodes par étalement de spectre et les méthodes de codage informées). Le troisième chapitre décrit comment distinguer différentes classes de sécurité telles que la clé-sécurité ou la sous-espace sécurité, mais aussi comment mesurer la sécurité d'une méthode de tatouage via le calcul de la taille de la clé associée à un schéma donné. Le chapitre suivant présente différentes méthodes d'insertion qui se veulent sûres, c'est à dire des méthodes où l'adversaire est dans l'impossibilité d'avoir un accès à l'information insérée sans la connaissance de la clé secrète. Ces méthodes contraignent la distribution du contenu tatoué et nous présentons notamment des solutions permettant de minimiser la distorsion d'insertion dans ce cas-ci. Le cinquième chapitre présente un panorama d'attaques cherchant à estimer la clé utilisée lors de l'insertion et permettant de mettre à mal la sécurité des schémas de tatouage présentés dans le second chapitre. Enfin le dernier chapitre présente son lot de conclusions mais aussi de questions restées jusqu'à présent ouvertes.

(Dés)équilibres dans les minéraux, les liquides et les amorphes : transitions de phases, cinétique et partages isotopiques

/ Roskosz Mathieu / Université Lille1 - Sciences et Technologies / 14-04-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
La notion d’équilibre, qu’il s’agisse d’un équilibre de phase, d’une transformation ou d’un partage à l’équilibre, est essentielle en sciences de la Terre comme en sciences de la matière. Ainsi, notre capacité à décrire l’accrétion et la différenciation des planètes repose essentiellement sur la connaissance des propriétés des minéraux à l’équilibre. A tous les niveaux d’organisation, de la maille cristalline aux interactions entre grands réservoirs planétaires, nous nous référons avant tout à des comportements à l’équilibre pour interpréter les observables auxquels nous avons accès. Pourtant, des premiers solides formés dans le disque circumstellaire aux laves recouvrant aujourd’hui les pentes de nombreux volcans, les indices de déséquilibre sont fréquents. Souvent négligés, ils sont néanmoins des sources de complexification des modèles. En quelque sorte, ils nous semblent brouiller une image qui sans eux pourrait être nette et élégante. Dans ce mémoire d’habilitation à diriger les recherches, je montre que les marqueurs de déséquilibre dans les minéraux apportent au contraire une multitude de contraintes que les données d’équilibre ne nous permettent pas d’entrevoir. La démarche suivie pour étudier leur origine et les raisons qui les amènent à perdurer dans les enregistrements minéralogiques est expérimentale. Deux axes majeurs sont abordés : les déséquilibres minéralogiques et leurs applications aux environnements astrophysiques d’une part, la détermination des partages isotopiques à l’équilibre et hors-équilibre en conditions magmatiques de l’autre. A priori éloignés l’un de l’autre, ces thèmes découlent en fait d’une même question : comment un système minéralogique déséquilibré tend-il vers un nouvel équilibre ? Dans les deux cas, un jeu complexe entre mobilité globale et locale est à l’oeuvre ; les découplages de mobilité entre atomes d’un même matériau, entre isotopes d’un même élément ne peuvent pas être négligés loin de l’équilibre thermodynamique et chimique. Loin de voiler nos modèles, ces marqueurs sont amenés à devenir à la fois des outils de diagnostic d’une minéralogie/pétrologie moderne et des moyens d’accès privilégiés aux durées ou aux régimes thermiques ayant présidé à la formation de nombreux matériaux naturels. Finalement, c’est peut-être dans ces processus hors-équilibre qu’il faudra aller chercher l’origine de certaines signatures minéralogiques et géochimiques de premier ordre.

Analyses atmosphériques par mesures infrarouges à haute résolution spectrale

/ Herbin Hervé / Université Lille1 - Sciences et Technologies / 01-12-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
De par ses nombreuses implications sur le climat, la météorologie ou la santé, l’étude de la composition de l’atmosphère terrestre est désormais un domaine de recherche d’envergure, qui la place au cœur des enjeux sociétaux. En effet, l’impact de l’activité humaine est avéré et se traduit notamment à l’échelle locale par l’émission de polluants gazeux et particulaires qui détériorent la qualité de l’air, et de façon globale par l’augmentation des concentrations des gaz à effet de serre. La surveillance de l’atmosphère et de son évolution requiert la combinaison d’observations in-situ, ou à distance que ce soit par avions, ballons ou satellites. Ces dernières reposent sur la compréhension, la modélisation et l’analyse de l’interaction rayonnement-matière. Ainsi, la présentation de mes activités sur ce thème sera l’occasion de parcourir différents domaines de recherche théoriques ou expérimentaux, ayant tous en commun la Spectroscopie Infrarouge à Haute Résolution Spectrale. Largement utilisée comme technique d’analyse dans diverses expériences de physique, de chimie ou de biologie, cette dernière apparait également comme un puissant outil de diagnostic de l’atmosphère. D’abord cantonnée aux études de laboratoire, la SIHRS a connu depuis une vingtaine d’année un essor considérable en télédétection aussi bien depuis le sol que depuis l’espace. Aussi, nous aborderons ici trois aspects différents, mais complémentaires de l’exploitation des mesures infrarouges. Au laboratoire, tout d’abord, nous présenterons d’une part, la mise en œuvre de méthodes expérimentales de détection sélective et ultrasensible, ainsi que l’analyse de spectres afin de déterminer les paramètres moléculaires (positions, largeurs de raies et constantes ro-vibrationnelles) d’espèces gazeuse de courte durée de vie. D’autre part, nous proposerons le développement d’une méthode de détermination des propriétés optiques des aérosols. Dans une seconde partie, nous détaillerons les travaux réalisés en modélisation du transfert radiatif et en particulier les algorithmes sophistiqués qui ont été mis au point pour l’exploitation des mesures satellitaires (IMG, ACE-fts, IASI, TANSO-fts, IASI-NG), dans le but de restituer la composition gazeuse et particulaire de l’atmosphère, ainsi que leurs applications à l’étude des gaz traces (e.g. CH3OH, C2H4, HCOOH, PAN, SO2), des aérosols d’origines désertique et volcanique ou encore de la vapeur d’eau. Enfin, nous présenterons un prototype instrumental destiné aux campagnes de mesures, dont les caractéristiques devraient permettre d’étendre l’utilisation de la SIHRS aux études locales dans les basses couches atmosphériques. D’une manière générale, les travaux qui font l’objet de cette présentation ont participé à la démonstration de l’intérêt de la SIHRS pour les mesures atmosphériques et les observations satellitaires en particulier, dont la quantité et la qualité sont en progrès constant et qui serviront de base à mes projets de recherches futures.

Application des outils de la chimie quantique et apport de la spectroscopie de Résonance Paramagnétique Électronique pour la caractérisation structurale et dynamique d'architectures moléculaires

/ Orio Maylis / Université Lille1 - Sciences et Technologies / 26-09-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les travaux qui seront présentés dans le cadre de cette soutenance sont dédiés à l'application des outils de la chimie quantique tels que ceux basés sur la Théorie de la Fonctionnelle de la Densité (DFT) et à l'apport de la spectroscopie de Résonance Paramagnétique Électronique (RPE) pour la caractérisation structurale et dynamique d'architectures moléculaires relevant du domaine de la chimie bio-inorganique. Ces activités de recherche concernent l’étude aussi bien sur le plan théorique que sur le plan expérimental de systèmes à couches ouvertes (composés organiques et inorganiques) pour des applications en biologie, en environnement et en catalyse. L’objectif principal de mes travaux est de déterminer les spécificités structurales (paramètres géométriques et électroniques) et dynamiques (observables magnétiques et spectroscopiques) des entités concernées dans le but de déterminer les conditions optimales pour réaliser les meilleurs systèmes modèles en termes de réactivité et d'activité catalytique. Ces travaux visent également à la mise en place de relations du type «structure-propriété-activité» dont les objectifs sont multiples : prédiction de structures, utilisation comme sonde structurale (dans les enzymes) et conception de nouveaux systèmes (pour la catalyse ou la biochimie). L’utilisation couplée des méthodes théoriques à celles de spectroscopies RPE en ondes continues et impulsionnelles pour les études de systèmes d'un point de vue macroscopique s'avère être une approche pertinente pour identifier des espèces inconnues, rationaliser leurs propriétés moléculaires et définir des corrélations magnéto-structurales. La présentation orale synthétisera l'essentiel des travaux de recherche que j'ai menés depuis mon doctorat et que j'ai poursuivis depuis mon intégration en 2010 au Laboratoire de Spectrochimie Infrarouge et Raman. La première partie présentera les développements méthodologiques qui ont été réalisés pour modéliser et prédire les propriétés magnétiques et spectroscopiques de systèmes polynucléaires à base de métaux de transition. Dans la seconde partie, je détaillerai les différentes études que j'ai effectuées sur des systèmes relevant du domaine de la chimie bio-inorganique. Je montrerai l'intérêt de l'utilisation d'une approche couplant théorie et expérience pour caractériser des systèmes complexes. Dans la troisième et dernière partie, j'aborderai les perspectives et extensions que je compte apporter à ces différents travaux. Je développerai les différents projets qui seront menés par la suite et qui utiliseront aussi cette double approche ainsi que certains des développements méthodologiques.

Canaux Ioniques, Fonctions et Pathologies humaines

/ Vanden Abeele Fabien / Université Lille1 - Sciences et Technologies / 31-10-2014
Voir le résumé | Accéder à la ressource
Voir le résumé
Les canaux ioniques sont des protéines transmembranaires qui assurent le passage des ions au travers des membranes cellulaires et régulent leurs concentrations. Parmi ces ions, le calcium tient une place cruciale car il est le seul ion pouvant jouer le rôle de second messager intracellulaire régulant un grand nombre de processus biologiques. Des perturbations de l’homéostasie calcique sont impliquées dans divers processus physiopathologiques et notamment lors de la progression tumorale. Ainsi, en raison de leur importance biologique, les canaux ioniques constituent aujourd’hui une cible majeure des médicaments actuels et en développements. Dans ce contexte, mon travail de recherche s’est axé sur l’étude de trois familles de protéines formant des canaux ioniques : les protéines TRPs, Pannexines et ORAIs. Pour ces trois familles de canaux, nous avons identifié de nouvelles fonctions cellulaires ayant des implications dans plusieurs pathologies humaines. Les canaux TRP (transient receptor potential) représentent une grande famille qui comprend plus de 50 canaux perméables aux cations, exprimés de la levure à l'homme. Ces canaux sont activés par des mécanismes et des ligands très variés permettant à l'organisme d’intégrer les informations issues du monde extérieur et au niveau cellulaire pour détecter les caractéristiques de l'environnement. Nous avons découvert de nouvelles fonctions et implications dans des pathologies humaines en relation avec les canaux TRPM8 et TRPV1. Concernant TRPM8, nous montrons qu’il est activé directement par les anesthésiques volatiles et impliqué dans des effets secondaires graves, comme la dépression respiratoire et l’hypothermie, rencontrées lors d’une anesthésie générale (Vanden Abeele et al., 2013. J Cel Sci). Nous montrons, en outre, que TRPV1 forme un canal fonctionnel au niveau du réticulum des muscles squelettiques et qu’il peut, lui aussi, être activé par les anesthésiques volatiles. Nous avons identifié chez des patients atteints d’hyperthermie maligne (complication grave de l’anesthésie d’origine génétique) des mutations spécifiques de TRPV1 qui entraînent une altération des réponses calciques des muscles squelettiques en réponse aux anesthésiques. Ces résultats suggèrent un lien fort entre TRPV1 et l’hyperthermie maligne (Vanden Abeele et al, soumis). Enfin, nous avons identifié de nouveaux mécanismes d’activation des canaux TRPM8 et TRPV2 impliquant des lysophospholipides et qui ont permis de mieux comprendre l’implication respective de ces canaux dans la progression tumorale prostatique (Vanden Abeele et al., 2006. J Biol Chem). Le second axe de recherche nous a permis d’étudier une nouvelle famille de protéines, les protéines Pannexines, qui possèdent des caractéristiques structurales communes avec les protéines formant les gap-junctions chez les invertébrés et les vertébrés. [...]

Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10