• 285 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Editeur Auteur Titre

Question sociale, question médicale : la professionnalisation de la prise en charge des personnes sans-domicile en France

/ Schlegel Vianney / Université Lille1 - Sciences et Technologies / 30-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Alors que le nombre de personnes sans-domicile n’a cessé d’augmenter depuis les années 1980, la « question SDF » a fait l’objet d’une réponse sociopolitique de plus en plus spécialisée. Afin d’analyser cette réponse, la thèse étudie la professionnalisation de la prise en charge des personnes sans-domicile en France. Elle s’appuie sur une enquête ethnographique et par entretiens (n=77) réalisée dans divers dispositifs d’accompagnement et de soins : accueil de jour, centre de santé, dispositifs de veille sociale et sanitaire, hébergements médicalisés ou non, réunions et commissions partenariales. Des analyses statistiques et archivistiques complètent l’analyse. L’étude restitue d’abord le rôle déterminant des professionnels de santé dans la formation d’un espace pluridisciplinaire et spécialisé de prise en charge. Elle se focalise ensuite sur le quotidien du travail d’accompagnement et de soin : à travers une division du travail originale, travailleurs sociaux et professionnels de santé sont engagés dans des relations de coopération et de concurrence pour répondre aux problèmes qu’ils ont à traiter. L’analyse se concentre finalement sur les modalités de régulation et d’harmonisation des pratiques et des représentations professionnelles. La formation d’une culture professionnelle commune facilite les échanges et les passages de relais entre professionnels, tout en réaffirmant les domaines de compétences de chacun. Inscrite au croisement de la sociologie des groupes professionnels et de la sociologie des politiques sociales, la thèse montre la multiplicité des mécanismes et des processus à l’œuvre dans la professionnalisation de la prise en charge des sans-domicile. Celle-ci forme une juridiction partagée entre les professionnels du travail social et de la santé qui luttent, coopèrent et se coordonnent selon des modalités et des temporalités diverses pour prendre en charge la question SDF.

Formalisation et étude de problématiques de scoring en risque de crédit : inférence de rejet, discrétisation de variables et interactions, arbres de régression logistique

/ Ehrhardt Adrien / Université Lille1 - Sciences et Technologies / 30-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Cette thèse se place dans le cadre des modèles d’apprentissage automatique de classification binaire. Le cas d’application est le scoring de risque de crédit. En particulier, les méthodes proposées ainsi que les approches existantes sont illustrées par des données réelles de Crédit Agricole Consumer Finance, acteur majeur en Europe du crédit à la consommation, à l’origine de cette thèse grâce à un financement CIFRE. Premièrement, on s’intéresse à la problématique dite de “réintégration des refusés”. L’objectif est de tirer parti des informations collectées sur les clients refusés, donc par définition sans étiquette connue, quant à leur remboursement de crédit. L’enjeu a été de reformuler cette problématique industrielle classique dans un cadre rigoureux, celui de la modélisation pour données manquantes. Cette approche a permis de donner tout d’abord un nouvel éclairage aux méthodes standards de réintégration, et ensuite de conclure qu’aucune d’entre elles n’était réellement à recommander tant que leur modélisation, lacunaire en l’état, interdisait l’emploi de méthodes de choix de modèles statistiques. Une autre problématique industrielle classique correspond à la discrétisation des variables continues et le regroupement des modalités de variables catégorielles avant toute étape de modélisation. La motivation sous-jacente correspond à des raisons à la fois pratiques (interprétabilité) et théoriques (performance de prédiction). Pour effectuer ces quantifications, des heuristiques, souvent manuelles et chronophages, sont cependant utilisées. Nous avons alors reformulé cette pratique courante de perte d’information comme un problème de modélisation à variables latentes, revenant ainsi à une sélection de modèle. Par ailleurs, la combinatoire associée à cet espace de modèles nous a conduit à proposer des stratégies d’exploration, soit basées sur un réseau de neurone avec un gradient stochastique, soit basées sur un algorithme de type EM stochastique. Comme extension du problème précédent, il est également courant d’introduire des interactions entre variables afin, comme toujours, d’améliorer la performance prédictive des modèles. La pratique classiquement répandue est de nouveau manuelle et chronophage, avec des risques accrus étant donnée la surcouche combinatoire que cela engendre. Nous avons alors proposé un algorithme de Metropolis-Hastings permettant de rechercher les meilleures interactions de façon quasi-automatique tout en garantissant de bonnes performances grâce à ses propriétés de convergence standards. La dernière problématique abordée vise de nouveau à formaliser une pratique répandue, consistant à définir le système d’acceptation non pas comme un unique score mais plutôt comme un arbre de scores. Chaque branche de l’arbre est alors relatif à un segment de population particulier. Pour lever la sous-optimalité des méthodes classiques utilisées dans les entreprises, nous proposons une approche globale optimisant le système d’acceptation dans son ensemble. Les résultats empiriques qui en découlent sont particulièrement prometteurs, illustrant ainsi la flexibilité d’un mélange de modélisation paramétrique et non paramétrique. Enfin, nous anticipons sur les futurs verrous qui vont apparaître en Credit Scoring et qui sont pour beaucoup liés la grande dimension (en termes de prédicteurs). En effet, l’industrie financière investit actuellement dans le stockage de données massives et non structurées, dont la prochaine utilisation dans les règles de prédiction devra s’appuyer sur un minimum de garanties théoriques pour espérer atteindre les espoirs de performance prédictive qui ont présidé à cette collecte.

Mécanisme de biosynthèse et production de l’astine, un pentapeptide cyclique non-ribosomique de Cyanodermella asteris

/ Vassaux Antoine / Université Lille1 - Sciences et Technologies, Université de Liège / 24-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
L’astine C est un peptide cyclique assemblé au cours d’un mécanisme nonribosomique par une synthétase dite NRPS (NonRibosomal Peptide Synthetase). Ce peptide nonribosomique possède des propriétés thérapeutiques intéressantes avec notamment des activités anti-tumorale et anti-inflammatoire. Jusqu’ici ce composé était exclusivement extrait à partir des racines d’Aster tataricus, une plante utilisée traditionnellement en médecine japonaise et chinoise. Récemment, une production d’astine C a été mise en évidence chez Cyanodermella asteris, un champignon endophyte de cette plante. Cette découverte ouvre de nouvelles perspectives en matière de production d’astine C, qui reste néanmoins très limitée en raison du faible taux de croissance du champignon endophyte. Au cours de cette étude, deux approches ont été développées parallèlement afin d’augmenter les taux de production de l’astine C. La première stratégie consistait à augmenter les rendements en optimisant la production homologue à partir de C. asteris. Dans cette optique, un système de culture a été établi afin de cultiver le champignon exclusivement sur un support en acier inoxydable. Ce mode de culture a favorisé à la fois le développement de la biomasse fongique et la production du composé d’intérêt. En vue d’optimiser ce procédé, l’impact de plusieurs paramètres de culture (modalité de préparation du support, type d’inoculum, pH de culture, et composition du milieu de culture) sur la production d’astine C a été évalué. Les paramètres de culture optimisés ont permis d’améliorer de nouveau les rendements en astine C, ce qui constitue une première étape dans le développement d’un procédé de production à l’échelle industrielle. En parallèle, des travaux ont été menés afin de développer un système de production hétérologue d’astine C chez la levure. Cette approche n’a pu être considérée qu’après avoir identifié, par le biais d’analyses bioinformatiques, les gènes impliqués dans la voie de biosynthèse de l’astine. Une fois ces gènes identifiés, une revue de la littérature a permis, entre autres, de dresser un bilan des outils moléculaires disponibles pour le clonage des larges séquences nucléiques codant pour les NRPSs, et de sélectionner des hôtes hétérologues appropriés. Des séquences complète ou partielle du gène codant pour l’astine synthétase ont été clonées respectivement chez Saccharomyces cerevisiae et Yarrowia lipolytica. Pour les deux levures considérées, une expression hétérologue a été constatée. Chez S. cerevisiae, la synthèse de la NRPS d’astine n’a pas pu être démontrée. En revanche, pour la première fois, la production d’une structure de type NRPS chez Y. lipolytica a pu être mise en évidence. Bien qu’aucun peptide nonribosomique n’ait été détecté, cette étude a permis de lever une partie des verrous limitant le développement d’un mode de production hétérologue d’astine chez la levure.

Négociation multi-agents pour la réallocation dynamique de tâches et application au patron de conception MapReduce

/ Baert Quentin / Université Lille1 - Sciences et Technologies / 13-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Le problème Rm||Cmax consiste à allouer un ensemble de tâches à m agents de sorte à minimiser le makespan de l’allocation, c’est-à-dire le temps d’exécution de l’ensemble des tâches. Ce problème est connu pour être NP-dur dès que les tâches sont allouées à deux agents ou plus (m ≥ 2). De plus, il est souvent admis que le coût d’une tâche est précisément estimé pour un agent et que ce coût ne varie pas au cours de l’exécution des tâches. Dans cette thèse, je propose une approche décentralisée et dynamique pour l’amélioration d’une allocation de tâches. Ainsi, à partir d’une allocation initiale et pendant qu’ils exécutent les tâches, les agents collaboratifs initient de multiples enchères pour réallouer les tâches qui restent à exécuter. Ces réallocations sont socialement rationnelles, c’est-à-dire qu’un agent accepte de prendre en charge une tâche initialement allouée à un autre agent si la délégation de cette tâche bénéficie à l’ensemble du système en faisant décroître le makespan. De plus, le dynamisme du procédé permet d’améliorer une allocation malgré une fonction de coût peu précise et malgré les variations de performances qui peuvent survenir lors de l’exécution des tâches. Cette thèse offre un cadre formel pour la modélisation et la résolution multi-agents d’un problème de réallocation de tâches situées. Dans un tel problème, la localité des ressources nécessaires à l’exécution d’une tâche influe sur son coût pour chaque agent du système. À partir de ce cadre, je présente le protocole d’interaction des agents et je propose plusieurs stratégies pour que les choix des agents aient le plus d’impact sur le makespan de l’allocation courante. Dans le cadre applicatif de cette thèse, je propose d’utiliser ce processus de réallocation de tâches pour améliorer le patron de conception MapReduce. Très utilisé pour le traitement distribué de données massives, MapReduce possède néanmoins des biais que la réallocation dynamique des tâches peut aider à contrer. J’ai donc implémenté un prototype distribué qui s’inscrit dans le cadre formel et implémente le patron de conception MapReduce. Grâce à ce prototype, je suis en mesure d’évaluer l’apport du processus de réallocation et l’impact des différentes stratégies d’agent.

Assistance à l’apprentissage de l’algorithmique : méthode et outil pour l’évaluation et la rétroaction

/ Ali Houssein Souleiman / Université Lille1 - Sciences et Technologies / 12-09-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
La maîtrise des concepts fondamentaux de la programmation et la capacité à réaliser des programmes simples sont les objectifs essentiels de l’enseignement dans les cours d’introduction à l’informatique. L’enseignement et l’apprentissage de la programmation sont considérés complexes, ce qui explique le taux d’abandon important de ces filières, largement documenté dans la littérature. De nombreux travaux proposent des environnements d’apprentissage de la programmation assistant les apprenants dans la maîtrise de la syntaxe et de la sémantique des langages de programmation. Toutefois, parmi les causes d’échecs, la littérature identifie un manque de capacité à décomposer et formaliser un problème sous forme d’algorithme. Dans le cadre de cette thèse, nous nous intéressons à la phase d’analyse et de mise en solution algorithmique. Cette phase a pour rôle de faire acquérir à l’apprenant une démarche de résolution de problème et de formalisation de la solution. Dans cette phase l’apprenant décrit ou structure sa solution algorithmique à l’aide d’une notation formelle (pseudo-code) indépendant de tout langage de programmation. L’étude de la littérature indique que l’amélioration de la capacité de résolution de problème passe par la pratique. Dans le cadre de la programmation pour les novices, il est nécessaire de faire de nombreux exercices (résolution de problème) avec des niveaux de difficulté croissante. Il est par ailleurs nécessaire de fournir une rétroaction en rapport avec les erreurs commises par les apprenants. Dans cet objectif nous proposons AlgoInit, un environnement Web pour l’apprentissage de l’algorithmique. En nous basant sur l’étude de la littérature, nous avons défini : - Une modélisation basée sur la taxonomie de Bloom pour définir le niveau cognitif des exercices proposés ; - Une approche d’évaluation basée sur la comparaison de la solution apprenant à une solution modèle. Pour comparer les solutions (apprenant et modèles) décrites en pseudo-code, nous passons par une étape de transformation des solutions en des arbres étiquetés construits à partir d’une base de règle ; - Des règles pour fournir rétroaction et exercices progressifs en fonction du résultat de l’évaluation de la solution de l’apprenant. Afin d’évaluer la potentialité de notre prototype, nous avons mené deux expérimentations à l’université de Djibouti. La première expérimentation a été consacrée à l’évaluation de la capacité de notre prototype à reconnaître les différentes solutions algorithmiques. Quant à la deuxième, elle a été consacrée à l’évaluation de l’intérêt pédagogique d’AlgoInit. Ces expérimentations ont montré des résultats probants sur la capacité d’AlgoInit de classer les solutions (correctes et incorrectes) et de fournir des rétroactions utiles. Les résultats indiquent également que notre système à une influence significative sur la capacité de résolution de problèmes des étudiants.

Influence des paramètres opératoires sur la production de surfactine dans un bioréacteur à biofilm aéré par membrane

/ Berth Alexandre / Université Lille1 - Sciences et Technologies / 18-07-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Les bioréacteurs à biofilm aéré par contacteur membranaire représentent un moyen de production alternatif aux bioréacteurs aérés par bullage. Ils sont, par exemple, utilisés pour éviter la formation abondante de mousse lors de la production de lipopeptides, molécules d’intérêt aux propriétés surfactantes produites notamment par Bacillus subtilis. La maîtrise du biofilm qui se forme à l’interface gaz-liquide dans la membrane représente la clé pour optimiser les paramètres de production et préparer une montée en échelle. Dans un premier temps, le transfert d’oxygène seul est étudié dans un bioréacteur aéré par membrane à fibre creuse microporeuse. Une analyse dimensionnelle a été couplée de façon innovante à un plan d’expériences fractionnaire, réduisant considérablement le nombre d’expérience pour obtenir une relation de procédés. Les performances de transfert d’oxygène sont modélisées en fonction du débit de liquide, du volume de liquide et de la pression de gaz. Dans un second temps, l’état physiologique du biofilm et la production de surfactine sont étudiés en régime continu. La présence d’un biofilm agit comme un accélérateur de transfert d’oxygène au lieu d’une résistance. Les variations de débit de liquide, de pression de gaz, de concentrations en glucose et en oxygène ont permis de déterminer le régime de limitation en substrats, apportés en contre-diffusion, tous deux révélés comme limitants. L’augmentation du débit de liquide permet une meilleure pénétration du glucose dans le biofilm sans en augmenter la taille. L’augmentation de la concentration en oxygène conduit aux meilleurs résultats de production de surfactine atteignant 1,2 g.m-2.h-1, niveau encore jamais atteint avec d’autres types de bioréacteurs.

Améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs

/ Duruisseau Mickaël / Université Lille1 - Sciences et Technologies / 16-07-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Les développeurs occupent une place prépondérante dans le développement logiciel. Dans ce cadre, ils doivent réaliser une succession de tâches élémentaires (analyse, codage, liaison avec le code existant...), mais pour effectuer ces tâches, un développeur doit régulièrement changer de contexte de travail (recherche d’information, lecture de code…) et analyser du code qui n’est pas le sien. Ces actions nécessitent un temps d’adaptation élevé et réduisent l’efficacité du développeur. La modélisation logicielle est une solution à ce type de problème. Elle propose une vue abstraite d’un logiciel, des liens entre ses entités ainsi que des algorithmes utilisés. Cependant, l’Ingénierie Dirigée par les Modèles (IDM) est encore trop peu utilisée en entreprise. Dans cette thèse, nous proposons un outil pour améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs. Cet outil se nomme VisUML et est centré sur l’activité principale de codage du développeur. VisUML fournit des vues (sur des pages web ou sur des outils de modélisation) synchronisées avec le code. Les diagrammes UML générés sont interactifs et permettent une navigation rapide avec et dans le code. Cette navigation réduit les pertes de temps et de contextes dues aux changements d’activités en fournissant à tout moment une vue abstraite sous forme de diagramme des éléments actuellement ouverts dans l’outil de codage du développeur. Au final, VisUML a été évalué par vingt développeurs dans le cadre d’une expérimentation qualitative de l’outil afin d’estimer l’utilité d’un tel outil.

Towards an energy planning strategy for autonomous driving of an over-actuated road vehicle

/ Bensekrane Ismail / Université Lille1 - Sciences et Technologies / 11-07-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
Dans cette thèse, une planification énergétique pour les véhicules routiers sans conducteur (URV) suractionnés avec une configuration de direction redondante est proposée. En effet, des indicateurs sur la géométrie de la route, la redondance des actionnements, le profil de vitesse optimal et le mode de conduite sont identifiés pour chaque segment de la trajectoire de l'URV. Ainsi, un modèle d'estimation de la consommation d'énergie d'un véhicule à conduite autonome suractivé est développé. Deux méthodes de modélisation de la consommation d'énergie sont considérées. La première méthode est basée sur un modèle analytique de consommation d’énergie prenant en compte le degré de steerabilité, le degré de mobilité et le degré de redondance de l’actionnement. La deuxième méthode utilisée pour la modélisation de la consommation d’énergie repose sur la méthode qualitative d’apprentissage des données, à savoir: le système d’inférence neuro-floue adaptatif (ANFIS). Cette dernière a été prise en compte en cas de présence de paramètres dynamiques inconnus de l'URV et d'incertitudes sur son interaction avec l'environnement. La validation de l'estimation de la consommation d'énergie a été appliquée à un véhicule autonome réel appelé RobuCar. La stratégie de planification énergétique a été élaborée selon deux approches: discrète et continue. L’approche discrète repose sur la construction d’un digraphe d’énergie avec toutes les configurations possibles tenant compte des contraintes cinématiques et dynamiques basées sur une configuration de grille 3D, selon: la vitesse, la longueur de l’arc, le mode de conduite. Dans ce graphe orienté pondéré, les arêtes décrivent l’énergie consommée par l’UAV le long d’un segment de la trajectoire. Un algorithme d'optimisation est appliqué sur le digraphe pour obtenir une solution globale optimale combinant le mode de conduite, la consommation électrique et le profil de vitesse de l'URV. L'approche continue repose sur une stratégie d'optimisation multicritères utilisant des algorithmes génétiques (NSGA-II). Ensuite, un chemin réel est considéré et modélisé en utilisant deux combinaisons géométriques lisses: la première est {lignes, clothoïdes et arcs}, et la seconde est {lignes et courbes de Hodograph de Pythagore}. La stratégie de planification énergétique est ensuite appliquée aux chemins générés. En outre, un graphique dirigé est construit pour synthétiser le profil de vitesse optimal qui minimise la consommation d'énergie globale tout en prenant en compte tous les modes de conduite. Les résultats sont comparés à ceux donnés par la méthode de programmation dynamique pour une optimisation globale hors ligne.

Governance of Smart Cities

/ El Mazraani Vincent / Université Lille1 - Sciences et Technologies / 09-07-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
La ville intelligente est un concept relativement nouveau qui pourrait devenir indispensable dans un avenir proche. Ce que nous considérons comme une idée fera partie de notre vie quotidienne. Le concept de ville intelligente diffère d'un continent à l'autre. alors que la vision américaine est davantage orientée vers la technologie, celle européenne est davantage orientée vers la collaboration. Malgré le fait que la ville intelligente ait plus d'une définition, toutes les définitions utilisées impliquent le développement, la durabilité, la résilience, l'amélioration, l'évolution et la qualité de vie. Pour nous concentrer sur les villes intelligentes et précisément sur les résultats et les résultats de ce concept relativement nouveau, nous devons rechercher le moyen le plus efficace et le plus efficient de gérer ces villes, et quoi de mieux que la gouvernance pour maintenir, évoluer et prospérer. La gouvernance peut être perçue de plusieurs manières, comme un processus entrepris par un gouvernement ou un processus lié aux ressources humaines, à des personnes intelligentes ou à la collaboration des parties prenantes. En ce qui concerne l’axe, les piliers ou les chapitres de la gouvernance, différents types de structures et de modèles de gouvernance peuvent être trouvés, ainsi que différents systèmes et outils de suivi permettant d’évaluer et de suivre les évolutions et les succès en matière de gouvernance. Malgré l'utilisation de terminologies différentes, les différents types de gouvernance partagent des concepts similaires, notamment une mission, une vision, une planification stratégique avec des objectifs intelligents, de meilleurs résultats, de meilleurs résultats, la participation, la transparence, la gestion et la reconnaissance. Tous ces concepts, une fois combinés, fournissent un cadre constitué de règles, de règlements et de procédures, ainsi que du processus de leur conception et de leur contrôle. Pour améliorer la gouvernance des villes intelligentes, le chercheur propose d'utiliser un outil d'auto-évaluation afin de fournir aux décideurs politiques un instrument efficace pour améliorer les résultats de la bonne gouvernance. L'outil d'évaluation proposé, la gouvernance des universités (University Governance Screening Card (UGSC)), a été créé par la Banque mondiale pour évaluer la gouvernance des universités. Cet outil sera adapté pour devenir la carte d'evaluation de la gouvernance de la ville intelligente (Smart City Governance Screening Card (SCGSC)) et testé sur une ville intelligente. Sur la base des résultats, le chercheur mettra à jour le SCGSC et proposera un plan d'action pour la ville intelligente sélectionnée afin d'améliorer sa gouvernance.

Propriétés biologiques d’hydrolysats protéiques en relation avec la régulation du métabolisme énergétique

/ Theysgeur Sandy / Université Lille1 - Sciences et Technologies / 08-07-2019
Voir le résumé | Accéder à la ressource
Voir le résumé
L’augmentation de la population mondiale, l’amélioration des niveaux de vie font que la demande en protéines animales devrait doubler d’ici à 2050. Ceci aura pour conséquence l’augmentation de la surface des terres agricoles entrainant des effets néfastes sur le climat et la biodiversité. Il est urgent de mieux qualifier les protéines agroalimentaires et d’en diversifier les sources pour pallier aux problèmes liés à la demande mondiale en protéines. Le marché du pet food, connait également une croissance constante, du fait de l’augmentation de la population des chiens et chats, et d’une relation entre le maître et l’animal de plus en plus humanisée. Les conditions de vie s’en trouvent modifiées, ce qui génère souvent des troubles métaboliques chez le chat et le chien. La digestion gastro-intestinale des protéines a longtemps été considérée exclusivement pour son rôle de fourniture d’acides aminés ; néanmoins, de nombreux travaux ont mis en évidence l’implication de peptides bioactifs, générés au cours de la digestion, dans de nombreuses fonctions biologiques comme l’homéostasie énergétique. Ils modulent notamment la sécrétion des hormones intestinales telles que les cholécystokinines (CCK) et le Glucagon-Like Peptide 1 (GLP-1) qui sont des signaux de régulation à court terme de la prise alimentaire. L’objectif principal de cette thèse a été de mesurer les effets sur la régulation de l’homéostasie énergétique de deux hydrolysats protéiques, issus d’un criblage préalable (une source poisson, PWF et une source carnée, XVP 15035), pour une application pet food. Dans un premier temps, un modèle de digestion gastro-intestinale in vitro simulant la digestion du chien a été mis au point. Une étude a ensuite été menée afin de caractériser le devenir des hydrolysats au cours de la digestion in vitro et de déterminer l’effet de ces digestats sur la régulation de la prise alimentaire à court terme, d’une part par leur capacité à réguler la sécrétion des CCK et du GLP-1 produits par les cellules entéroendocrines, et d’autre part, par leur pouvoir d’inhibition de l’activité de l’enzyme dipeptidyl peptidase-4 (DPP-IV) modulant l’activité du GLP-1. De nouveaux peptides bioactifs capables de stimuler la sécrétion des hormones intestinales et d’inhiber l’activité de la DPP-IV ont ensuite été identifiés grâce à des méthodes séparatives couplées à la spectrométrie de masse. Une étude in vivo, menée en parallèle chez le rat nourri en régime riche en graisse, a permis notamment de mettre en évidence l’effet inhibiteur de la prise alimentaire à court terme de l’hydrolysat PWF.

Cité Scientifique BP 30155 59653 VILLENEUVE D'ASCQ CEDEX Tél.:+33 (0)3 20 43 44 10