Menu

Patrice JOURNOUD

GENTILLY

En résumé

J'aime comprendre la donnée, l'analyser et la faire "parler". Pour y parvenir, j'explicite le Système d'Information, je conçois et je développe des IHMs de visualisation.

Je suis à l'écoute de vos problématiques métier.

J'ai 13 ans d'expérience, notamment dans un contexte scientifique et technique.

J'ai une expérience d'une année en développement Web.

Je suis l'évolution des technologies par de la formation continue (Obtention du Titre de Concepteur Développeur Informatique, reconnu par le Ministère du Travail, durée 10 mois, en 2015).

Mes compétences :
IDL-exelis
Développeur
Matlab
Conception graphique
Java EE

Entreprises

  • IPSIS Groupe ITLink - Consultant sénior

    2016 - 2016 J'interviens sur deux projets confidentiels. Je participe à l'évolution de logiciels d'exploitation de données scientifiques et techniques.

    Projet 1 (2 mois) : Correction des dysfonctionnements et développement des évolutions 2016
    Le logiciel, dont il est question, a pour vocation d'automatiser des tâches de traitement d'images.
    J'ai réalisé des tâches d'analyse pour déterminer les causes de dysfonctionnements et j'ai opéré les optimisations pertinentes. J'ai développé les évolutions 2016 dont une partie consistait en une refonte du fonctionnement du logiciel (synchronisation du multi-fenêtrage).
    J'ai mis à jour la nouvelle version du manuel Utilisateur, du manuel d'installation et du cahier de Recette.

    Projet 2 (4 mois) : Correction des dysfonctionnements et développement des évolutions 2016
    Le logiciel, dont il est question, a pour vocation d'automatiser des campagnes de métrologie concernant des caméras. J'ai opéré la correction des dysfonctionnements remontés par le Client. J'ai développé les évolutions 2016: amélioration de l'ergonomie générale, refonte de certaines fonctionnalités.
    J'ai mis à jour la nouvelle version du cahier des charges, du manuel Utilisateur, du manuel d'installation et du cahier de Recette.

    Environnement technique: Python,PyQt, IDE (Pycharm, Eclipse), IDL, Git.
  • XCG - Concepteur développeur informatique

    Paris 2015 - 2016 Développeur de solutions personnalisées pour la communauté Odoo (Erp open source).

    Analyse des procédures de mise en production et de la gestion de la sécurité.

    Conception d'un web Service RESTFUL offrant une solution à la problématique du voyageur de commerce.

    Environnement technique: Python, Pyramid, Cornice, SQLAlchemy, PostGreSQL, Odoo (ERP open source), Linux.
  • P.B. Solutions - Ingénieur développement logiciel

    2012 - 2013 Je suis parvenu à convaincre le responsable du Bureau d'Etudes d'un groupe international que je pouvais répondre à l'exigence d'un client d'envergure.

    Le contexte : un groupe innovant, reconnu depuis longtemps. Ses machines-outils intéressent une entreprise du domaine des semi-conducteurs. Mais celle-ci impose qu'un logiciel de supervision soit intégré aux machines-outils. Difficile en effet d'imaginer qu'un outil informatique souple et convivial ne puisse pas accompagner le client dans sa prise en main des machines et dans leur supervision au quotidien : disons, par exemple, pour opérer automatiquement les procédures de redémarrage, pour contrôler son fonctionnement à tout instant ou pour assurer l'automatisation des tâches récurrentes.

    Intégré à l'équipe qualification de la Société, j'ai donc pris en charge la conception de cet outil informatique.

    La méthode

    Première étape : je ne connaissais rien au domaine de l'entreprise. Je me suis donc totalement investi dans le décriptage de son système d'information (SI). Je me suis appuyé sur l'expertise du spécialiste reconnu. J'ai pu construire, à un premier niveau de description, une image informatique du SI. Ce travail indispensable me permettait à la fois d'acquérir la connaissance, de la mémoriser - par l'intermédiaire du code informatique - et de pouvoir réaliser de surcroit l'étude de faisabilité du besoin. A ce stade, je n'avais pas de contact avec le client : le recueil de l'expertise métier interne me suffisait car j'avais là les outils fondamentaux à disposition. Cette première phase d'appropriation et le code qui va avec m'a pris trois mois. Mais déjà j'étais en mesure de proposer des briques fonctionnelles opérationnelles notamment pour ce qui concerne le contrôle du fonctionnement des machines.

    Deuxième étape : A ce stade, il me devenait possible d'inclure le besoin du client puisqu'au travers du code déjà mis en oeuvre je pouvais anticiper la faisabilité de ce qu'il me demandait de faire. Cette organisation avait aussi l'avantage de me permettre d'être force de proposition. Car le code structure immanquablement la manière dont les données vont pouvoir être proposées à l'utilisateur. Je ne manquais donc pas de proposer des maquettes. A partir de là, un véritable échange a pu avoir lieu. Ensemble, nous avons recherché la meilleure convergence possible entre le besoin et les limitations techniques.

    Je n'aurais pas pu mener à bien le travail qu'on me demandait sans m'appuyer sur ces deux étapes qui se nourrissent l'une de l'autre.

    Cette mission et la manière dont je l'ai conduite illustrent que le travail d'analyse de données doit imprégner le travail du développeur en informatique au quotidien.
  • CNRS - Ingénieur de Recherche

    Paris 2011 - 2012 Comment participer à la grande aventure de la science avec comme background des méthodes informatiques ?

    Le contexte

    Un projet spatial
    Un objectif : étudier les variations de luminosité de la surface du Soleil.
    Des images acquises à un rythme soutenu : chaque minute et dans toute une gamme de longueur d'onde. Le besoin d'automatisation des traitements est énorme.

    Intégré à l'équipe de physique solaire, j'ai été en charge d'analyser les indicateurs instrumentaux, de proposer des scenari cohérents expliquant les mesures et de développer un outil qui mette en évidence les variations de luminosité.

    La méthode

    Première difficulté : les images doivent être corrigées de perturbations instrumentales pas toujours bien connues.

    Une question à se poser : qu'est ce qui est susceptible de clocher dans les images qu'on me propose ? Si l'analyse n'est pas pertinente, le diagnostic ne peut pas être porté. Je me suis donc concentré sur une fouille systématique des données pour faire apparaître de l'information. A ce stade, nul besoin d'être expert en physique solaire. Il convient plutôt d'être rigoureux dans l'analyse. La méthode efficace est celle qui ne laisse rien au hasard. Il s'agit d'aller d'emblée à un niveau de détail maximal : celui du pixel. Le meilleur analyste de ces images ne peut être qu'un spécialiste du traitement d'images. Et oui, il faut reconnaître parfois qu'une connaissance métier pointue est nécessaire. J'ai tenté au maximum de me rapprocher de tels spécialistes.

    Deuxième difficulté : la détection des variations de luminosité nécessite la conception d'algorithmes capables de traiter un volume de données important.

    C'est là que j'ai pu affirmer mes compétences. Comme vous le savez déjà, je travaille en deux temps. Je décrypte le système d'information ce qui me permet de dissocier ses composants et ensuite, je les réassocie selon l'objectif à atteindre. C'est comme ça que je dégage la connaissance maximale qui ouvre à tout un champs d'analyse qui ne se serait pas révélé sinon.

    J'ai pu ainsi fournir des cartes qui témoignent de la variation de la luminosité. J'ai pu utiliser les outils qui me permettaient de les créer, sur les données d'autres instruments d'observation du Soleil et ainsi réaliser des études de comparaison. Je peux témoigner de l'effervescence que ces résultats ont provoqué dans la communauté.

    En résumé, le coeur de la compétence qui m'a permis de réaliser cette mission, c'est l'analyse de données couplée à une méthode de développement informatique. J'ai ensuite agrégé l'expertise des chercheurs aux outils d'analyse que j'ai mis en oeuvre. Ma démarche s'est avérée pertinente. Une publication sur le site iopscience.iop.org en atteste.

  • ESPCI - Ingénieur de Recherche

    2010 - 2011 Détail de l'annonce publiée et préalable à mon recrutement

    Contexte scientifique

    Les techniques analytiques bidimensionnelles connaissent aujourd'hui un fort développement lié au besoin d'analyser des échantillons de complexité toujours croissante. Si le défi scientifique concernant leur mise en oeuvre semble désormais être en bonne voie d'être relevé (notamment en ce qui concerne la chromatographie en phase gazeuse), il n'en va malheureusement pas de même pour le traitement des données générées qui se résume souvent à une simple évaluation visuelle de "color plots", représentation la plus courante des chromatogrammes 2D. Cette approche simpliste ne permet d'exploiter qu'une faible part de l'information disponible.
    Nous travaillons au développement d'une stratégie générale d'interprétation et de comparaison des chromatogrammes 2D en combinant plusieurs outils statistiques. D'ores et déjà, nous avons pu montrer l'efficacité du couplage d'une analyse multi-variée avec une technique d'alignement temporel, suivi d'une sélection des pixels discriminants. Des résultats prometteurs ont ainsi été obtenus sur des extraits de plantes. Le caractère général de notre approche laisse à penser que sa transposition à des échantillons de nature radicalement différente peut raisonnablement être envisagée. L'objectif ultime est de réaliser une comparaison automatique et rapide de plusieurs échantillons tout en identifiant les composés responsables des éventuelles différences.
    L'ensemble des études relatives à ce projet s'inscrivent dans le cadre de collaborations avec des partenaires industriels issus de différents domaines. Ces partenariats soulignent que le projet correspond à un besoin concrêt des utilisateurs dans l'industrie.

    Objectif

    Nous souhaitons d'une part améliorer le traitement statistique actuel des chromatogrammes 2D et, d'autre part, étendre son domaine d'application. Les travaux auront donc pour objectifs :
    - le développement de nouveaux outils statistiques plus spécifiquement adaptés,
    - l'évaluation de l'efficacité de l'approche pour l'exploitation de données issues de l'analyse d'échantillons très différents de ceux sur lesquels elle a été initialement développée.


    Résumé sur la mission

    Des données toujours plus complexes et qui ne ne peuvent plus être traitées par un seul opérateur.
    Nécessité d'optimiser et d'automatiser les processus existants et qui ont été validés.
    Concevoir une nouvelle manière d'extraire l'information des données.
    Etendre la portée de la méthode à de nouvelles données.

    La méthode

    On voit que le travail demandé consiste à se hisser à un niveau d'expertise métier suffisant pour être en mesure d'apporter une pierre de plus à l'édifice de cette voie de recherche. Il s'agit aussi de consolider l'assise en automatisant les processus. C'est là que l'analyste de données se démarque et s'avère incontournable.

    J'ai opéré comme je le fais toujours en commençant par décrypter le système d'information. Ce travail central s'avérait, cette fois-ci, pour moi, d'autant plus nécessaire que je n'y connaissais pas grand chose en terme de chromatographie bidimensionnelle en gaz gazeuse, ni même en analyse statistique multi-variée. C'est le temps de l'apprentissage et du codage des briques élémentaires nécessaire à la conception de toute application informatique digne de ce nom.
    J'ai pu ensuite développé un outil d'analyse efficace, trouver des réponses originales pour relever le défi proposé. Nous avons fait deux communications à la communauté durant la collaboration. J'ai pu relever sur les données des caractéristiques qui n'apparaissaient pas de façon évidente. La méthode a aussi été appliquée avec succès à un nouveau jeu de données.
  • CEA Saclay - Ingénieur Chercheur

    Gif-sur-Yvette 2007 - 2010 Le contexte : une infrastructure internationale de mesures de gaz à effet de serre en partie financée par l'Union Européenne (mesures au sol ou par avion).

    La mission

    Développer un ensemble d'outils informatiques pour la validation des données, le suivi des tendances, leur analyse plus ou moins complexes (1D, 2D, 3D).

    Mettre les données - et différents sous-produits graphiques générés par les codes informatiques - sur le Web en quasi temps-réel.


    Pour réaliser le travail pour lequel j'étais recruté, j'ai intégré l'équipe chargé de la collecte des données.


    La méthode

    Première étape : J'ai cherché à décripter le système d'information (SI). Je me suis appuyé sur l'expertise du chef de projet et des techniciens. Avec le temps (3 ans), j'ai pu construire une image informatique, relativement détaillée, du SI.
    Deuxième étape : la complexité et la variété des produits graphiques réclamés par les chercheurs m'ont poussé dans mes retranchements. L'analyse en temps-réel favorise les cas les plus inattendus (absence d'un ensemble de données - quand un instrument tombe en panne par exemple -, présence de points aberrants), autrement dit pousse l'applicatif à gérer les situations les moins nominales. Je ne voulais pas que l'automatisation des tâches récurrentes (génération de séries temporelles,...) soit un facteur limitant les analyses. J'ai donc cherché à repousser les limites au niveau de la technique et non au niveau du développeur. Le travail que j'ai dû réaliser en aurait rebuté plus d'un. Mais quel soulagement de constater que tous les efforts consentis portaient leurs fruits ! Désormais la somme d'information mise à disposition par les outils semblait suffisamment riche pour aider substantiellement les chercheurs dans leur travail.

Formations

  • Ecole Centrale Marseille (Marseille)

    Marseille 1992 - 1995 Ingénieur

Réseau

Annuaire des membres :