Me contacter

À propos de moi

Mon parcours a commencé les bottes aux pieds, dans une exploitation agricole d’élevage de poules biologiques. J’y ai appris que derrière chaque produit que nous consommons se cachent des choix quotidiens exigeants, où la qualité et la rigueur se construisent bien avant la transformation ou la commercialisation.

J'ai ensuite rejoint le secteur industriel, d'abord en laiterie chez EURIAL, puis dans une biscuiterie au Portugal chez Du Bois de la Roche. Immersion complète dans le monde de la qualité et de la sécurité alimentaire : audits, gestion de réclamations clients, maîtrise des flux de circulation, évaluation des fournisseurs… Très vite, une réalité m'a frappée : les Ingénieurs Qualité manipulent une montagne de données. Des données précieuses, mais qui restent le plus souvent limitées à un usage immédiat, sans véritable valorisation pour anticiper ou optimiser.

La donnée est omniprésente mais sous-exploitée, c’est cette prise de conscience qui m’a menée vers la data science. Chez Mérieux NutriSciences, j’ai pu transformer cette intuition en projets concrets :
- développement d’une application R Shiny qui automatise en quelques minutes des rapports qui manuellement prenaient plusieurs jours
- exploration des modèles de langage et de l'Intelligence Artificielle pour analyser des milliers de verbatims consommateurs
- mise en place d’outils data concrets pour accélérer la prise de décision des équipes Marketing, R&D et Qualité.

Aujourd’hui, je mets au service de l'agroalimentaire une double expertise : la compréhension des produits alimentaires et la maîtrise des données pour transformer tableaux Excel, verbatims ou indicateurs qualité en supports lisibles et analyses claires et utiles qui guident les décisions. Parce que je suis convaincue que dans l’agroalimentaire, la donnée est un ingrédient stratégique aussi essentiel que le lait ou le sucre.

Mes compétences

Langages et Outils

R : Shiny, Markdown, tidyverse, caret, FactoMineR

Python : pandas, scikit-learn, transformers, NumPy, spaCy, PyTorch, TensorFlow

SQL : écriture de requêtes, optimisation de requêtes, gestion de bases relationnelles

Autres outils : Git, Google Colab, Jupyter Notebook

NLP / LLM

Prétraitement de textes : tokenization, nettoyage, lemmatisation, stopwords

Embeddings : Word2Vec, BERT, OpenAI

● Clustering sémantique et classification thématique

● Prompts engineering

● Déploiement d'API et intégration dans des applications

Data Science /
Machine Learning

● Préparation et nettoyage de données

Modèles supervisés : régression, classification, arbres de décision, forêts aléatoires

Modèles non supervisés : clustering, PCA

● Validation croisée, optimisation d'hyperparamètres, métriques de performances

Data Visualisation

R : ggplot2, Shiny dashboards interactifs

Python : matplotlib, seaborn, plotly

● Conception de dashboards et reporting automatisés (Power BI, Tableau, R Shiny, Dash)

Bases de données et
Gestion des données

● Conception de questionnaires et systèmes de collecte de données

Gestion et modélisation de bases relationnelles : MySQL, PostgreSQL, Access

● Bonnes pratiques en structuration et documentation des données

Soft skills

Gestion de projet agile : planification, priorisation, suivi d'avancement

Collaboration interdisciplinaire : travail en équipe avec data engineers, développeurs, métiers, UX/UI designers

Recueil et analyse des besoins utilisateurs : compréhension métier, traduction en solutions data

Communication des résultats : vulgarisation des analyses, storytelling, présentation aux parties prenantes non techniques

Esprit critique et résolution de problèmes : capacité à formuler des hypothèses, tester et proposer des solutions data-driven

Autonomie et curiosité : veille technologique/bibliographique, apprentissage continu, expérimentation de nouveaux outils

Mon CV

Découvrez mon parcours académique et professionnel en détail :

CV_Emma_ing_data
Télécharger mon CV