Mon parcours a commencé les bottes aux pieds, dans une exploitation agricole d’élevage de poules biologiques. J’y ai appris que derrière chaque produit que nous consommons se cachent des choix quotidiens exigeants, où la qualité et la rigueur se construisent bien avant la transformation ou la commercialisation.
J'ai ensuite rejoint le secteur industriel, d'abord en laiterie chez EURIAL, puis dans une biscuiterie au Portugal chez Du Bois de la Roche. Immersion complète dans le monde de la qualité et de la sécurité alimentaire : audits, gestion de réclamations clients, maîtrise des flux de circulation, évaluation des fournisseurs… Très vite, une réalité m'a frappée : les Ingénieurs Qualité manipulent une montagne de données. Des données précieuses, mais qui restent le plus souvent limitées à un usage immédiat, sans véritable valorisation pour anticiper ou optimiser.
La donnée est omniprésente mais sous-exploitée, c’est cette prise de conscience qui m’a menée vers la data science. Chez Mérieux NutriSciences, j’ai pu transformer cette intuition en projets concrets :
- développement d’une application R Shiny qui automatise en quelques minutes des rapports qui manuellement prenaient plusieurs jours
- exploration des modèles de langage et de l'Intelligence Artificielle pour analyser des milliers de verbatims consommateurs
- mise en place d’outils data concrets pour accélérer la prise de décision des équipes Marketing, R&D et Qualité.
Aujourd’hui, je mets au service de l'agroalimentaire une double expertise : la compréhension des produits alimentaires et la maîtrise des données pour transformer tableaux Excel, verbatims ou indicateurs qualité en supports lisibles et analyses claires et utiles qui guident les décisions. Parce que je suis convaincue que dans l’agroalimentaire, la donnée est un ingrédient stratégique aussi essentiel que le lait ou le sucre.
● R : Shiny, Markdown, tidyverse, caret, FactoMineR
● Python : pandas, scikit-learn, transformers, NumPy, spaCy, PyTorch, TensorFlow
● SQL : écriture de requêtes, optimisation de requêtes, gestion de bases relationnelles
● Autres outils : Git, Google Colab, Jupyter Notebook
● Prétraitement de textes : tokenization, nettoyage, lemmatisation, stopwords
● Embeddings : Word2Vec, BERT, OpenAI
● Clustering sémantique et classification thématique
● Prompts engineering
● Déploiement d'API et intégration dans des applications
● Préparation et nettoyage de données
● Modèles supervisés : régression, classification, arbres de décision, forêts aléatoires
● Modèles non supervisés : clustering, PCA
● Validation croisée, optimisation d'hyperparamètres, métriques de performances
● R : ggplot2, Shiny dashboards interactifs
● Python : matplotlib, seaborn, plotly
● Conception de dashboards et reporting automatisés (Power BI, Tableau, R Shiny, Dash)
● Conception de questionnaires et systèmes de collecte de données
● Gestion et modélisation de bases relationnelles : MySQL, PostgreSQL, Access
● Bonnes pratiques en structuration et documentation des données
● Gestion de projet agile : planification, priorisation, suivi d'avancement
● Collaboration interdisciplinaire : travail en équipe avec data engineers, développeurs, métiers, UX/UI designers
● Recueil et analyse des besoins utilisateurs : compréhension métier, traduction en solutions data
● Communication des résultats : vulgarisation des analyses, storytelling, présentation aux parties prenantes non techniques
● Esprit critique et résolution de problèmes : capacité à formuler des hypothèses, tester et proposer des solutions data-driven
● Autonomie et curiosité : veille technologique/bibliographique, apprentissage continu, expérimentation de nouveaux outils