Je travaille sur la chaîne complète de la donnée : de l'analyse statistique à la mise en production de modèles (MLOps). Ma particularité est d'intégrer les enjeux de conformité RGPD et les standards de l'ANSSI dès la conception des projets, grâce à mon diplôme de DPO.
Côté technique, je développe des outils interactifs (Streamlit, Chainlit) et j'utilise les infrastructures Cloud (Azure, GCP) pour rendre mes modèles accessibles et scalables. Compétences clés : Modélisation prédictive, RAG (Retrieval-Augmented Generation), Containerisation.
| Catégorie | Outils et frameworks |
|---|---|
| Data Science & Big Data | Python, SQL, PySpark, Pandas, Statsmodels, SAS |
| AI & LLM Orchestration | LangChain, LangGraph, RAG, OpenAI API, ChromaDB (Vector DB) |
| Web Apps & Dashboards | Streamlit, Chainlit, Flask, PowerBI, Tableau |
| MLOps & Cloud | Docker, MLflow, Azure, Google Cloud (GCP), AWS, OVHCloud |
| Gouvernance & Sécurité | Certifiée DPO, Conformité RGPD, Standards CNIL / ANSSI |
Problématique : Extraire et analyser des informations complexes dans des rapports financiers.
- Valeur ajoutée : Création d'un agent capable de raisonner et de croiser des données textuelles et numériques.
- Impact : Réduction du temps de recherche d'informations stratégiques.
Problématique : Prédire les risques de défaut de paiement de manière industrielle.
- Valeur ajoutée : Mise en place d'un pipeline complet (Suivi d'expériences -> API Flask -> Container Docker -> Cloud Azure).
- Impact : Garantie de reproductibilité et de scalabilité du modèle en production.
Problématique : Identifier les facteurs critiques de pollution atmosphérique.
- Valeur ajoutée : Analyse de données multi-villes et modélisation prédictive haute précision (R² > 0.8).
- Impact : Identification visuelle des polluants les plus impactants pour aider à la prise de décision environnementale.

