R&D Data Scientist M/F in Grenoble, Auvergne-Rhône-Alpes at Verkor
Explore Related Opportunities
Job Description
En tant que tel.le, vous avez pour mission de transformer les données en informations exploitables, en prévisions et en modèles d'aide à la décision qui aident l'entreprise à réduire les incertitudes, à améliorer ses performances et à optimiser la prise de décision. Votre rôle consiste principalement à cerner les enjeux métier, à les traduire en questions analytiques et à élaborer des solutions fondées sur les données.
-
Collaborer avec les opérateurs et les techniciens de production/qualité pour cerner les objectifs, les contraintes et les besoins décisionnels
-
Transformer les questions métier en problèmes analytiques et de data science
-
Définir des indicateurs de performance et des critères d'évaluation alignés sur les résultats opérationnels
-
Analyser et explorer les données structurées et non structurées afin d'identifier des modèles, des tendances et des anomalies
-
Mettre en place des workflows d'automatisation prêts pour la production
-
Évaluer la qualité, l'exhaustivité, les biais et les limites des données
-
Identifier les sources de données supplémentaires nécessaires pour améliorer les analyses ou les modèles
-
Effectuer la transformation des données à des fins de modélisation
-
Collaborer avec les ingénieurs data pour opérationnaliser la préparation des données lorsque cela est nécessaire.
-
Développement et validation de modèles
-
Interpréter les résultats des modèles et les conclusions analytiques en termes métier
-
Communiquer clairement les conclusions aux parties prenantes non techniques
-
Documenter les hypothèses, les limites et les risques du modèle
-
Master ou doctorat en science des données, mathématiques appliquées ou statistiques
-
Minimum de 5 ans d'expérience sur un métier similaire
-
La maîtrise de l'anglais et du français est obligatoire
-
Expérience dans le traitement d'ensembles de données à grande échelle en milieu industriel
-
Solides bases en algèbre linéaire, calcul différentiel et intégral, probabilités et statistiques
-
Bonne compréhension des concepts liés aux systèmes distribués, au partitionnement des données et au traitement parallèle
-
Expérience pratique de l'utilisation de Databricks pour l'exploration des données, l'analyse, l'ingénierie des caractéristiques et l'entraînement de modèles
-
Maîtrise approfondie d'Apache Spark (DataFrames, SQL, concepts MLlib) pour le traitement de données à grande échelle, avec une expérience pratique de l'entraînement de modèles distribués à l'aide de PyTorch ou TensorFlow.
-
Notebooks Databricks (Python/SQL) · Maîtrise approfondie de Pandas et Numpy pour l'exploration, l'ingénierie des caractéristiques et les workflows analytiques
-
Compréhension des besoins des utilisateurs, des facteurs de valeur et des résultats commerciaux
-
Capacité à traduire des problèmes vagues en questions analytiques structurées.
-
Expérience de travail dans des environnements axés sur les produits