
Data Engineer – Snowflake (h/f)
Posted 11 days ago
Company Description
View moreeXalt est une formidable aventure humaine, une communauté de plus de 950 consultants, polyglottes du digital, dédiés à la transformation et spécialistes du Product, Project and Design Management (eXalt Flow).
Fondée par 7 eXaltés, en juillet 2018, autour des valeurs d'intrapreneuriat, de co-apprentissage et de co-construction, eXalt inscrit son développement dans un engagement fort auprès de ses clients et de ses équipes: rester pour longtemps encore, une start up du consulting, agile et réinventée.
La force d'eXalt consiste à s'organiser en interne comme une organisation produit et à cultiver les méthodes du Product Management au sein des équipes pour faciliter la diffusion des bonnes pratiques auprès de ses clients. Des objectifs partagés, des rituels de co-apprentissage (communauté en ligne, cercles d’apprentissage/holacratie) et la Co-construction, mécanismes d’initiatives internes pilotés par des OKRs partagés.
Job Description
Descriptif du poste
Nous recherchons un Data Engineer Snowflake Confirmé H/F (minimum 4 ans d’expérience dans la fonction) pour rejoindre notre communauté sur le pilier Data Engineering & Big Data.
Vos missions:
Concevoir et développer des pipelines et des flux de données.
Intégrer et transformer des données provenant de différentes sources.
Développer et mettre en œuvre des algorithmes de traitement de données avancés.
Collaborer étroitement avec les équipes clients pour comprendre leurs besoins et fournir des solutions adaptées.
Expérience dans la gestion administrative de Snowflake, incluant la création et la gestion des rôles, utilisateurs et permissions, l’optimisation de l’utilisation des warehouses, la gestion des quotas de stockage et de crédit, ainsi que le monitoring et la sécurisation des accès aux données.
Assurer la qualité et la fiabilité des solutions développées.
Conseiller les équipes clients sur les solutions à mettre en place.
Profil recherché
Titulaire d’un Bac+5, Ecole d’Ingénieur
Maîtrise d’un ou plusieurs langages de programmation (Python, Scala, Spark, etc.).
Expérience avérée sur Snowflake en environnement Cloud (AWS, Azure ou GCP), incluant l’architecture, le déploiement, l’intégration avec des outils tiers, et l’optimisation des performances.
Expérience dans la conception, l’orchestration et la surveillance de workflows de données avec Apache Airflow, incluant la gestion des DAGs, la planification des tâches et le monitoring des pipelines.
Maîtrise de DBT pour la transformation des données en SQL, la modélisation analytique, le versioning des modèles et la documentation automatisée des pipelines.
Solides compétences en conception et en optimisation de pipelines de données.
Expérience de travail en méthode Agile
Capacité à travailler de manière autonome et en équipe.
Excellentes compétences en communication et en résolution de problèmes.
Maîtrise de l’anglais (oral & écrit dans un contexte international)
