Aws Data Engineer (f/h)
Posted 11 days ago0 applicants
Company Description
View moreCrée en 2022, WHIZE est une filiale du groupe Neurones spécialisée dans :
Le développement de solutions sur mesure en architecture Serverless (Azure, AWS, GCP)
Le déploiement de solutions décisionnelles grâce à notre offre Data Intelligence
Chez WHIZE, nos collaborateurs sont notre ressource la plus précieuse et sont la clé du succès de nos projets pour nos clients. Notre politique RH se caractérise par une écoute attentive, une bienveillance constante et un suivi personnalisé, mettant ainsi en avant nos valeurs essentielles.
Job Description
Vos missions :
En tant qu’AWS Data Engineer, vous serez responsable de la conception, du développement et de l’optimisation des flux de données sur l’écosystème AWS, afin de fournir aux équipes Data Analysts, Data Scientists et métiers des données fiables, sécurisées et performantes.
Vos responsabilités incluront :
- Concevoir, développer et maintenir des pipelines de données sur AWS
- Intégrer et transformer des données issues de sources variées (bases SQL/NoSQL, API, ERP, CRM, fichiers plats…)
- Utiliser les services AWS tels que Glue, Lambda, Step Functions, Kinesis, S3, Athena, Redshift ou EMR
- Développer des traitements distribués et optimisés avec PySpark ou Spark sur AWS (EMR, Glue)
- Orchestrer et automatiser les workflows avec AWS Step Functions, Managed Airflow ou équivalents
- Mettre en place des contrôles de qualité, cohérence et sécurité des données (IAM, KMS, Lake Formation…)
- Optimiser les performances des traitements et réduire les coûts d’infrastructure
- Documenter les flux et assurer leur traçabilité
- Collaborer avec les équipes Data et IT pour fournir des datasets prêts à l’emploi
- Participer à la veille technologique sur AWS et les solutions data cloud
Profil recherché :
- Expérience en Data Engineering, dont une partie significative sur AWS
- Solides compétences en SQL et en programmation orientée Data
- Maîtrise d’au moins plusieurs services AWS orientés data (Glue, Redshift, S3, Athena, EMR, Kinesis…)
- Expérience avec PySpark ou Spark pour le traitement de données
- Connaissance des architectures Data Lake et Data Warehouse sur AWS
- Sensibilité aux problématiques de sécurité, gouvernance et optimisation des coûts
- Capacité à travailler en équipe et à communiquer avec des profils techniques et métiers
📍 : Neuilly-Sur-Seine+ 2/3 jours de Télétravail
Benefits
- Télétravail
- Société taille humaine
- Avantages grand groupe
- Accompagnement par CEO
- Équipe dynamique conviviale
- Postes intéressants évolutifs
- Évènements internes tech
- Projets forte valeur

