Description du poste à pourvoir
Présentation du cabinet :
a.m.i consulting est une entreprise familiale innovante (Le cabinet a obtenu en 2019 la bourse Innov’UP de BPI France) qui exploite pour vous la data, afin de vous fournir des consultants experts dans ces domaines. Soucieux du bien-être de nos collaborateurs et conscient des enjeux environnementaux, nous nous engageons à réduire notre empreinte carbone grâce à un processus de qualification, de sélection et d'intégration 100%% digitale.
Présentation de l'offre :
- Secteur : Industrie
- Nombre d'année d'experience : Entre 7 et 10 ans d'expérience
- Contrat : Freelance ou CDI de mission
- Freelance : TJM évolutifs au cours de la mission
- 550€/HT Entre 1 et 12 mois de mission
- 570€/HT Entre 12 et 24 mois de mission
- CDI de mission
- 47k€ brut annuel
- 5 K€ de Variable
- Durée de la mission : longue
- Lieu de la mission : Paris
- Télétravail : 2 jours par semaine, à l'exception des 4 premiers mois pendant lesquels le télétravail est de 1 jours par semaine
- Anglais : Bilingue
Objectifs et livrables
Au sein de notre squad Data Platform, vous interviendrez avec d’autres Data engineer et DevOps dans les activités ci-dessous :
Développement de use case ETL réutilisables
Conception de connectors/jobs
Familiarité avec les mécanismes d'alimentation ETL
Maintenance de l'ETL en conditions opérationnelles
Connaissance approfondie sur des produits Talend : Talend Big Data, Talend Cloud API Services Platform, Talend Studio
Développement de Talend jobs, déploiement et mise en service des interfaces
Construction de l'infrastructure nécessaire pour une extraction, une transformation et un chargement optimaux des données à partir de différentes sources de données à l'aide des technologies Azure, AWS et SQL
Expérience signiÞcative sur l'environnement des données en Cloud (Azure et AWS), en particulier sur les services de données : ADLS Gen 2, AWS S3, ADF, Azure SQL DB, Analysis Services, Power BI Services
Expérience dans la création et l'interaction avec des solutions de Data Lake
Bonne connaissance de la méthodologie Agile Collaboration avec les parties prenantes, y compris les data ofÞcers, data architect, et data engineers
Niveau de compétence
Stack : Github, Azure Data Lake, Azure Data Factory, AWS S3, AWS Transfer Family, Microservices, Python, C# • Pratiques : Scrum, SAFE • Notions : Data Engineering, Data Management • Langues : Anglais et Français
Plus de détails
Ce poste n'accepte plus de candidatures.
Partager cette opportunité