Lead Data Engineer (H/F)

Pantin, France

Nous aussi quand on cherchait du travail on lisait les fiches de postes en diagonale, alors on va aller droit au but. 

Bienvenue chez ekino ! Nous sommes un groupe de 600 personnes réparties dans 7 pays réunissant des spécialistes de la technologie, du design, de la data, du conseil, de l’IA et de l’innovation. En France, nous sommes basés à Levallois, Bordeaux et pour certains dans leurs propres bureaux (full remote !). Nous aidons nos clients à se transformer, que ça soit via le digital ou via des méthodes organisationnelles. Nous sommes par exemple très fiers d’avoir développé le player MyCanal de CANAL+, le configurateur 3D de Renault ou encore d’avoir breveté un procédé mêlant intelligence artificielle et data pour un client. 

Dans le cadre du développement de l’équipe Data Technology, nous recherchons plusieurs personnes en renfort à Paris /Full Remote (ou en télétravail, possibilité d’en faire jusqu’à 3 jours par semaine)

Rejoignez une team au mindset agile et qui ne fait pas de sacrifices quant à la qualité des conceptions faites ! 


Votre rôle au sein de l’équipe :

Au sein de l’équipe Data, le Data Ingénieur Lead Tech aura pour mission de travailler sur des problématiques de collecte et de traitement des données.

· Développer l’expertise de la practice Data sur votre spécialité.

· Encadrer des Data ingénieurs et les faire monter en compétence sur l’usage des technologies de l’écosystème Data.

· Respect de la culture Devops et développement de projets cloud ready.

· Définition d’architectures pour les projets.

· Contribution à l’ensemble du cycle de développement des projets : Conception, développement, tests associés et industrialisation.

· Participer aux avants ventes et à la construction de réponses techniques.

À propos de vous : 

· Volonté de prendre en charge le lead technique de projets.

· Vous êtes à l’aise en Python 3 et avec Docker.

· Vous maîtrisez le design de base de données et le langage SQL.

· Vous maîtrisez la partie devops et avez pratiqué au moins un cloud (AWS, GCP, ou Azure).

· Vous avez de l’expérience dans la gestion et la conception de Data Warehouse et/ou Data Lake.

· Vous avez une bonne connaissance des librairies de manipulation de données.

· Vous maîtrisez les problématiques associées aux pipelines de données et à l’orchestration.

· Vous écrivez du code propre, testé, industrialisé et à jour avec l’état de l’art.

Les + :

· Connaissance d’outils de BI.

· Connaissance des problématiques ML Ops.

· Connaissance de frameworks web (Flask, Django, etc.).


En développement:

  • Python 3
  • Spark ou équivalent
  • Flask ou autre framework permettant de déployer des APIs
  • GIT
  • CI/CD
  • SGBD / SQL
  • Docker / Kubernetes

Sur des outils de développement d’application cloud:

  • Serverless
  • Storage
  • Managed Container Service
  • Logging & diagnostics

En Data Ingénierie:

  • Data Pipelines: ETL tools (Airflow, Glue, Cloud Data Fusion,..), Streaming
  • Data Lake : Mise en place d’un Data Lake, (Coordinating ETL jobs, Data catalog, Access management, …),Versionnement des Data
  • Connaissance d’au moins un outil de BI (Tableau, Power BI…)
  • MLOps : Connaissance d’outils (Sagemaker, AutoML, etc.)
  • La connaissance de Snowflake est un plus


Et pourquoi pas ekino ? :

Ekino c’est avant tout l’ambition d’être au plus proche de l’innovation (ouverture à un large horizon technologique).

Notre culture s’articule autour de l’excellence et du partage permettant à chacun d’être acteur de sa carrière ainsi que de l’évolution de la société (parcours d’intégration, suivi de carrière, formations …) .

La richesse naît des échanges et c’est une notion qui est bien ancrée chez nous ! (une journée de conférence interne par mois, accès à des conférences externes, événements hebdomadaires par équipe …).

Si vous vous reconnaissez dans cette offre, rencontrons-nous !