Data Engineer (H/F)

Toulouse  - CDI

À propos de BricoPrivé

Brico Privé est le leader français de la vente privée dédiée au bricolage, jardinage et aménagement de la maison.


La startup, co-fondée en 2012 par Julien Boué et Marc Leverger, a dépoussiéré en quelques années le monde du bricolage en proposant un mode de commercialisation disruptif à ses fournisseurs tout en offrant à ses millions de membres la possibilité de s’équiper comme des pros à prix canons.


Passant de 8 salariés à 160 en à peine 6 ans, Brico Privé s’est développée en Italie, Espagne et Portugal avec l’ambition à court terme de conquérir les marchés de l’Europe du nord.


Faire partie de l’équipe des bricollaborateurs c’est participer chaque jour à une aventure unique dont le leit motiv s’exprime en quatre lettres : ASAE (prononcez Asaé).


Ambition, solidarité, adaptation et esprit d’équipe sont les valeurs choisies et incarnées par chacun des collaborateurs dans leurs missions.


En rejoignant Brico Privé, tu choisis d’apprendre, tu comprends qu’il faut essayer et tu acceptes de te tromper.

Description du poste

BricoPrivé souhaite donner une place centrale aux données dans sa stratégie : d’une Business Intelligence innovante, à la multiplication des data services pour répondre tous les jours davantage aux besoins de ses métiers et de ses clients. Pour consolider notre stratégie data, nous recrutons un nouveau Data Engineer.


Dans ce contexte, l’enjeu quotidien du data engineer est de productifier de nouvelles sources de données, de nouveaux axes d’analyse, ou de nouveaux modèles de machine learning au sein d’une architecture logicielle complexe et sur des volumes de données grandissants (transactions, clickstream, etc.), et cela avec pragmatisme.


A titre d’exemple, notre futur data engineer travaillera sur l’intégration de données de navigation afin de fournir des données en temps réel à un service de recommandation produits personnalisé.


Votre mission :

  • Améliorer l’infrastructure data au sein d’une équipe spécialisée,
  • Fournir la data pour aider aux prises de décisions et alimenter des processus automatique (marketing transactionnel, personnalisation sur site, etc.)


Votre quotidien :

  • Construction d’ETLs (SQL + Python) via Airflow pour alimenter le Datawarehouse,
  • Optimisation et enrichissement de notre schéma en étoile (Redshift),
  • Evolution de notre architecture sur AWS pour exploiter les dernière nouveautés (enhanced VPC routing, federated query, Airflow on Kubernetes, etc.),
  • IaC avec Terraform pour mettre en production votre travail.


Ce que vous trouverez en nous rejoignant :

  • Une équipe tech curieuse des nouveautés technologiques du domaine auprès de laquelle découvrir et apprendre,
  • Des données variées, en quantité, à exploiter de multiples manières,
  • Une data architecture moderne à prendre en main et développer (Redshift, Airflow, Kinesis, etc.),
  • Des enjeux business variés auxquels contribuer grâce à vos talents,
  • Des avantages sur notre site web et ceux de nos partenaires !
  • Télétravail partiel possible.


Le processus de recrutement :

  • Entretien téléphonique de qualification (15 minutes)
  • Entretien (vidéo ou en personne) avec le manager de l’équipe (1 heure)
  • Entretien technique (sur table) ou cas d’étude (à la maison) pour savoir où vous en êtes
  • Entretien avec notre CTO


Description du profil

Vous êtes diplômé(e) d’un bac+5 (école d’ingénieurs, écoles d’informatique ou facultés d’informatique).

Vous disposez de 2-3 ans d’expériences dans un environnement Big data ou dans le développement logiciel pour le traitement des données.


Les indispensables :

  • Vous avez au moins 2 ans d'expérience dans le développement d'ETLs dans un environnement Datalake et/ou Datawarehouse.
  • Vous avez au moins 1 an d’expérience sur AWS (notamment S3, IAM, RDS, et Redshift)


Les plus :

  • Vous utilisez Python pour transformer et visualiser des données rapidement (pandas, pyplot, etc.)
  • Vous comprenez les concepts d’une data architecture moderne, et avez déjà une expérience sur des frameworks Big Data (Spark, Hadoop, Kafka, etc.)
  • Vous avez complété une certification AWS de niveau Associate
  • Vous êtes passionné(e) et motivé(e) par la découverte/mise en oeuvre de nouvelles technologies dans votre domaine
  • Vous aimez communiquer, et savez collaborer avec un public non technique

Propulsé par