Data Engineer (H/F)

Lyon, France CDI

Le recrutement est fermé pour cette offre

À propos de Askills

Cabinet de conseil résolument tourné vers la Data, nous accompagnons nos clients sur toute la chaine du traitement de données.

Nous proposons des missions variées telles que la prise en charge de la collecte d'un besoin métier jusqu'à sa réalisation en autonomie sur votre technologie de prédilection, le renfort d'équipes de développement agiles, les projets d'Intelligence Artificielle ou encore l'élaboration de reporting en B.I.

Nous axons nos services autour de 5 pôles : la data science, l'ingénierie data, le développement agile, la data visualisation et l'architecture Data.
Nos consultant.e.s sont susceptibles d'intervenir dans chacun des pôles en fonction de leurs envies d'évolution et leurs intérêts technologiques.

Notre jeune existence nous permet de proposer des missions autour d'outils et de langages récents, et l'orientation très marquée Data est le moteur de notre stratégie.

Le poste

Les missions tournent autour de 4 axes :

  • Apporter une expertise en Big Data pour faciliter la manipulation des données

  • Définir les solutions techniques permettant le traitement massif de données

  • Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.)

  • Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation

Missions principales :

  • Assure la création, la maintenance, l'optimisation et la sécurité des bases de données

  • Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier

  • Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier

  • Veille technologique sur les outils utilisés au sein du projet

  • Partage et formation sur les guides de bonnes conduites

Stack technique du projet :

  • Informatica, Java, Tableau Server, Oracle, Hadoop, Cascading, Maven, Hive, HDFS, Indexima, Control-M, Git, Jenkins, Ansible, Spark, Terraform

Profil recherché

  • De formation bac+5 idéalement et ayant une expérience d'au minimum 5 ans dans ce domaine

Compétences :

  • Aptitude à pouvoir cumuler une vision macro des chantiers techniques et pouvoir challenger en même temps les XP/dev dans le détail de l’implémentation

  • Expérience avec un framework de calcul distribué (type Spark ou autre framework)

  • Bonne connaissance de Java 8-11

  • Appétence pour la modélisation et traitement de données

  • Sensibilité à la méthodologie Agile

  • Une connaissance de AWS S3 et Hadoop (HDFS, Yarn, Hive, Map Reduce) est un plus

  • Bonne capacité à travailler au sein d’une équipe

  • Curiosité technique, capacités d'analyse et de synthèse

  • Rigueur, sens des responsabilités et force de proposition

Télétravail à 50% - présence sur site à 50%

Détails sur le poste
Lyon, France
CDI
Propulsé parTaleez