DEEP est né de la fusion de DIGORA, EBRC, ELGON et POST Telecom (B2B). Notre ambition : devenir l’acteur référent des services et solutions numériques innovants et responsables pour les entreprises en France, au Luxembourg et à l’international.
Nos collaborateurs accompagnent chaque jour nos clients sur des enjeux stratégiques : cloud souverain, cybersécurité, data management, innovation digitale et infrastructures de confiance.
Chez DEEP, vous trouverez : un environnement stimulant, des projets de grande envergure, et une culture bienveillante où chacun peut faire la différence.
En tant que Data Engineer, vous interviendrez sur des missions variées chez nos clients (ETI et grands groupes), en collaboration avec des équipes pluridisciplinaires.
Votre rôle consistera à concevoir, développer et optimiser des pipelines de données robustes, scalables et sécurisés, tout en accompagnant les métiers dans la définition de leurs besoins et la valorisation de leurs données.
Vous serez à la fois faiseur et conseil: capable de construire des architectures techniques fiables, mais aussi d’animer des ateliers métiers pour transformer les besoins fonctionnels en solutions data concrètes
Vos principales responsabilités
Data Engineering
Concevoir, développer et maintenir des pipelines de données robustes et automatisés.
Mettre en place des flux d’intégration et de traitement de données, y compris dans des contextes de migration vers le Cloud.
Définir et implémenter de nouvelles architectures data (data warehouse, data lake, lakehouse).
Assurer la qualité, la sécurité, la conformité (RGPD) et la performance des données.
Industrialiser les traitements et mettre en œuvre les bonnes pratiques DevOps (CI/CD, monitoring).
Data Consulting
Animer des ateliers métiers pour comprendre les besoins utilisateurs et les traduire en solutions data adaptées.
Participer à la conception, l’implémentation et l’automatisation des flux de données répondant aux enjeux métiers.
Produire et restituer des analyses et visualisations claires pour accompagner la prise de décision.
Innovation & veille
Expérimenter et industrialiser des modèles de Machine Learning (LLMs, NLP, RAG, etc.).
Contribuer à la veille technologique, tester et intégrer de nouvelles solutions innovantes dans les projets.
Formation & Experience
Diplômé(e) d’une école d’ingénieur ou d’un cursus en informatique (une thèse serait un plus).
Expérience significative avec plusieurs mises en production de pipelines ou projets data.
Compétences techniques :
Langages : SQL, Python, Java.
Bases de données / DWH : PostgreSQL, SQL Server, Oracle.
Orchestration & Big Data : Airflow, Spark, Monitoring, MLOps.
DevOps : Docker, Kubernetes, CI/CD (GitLab, GitHub Actions).
Cloud : AWS.
Data Viz : Plotly/Dash (idéalement Power BI ou Tableau en complément).
IA / ML : GPT, BERT, HuggingFace, LangChain, Pinecone.
Gestion du code : Git (GitFlow standard), GitHub.
Serait un plus : DBT, Snowflake, Terraform, Dataiku, Databricks.
Langues : Français & Anglais courants (écrit et oral).
Soft skills :
Vous avez l’esprit analytique et aimez résoudre des problèmes complexes.
Vous savez vulgariser les concepts techniques auprès des clients (IT / métiers / CDO).
Vous êtes curieux(se) et disposez d’une réelle appétence pour l’innovation et les nouvelles technologies.
Vous êtes autonome, rigoureux(se) et proactif(ve).
Vous aimez travailler en équipe.
🎁 Ce que nous offrons
Une structure à taille humaine avec l’agilité d’une scale-up et la solidité d’un groupe.
Télétravail hybride et organisation flexible.
Prime de vacances, tickets restaurant et accord de participation.
Forfait mobilité durable (jusqu’à 500 €/an).
Leasing vélo électrique possible 🚲.
Un onboarding complet au siège de Strasbourg.
👉 Vous vous reconnaissez dans ce profil et souhaitez contribuer à l’expansion d’un acteur clé du numérique responsable ?
Rejoignez-nous et devenez le(la) Data Engineer de Deep !