Data Engineer – H/F

Description du poste

Notre client est une start-up legaltech qui réinvente la gestion et l’analyse de contrats grâce à l’Intelligence Artificielle et au Machine Learning.

Cette solution en ligne simplifie le travail des professions juridiques au quotidien tout en les aidant à accroître leurs performances.

L’équipe est composée de 20 personnes : experts en développement logiciel, sécurité informatique et intelligence artificielle, mais aussi des juristes, des commerciaux et autres talents passionnés par leur métier.

– Localisation : Paris 9ème
– Rémunération : 50 000 – 75 000 Euros
– Stack technique : TypeScript / GQL / PostgreSQL sur le back et VueJS2˜3 / Vuex sur le front.

Les composants machine learning sont développés en Python avec certains éléments en C/C++.
Enfin, l’infrastructure cloud s’appuie sur une infrastructure GCP / Kubernetes / Docker entièrement automatisé / scripté.

Dans le cadre d’une création de poste, notre client recherche un(e) Data Engineer, dont les missions seront :

– Industrialisation / déploiement / monitoring des algorithmes de machine learning développés par l’équipe de Data Scientist,
– Conception et implémentation de pipelines scalables de traitement de données,
– Centralisation et standardisation des données dans notre Data Lake,
– Amélioration de notre pipeline de traitement de documents pour la rendre plus scalable,
– Identifier les besoins de l’équipe Data Science en terme de performance et de déploiement.

Profil recherché

Profil recherché pour ce poste :

– Plusieurs expériences réussies sur un poste similaire (stages inclus),
– Issu(e) d’une formation ingénieur avec un réel goût pour la technique et l’environnement startup,
– Maîtrise de Python,
– Bonne culture du test et de la qualité logicielle,
– Solides connaissances en base de données (PostgreSQL),
– Être familier avec les bonnes pratiques de développement, intégration continue, déploiement continue (tests unitaires, docker, drone).

Les plus :

– Une connaissance des algorithmes de machine learning et des librairies associées (scikit-learn, spaCy, Tensorflow, pyTorch, Keras, opencv),
– Connaissances des infrastructures et des systèmes de stockage cloud (GCloud, AWS, OVH),
– Être familier avec un/des systèmes de gestion de base de donnés type Big data (Spark, MongoDB, Hadoop …).

Les +, pour vous :

– Participer à une aventure unique au sein d’une équipe passionnée,
– Conférences techniques,
– Profiter d’un package attractif (tickets restaurant, rémunération, intéressement),
– Offsites et Happy Hours !,
– Des bureaux au centre de Paris 9ème,
– Télétravail « à la carte ».

Si cette opportunité vous intéresse, n’hésitez pas à postuler directement.

Vous connaissez un profil qui correspond à cette offre ?

Coopter