Data Engineer F/H

À propos

Nous sommes l’éditeur de logiciels qui souhaite permettre aux experts-comptables de redevenir ce qu’ils sont réellement : des partenaires stratégiques pour leurs clients. Dans un monde où les obligations réglementaires ne cessent de croître, nous croyons que libérer les professionnels du chiffre de la surcharge administrative est la clé pour renforcer leur rôle de conseil et leur impact sur la réussite des entreprises qu’ils accompagnent.

Nous souhaitons libérer le potentiel stratégique des experts-comptables en leur offrant des outils simples, complets et interopérables. Forts de 20 ans d’expérience et d’une innovation constante, fulll propose une solution SaaS de nouvelle génération, pensée pour automatiser l’administratif et maximiser l’impact en conseil. Notre philosophie : offrir une totale liberté dans le choix des outils, pour s’adapter à chaque pratique métier.

Notre ambition : rester le leader indépendant des solutions SaaS pour les experts-comptables et leurs clients et aider les experts comptables à accompagner 1M d’entreprises d’ici 2030.

Notre approche permet d’enrichir les données clients avec des informations temporelles, sectorielles et extra-financières pertinentes, offrant ainsi une compréhension approfondie et un conseil à forte valeur ajoutée. Notre approche est la méthode fulll : concevoir une solution qui offre une expérience de qualité en industrialisant les traitements et renforçant la relation entre les EC et leurs clients.

Aujourd’hui, Fulll c’est plus de 1300 cabinets clients, 200 000 entreprises, 90 partenaires connectés et 20 ans d’expérience et d’expertise.

Descriptif du poste

Descriptif du poste

Qui cherchons-nous ?

En tant que Data Engineer, tu seras responsable de la mise en place, du déploiement et du monitoring de pipelines d’intégration et de transformation de données à grande échelle. Ton rôle sera essentiel pour alimenter nos applications analytiques et nos modèles de machine learning en données fiables, structurées et exploitables. Tu contribueras également activement à la gestion et à l’évolution de notre data lake.

En collaboration étroite avec nos architectes et tes collègues Data Engineers, tu participeras à l’élaboration de la stratégie de gestion de données de nos futurs produits. Ton travail permettra à nos outils de devenir proactifs et d’accompagner efficacement les décisions stratégiques de nos clients. Tu mesureras directement l’impact de ton travail sur des centaines de milliers d’utilisateurs finaux, dans un cadre agile et innovant.

Quel sera ton quotidien ?


  • Concevoir, déployer et monitorer des pipelines ELT robustes, en utilisant des outils modernes tels que dbt pour les transformations, Airflow pour l’orchestration et meltano pour les extractions (airbyte like).

  • Structurer et valoriser des sources de données variées (structurées et non structurées) pour soutenir nos produits analytiques et décisionnels

  • Collaborer avec les équipes produit pour comprendre et anticiper les besoins en données

  • Participer activement aux échanges techniques, à la veille technologique et au partage de bonnes pratiques au sein de l’équipe

  • (Optionnel) Développer des API en Node.js/GraphQL pour exposer les données traitées à nos applications clientes

Quels seront tes avantages ?

🤝 Workshop toutes les 5 semaines

💡 Un accès illimité à une plateforme d’e-learning pour toujours en apprendre +

☕ Du bon café gratuit pour bien travailler

🍇 Des corbeilles de fruits pour faire le plein de vitamines

💻 Des horaires aménagés et du télétravail jusqu’à 3 jours par semaine

💳 Une carte Swile (Ticket restaurant)


Profil recherché

Quelles sont les qualités requises ?




  • Tu disposes d’au moins 3 ans d’expérience en Data Engineering, notamment dans la création et le maintien de pipelines ELT (meltano, dbt, Airflow).


  • Tu maîtrises SQL et Python, et tu es à l’aise avec le traitement de gros volumes de données (structurées et non structurées).

  • Tu produis du code clair, performant et bien structuré, tout en sachant expliquer simplement tes choix techniques.

  • Une expérience dans le développement d’API (Node.js, GraphQL) serait un vrai plus, mais n’est pas obligatoire.


  • Tu es familier(e) avec l’écosystème AWS et idéalement avec l’Infrastructure as Code (Terraform).

  • Humble et adaptable, tu es capable d’évoluer dans un environnement dynamique et collaboratif.

  • Tu comprends et lis facilement l’anglais technique pour rester informé(e) des dernières évolutions du domaine.


Déroulement des entretiens

Nous ne sommes pas des inconditionnels des process lourds, on préfère avant tout les humains qui peuvent contribuer à faire grandir notre équipe. Ainsi, le processus se compose en 3 étapes :


  • 1er entretien visio avec notre RH

  • Tests techniques

  • 2e entretien avec deux personnes de l’équipe data

Informations complémentaires

  • Type de contrat : CDI
  • Lieu : Aix-En-Provence
  • Télétravail partiel possible