
Développeur Backend et AI
Description du poste
Aperçu
En tant que Développeur·se IA chez Estim.ai, tu vas bâtir et livrer des fonctionnalités GenAI qui ont un impact direct sur nos produits. Tu auras un rôle hybride : IA appliquée + backend, avec un fort accent sur la mise en production.
Responsabilités
Collaborer à la création de solutions d'IA sur mesure, adaptées aux besoins spécifiques de nos clients.
Concevoir, prototyper et déployer des solutions basées sur des LLM pour des cas d'usage concrets (assistant, recherche intelligente, automatisation, etc.).
Mettre en place des pipelines RAG (ingestion, chunking, embeddings, indexation vectorielle, reranking) pour connecter nos modèles à la donnée réelle.
Veiller à la performance et à l'efficacité des modèles d'IA déployés en production.
Expérimenter avec de nouvelles approches IA pour rester à la fine pointe de la technologie.
Développer et maintenir des API robustes et sécurisées avec Python (FastAPI / Flask).
Intégrer les modèles d'IA, notamment ceux basés sur des LLMs, dans les applications backend pour créer des solutions intelligentes et performantes.
Optimiser le code backend pour une performance optimale et une extensibilité maximale.
Concevoir et moderniser une architecture backend scalable en adoptant des approches microservices et event-driven.
Travailler avec des environnements cloud conteneurisés (Docker / Kubernetes) et des pipelines CI/CD pour assurer une livraison fiable, performante et facilement extensible.
Collaborer étroitement avec ton équipe pour implémenter et déployer des solutions AI/ML.
Concevoir et améliorer l'architecture backend pour répondre aux besoins évolutifs de nos projets IA.
Profil tech
Équipe
💻 100% télétravail : Travaille d'où tu veux, quand tu veux !
⏰ Horaires flexibles : L'équilibre vie pro/vie perso, c'est essentiel chez nous !
💬 Réunions virtuelles régulières : Nous aimons nous retrouver pour échanger et renforcer notre esprit d’équipe.
🤝 Mentoring & soutien continu : Chez Estim.ai, on s'entraide et on grandit ensemble.
🌍 Culture inclusive et diversifiée : chaque idée compte, et le travail en équipe est notre force. Chacun·e a sa place, peu importe son parcours, son genre ou son niveau de confiance. On valorise les idées, on apprend les un·es des autres, on célèbre les progrès (pas seulement les résultats), et on donne du “feedback” de façon constructive pour grandir ensemble.
Compétences
Python et l’une de ses bibliothèques pour l'IA (ex: TensorFlow, PyTorch, Sklearn, etc.).
FastAPI ou Flask pour le développement backend.
LLMs :
Expérience concrète avec des LLM modernes (open-source et/ou via API) : sélection, évaluation, intégration et optimisation selon le cas d'usage.
Maîtrise du fine-tuning et de l'adaptation de modèles (ex. LoRA/QLoRA, instruction tuning) + prompt engineering avancé pour des réponses fiables et stables.
Conception et déploiement de solutions RAG : embeddings, chunking, indexation dans une base vectorielle, reranking et évaluation de performance.
Développement d'agents/workflows LLM outillés (function calling, tool use, orchestration multi-étapes) avec monitoring en prod (qualité, dérive, coûts, latence).
Sensibilité forte aux enjeux de sécurité/confidentialité (PII, guardrails, gouvernance des données) et capacité à livrer du LLM "prêt pour la prod".
Évaluation et monitoring de systèmes à base de LLM : Évaluation humaine et automatique, observabilité en production, A\B testing, …
Connaissance des bonnes pratiques de développement.
Compétences en optimisation des modèles IA et évaluation des performances.

