Le contexte, le besoin 📍
Avec plus de 10 millions de colis traités quotidiennement, Geopost fait face à un volume de données massif, nécessitant une approche d’ingénierie des données avancée pour exploiter pleinement ces informations en temps réel. Face à cette charge de travail colossale, l’entreprise doit mettre en place des solutions d’intelligence artificielle qui facilitent des tâches comme la vérification d’identité des expéditeurs et destinataires, la conformité des colis, le calcul de l’empreinte carbone, ou encore l’optimisation du réseau logistique.
Cependant, gérer ce flux de données complexes et le transformer en informations exploitables nécessite une infrastructure solide et performante. C’est là qu’intervient la transformation digitale de l’architecture data chez Geopost, avec pour objectif de développer des solutions IA agiles, capables de répondre en temps réel aux exigences opérationnelles.
L’approche mise en œuvre, la solution 🛠
Pour répondre à ces besoins, nous avons mis en place une approche complète en Data Engineering, en fournissant à Geopost des solutions adaptées à leur infrastructure data et à leurs enjeux opérationnels. Au cœur de cette approche se trouve la mise en place d’un Datalakehouse scalable basé sur S3 et Dremio, conçu pour traiter les flux de données en continu et booster les applications IA.
Notre accompagnement s’est articulé autour de deux axes principaux :
-
- Le conseil et l’audit de l’infrastructure data : Nous avons procédé à une analyse et un benchmark des solutions existantes avant de recommander et déployer une architecture de Datalakehouse capable de traiter efficacement les volumes importants de données.
-
- Le développement des pipelines de données : Nous avons développé des pipelines Kafka pour traiter ces flux massifs de données en temps réel, rendant possibles des services d’IA critiques tels que le calcul de l’empreinte carbone ou la prévision des temps de livraison.
Activités principales réalisées ✅
La réalisation de cette solution s’est appuyée sur des technologies avancées, ainsi que des modèles IA sur mesure pour répondre aux besoins de Geopost.
Voici les principales activités menées :
-
- Optimisation des processus internes : Automatisation de tâches manuelles (ex : parsing de documents et photos) et mise en place d’un moteur de recherche/synthèse de données.
-
- Prévision et analyse des flux logistiques : Algorithmes de machine learning pour le forecasting des temps de livraison et la gestion des itinéraires optimaux.
-
- Calcul en temps réel de la compliance et de l’empreinte carbone : Traitement des informations relatives aux colis pour évaluer leur conformité réglementaire et leur impact environnemental en temps réel.
La stack technique, les modèles utilisés 🤖
Les résultats, les bénéfices obtenus ✨
Grâce à cette nouvelle infrastructure et aux solutions IA mises en place, Geopost a pu industrialiser ses besoins en intelligence artificielle et data engineering. Les bénéfices principaux obtenus incluent :
🥰 Amélioration de la satisfaction client
Grâce à des services plus rapides et précis, notamment dans la prédiction des temps de livraison et la gestion de la conformité des colis.
📉 Optimisation des processus logistiques
Réduction des coûts opérationnels et des délais grâce à une meilleure planification des trajets et à la gestion automatisée des flux.
🌱 Réduction de l’impact environnemental
Le calcul en temps réel de l’empreinte carbone permet à Geopost de mieux piloter ses initiatives en matière de développement durable.
🎯 Scalabilité et flexibilité
L’architecture Datalakehouse permet de traiter des volumes de données croissants, tout en restant flexible pour intégrer de nouveaux services IA à l’avenir.
Enfin, avec l’accompagnement d’une équipe d’experts dédiés (8 ETPs – 2 Tech Leads, 4 Data Scientists, 4 Data Engineers), Geopost a réussi à moderniser son infrastructure data et à améliorer considérablement l’efficacité de ses services, positionnant ainsi l’entreprise en tant que leader dans l’utilisation de l’IA pour la gestion logistique.
Conclusion
La mise en place d’une infrastructure data moderne et la création de pipelines Kafka pour le traitement des données en temps réel ont permis à Geopost de franchir un cap décisif dans l’optimisation de ses opérations. Les résultats obtenus sont à la hauteur des enjeux : une réduction des coûts, une meilleure satisfaction client, et une infrastructure prête à soutenir la croissance future.
Liens utiles 🔗
🦹 Nos réalisations tech sur-mesure en Data Engineering
🍾 Success stories Geopost – Comment GEOPOST gère 30M de conversations par an dans 18 langues avec ILLUIN Dialogue











