Approches modernes de pipelines de donnéespour industrialiser vos applications d'IA

Découvrez comment les approches modernes de MLOps et de Data Engineering accélèrent l’industrialisation d’applications avancées d’IA et GenAI. Dans cette session, nous explorons ensemble l’état de l’art des technologies permettant de garantir la performance, la scalabilité et la fiabilité des services d’IA.

Nous partagerons également nos retours d’expérience concrets illustrant la mise en œuvre de ces solutions et architectures pour déployer et maintenir des modèles d’IA à l’échelle, en s’appuyant sur des technologies de streaming comme Kafka, d’inférence comme Nvidia Triton et de MLOps comme ZenML, …

Informations pratiques

Auditorium GMAI Dialogue - gauche

Quand ?

🗓️ Le 24 juin 2025, de 8h30 à 10h30

Où ?

📍 Paris, La Défense, Tour Légende – 20 place de la Défense – 92800 Puteaux

Pour qui ?

🎯 Experts Tech, Innovation, DSI, … tous ceux qui dirigent des équipes Data/IA de toutes tailles.

Les speakers

Augustin HOFF

Augustin HOFF - Lead Data Scientist à la MAIFInvité spécial

Ce témoignage concret de la MAIF vous plongera au cœur de l’industrialisation de ses services d’IA. Vous découvrirez comment l’acteur assurantiel de premier plan a pu architecturer ses pipelines de données en streaming avec Kafka pour une gestion événementielle de leur solution.

Augustin HOFF, responsable du projet côté Data Science (MAIF), et Ugo Lorenzini (ILLUIN Technology) nous partageront leur retour d’expérience et reviendront en détail sur l’adoption d’une approche microservices, en démontrant comment elle favorise l’agilité, la scalabilité et la maintenance indépendante des différents composants IA.

Robert VESOUL

CEO & Co-fondateur
ILLUIN Technology

Victor ALIBERT

Data Engineering Manager
ILLUIN Technology

Ugo LORENZINI

Staff Data Engineer
ILLUIN Technology

Pierre LECERF

Staff Data Engineer
ILLUIN Technology

Déroulement et thématiques abordées

8h30  ☕️  Café d’accueil

9h00  🎤  Introduction sur ILLUIN Technology

9h15  ⚙️ État de l’art en data engineering pour le réentrainement automatique de modèles en production

9h30  ⚙️ Retour d’expérience MAIF sur l’industrialisation de services d’IA

10h00  🙋‍♀️  Questions et échanges

ML Ops

En intégrant des workflows d’entraînement, de déploiement et de monitoring continus, le MLOps facilite l’itération rapide des modèles et assure leur robustesse face à l’évolution des données et des besoins métiers. Cette approche est clé pour passer de POC isolés à des services d’IA déployés à grande échelle, résilients et maintenables dans le temps. À travers des technologies comme ZenML, nous explorerons comment le MLOps devient le socle de l’industrialisation de l’IA dans les entreprises.

Data Engineering

L’approche Data Engineering est un maillon indispensable pour alimenter des modèles d’IA performants, et industrialiser des solutions d’IA. Les pipelines de données modernes doivent répondre à des enjeux de scalabilité, de fiabilité et de gouvernance. En explorant des technologies comme Kafka ou Airflow, nous verrons comment le Data Engineering permet de construire des architectures de flux de données événementiels et de stocker des données optimales.

Pourquoi venir ?

  • Découvrir des solutions de MLOps / Data Engineering avancées pour l’industrialisation de vos modèles d'IA en production
  • Bénéficier de REX concrets et détaillés d’ILLUIN Technology et de ses clients, sur les défis de l'industrialisation IA via des technologies de pointe (Kafka, architectures microservices, Nvidia Triton)
  • Identifier les bonnes pratiques et les écueils à éviter pour vos propres projets d'industrialisation IA, en vous inspirant de cas d'usage réels
  • Échanger entre pairs et avec nos experts sur vos approches et accélérez la mise en production de vos propres modèles d'IA

Misez sur nos expertises pour faire de vos données un atout stratégique

Nous vous accompagnons dans la conception d’architectures robustes et l’optimisation des pipelines pour garantir des flux de données fiables et performants. Que vous soyez au début de votre démarche ou à un stade avancé, nous maximisons la valeur de vos données pour accélérer le succès de vos projets Data.

Notre savoir-faire

Nous concevons des pipelines d’ingestion et de transformation pour traiter des volumes massifs de données (plusieurs millions par jour). Nos compétences couvrent notamment la Data Transformation (pipelines ETL/ELT), et les traitement par Batch (Apache Spark...), en Streaming (Google Dataflow, Apache Beam / Flink...) ou événementiel (Apache Kafka...) ainsi que l’orchestration et l’automatisation de workflows complexes avec des technologies comme Apache Airflow / Dagster.

Exemples de technologies utilisées

Notre savoir-faire

Nous centralisons et migrons vos données dans des espaces de stockage fiables, sécurisés et scalables afin de construire votre Single Source of Truth (SSoT). Nos solutions couvrent notamment les architectures de type Data Warehouse (Google BigQuery, AWS Redshift) et Data Lake House (sur des solutions Cloud comme Databricks ou on-premise avec une stack de type Minio / Dremio / Apache Iceberg par exemple).

Exemples de technologies utilisées

Notre savoir-faire

Nous optimisons et déployons vos infrastructures Data de façon continue et automatisée (Infrastructure as Code avec “Terraform”) sur vos serveurs ou sur les principaux Cloud Providers (GCP, AWS, Azure, OVH, Outscale...). Vos architectures sont scalables, sécurisées et complètement monitorées (metrics/dashboard, alerting, logging, tracing) avec une stack de type Prometheus / Grafana afin de fiabiliser vos opérations.

Exemples de technologies utilisées

Notre savoir-faire

Nous industrialisons vos projets d’IA avec des plateformes de ML Ops Cloud (AWS Sagemaker / Azure ML / Vertex AI) ou on-premise avec ZenML en consolidant vos pipelines de bout en bout : de l’expérimentation avec des solutions d’experiment tracking jusqu’au déploiement en production en intégrant du model serving / versioning et une orchestration de vos pipelines d’entrainement (avec Airflow par exemple). Vos données sont stockées, sécurisées et versionnées dans des feature stores spécialisés afin de les interroger en live ou en batch.

Exemples de technologies utilisées

Notre savoir-faire

Nous offrons des solutions d’analytics complètes allant du processing / stockage dans des bases de données OLAP (Google BigQuery, Apache Druid par exemple) à l’intégration de solutions de Data Visualisation (Apache Superset, Tableau…) . Grâce à notre expertise, vos données se transforment en insights exploitables via des outils de visualisation et de reporting avancés.

Exemples de technologies utilisées

Notre savoir-faire

Nous renforçons la gouvernance, la traçabilité (Data Lineage, Data Monitoring) et la sécurité de vos données en assurant leur conformité (Data Compliance) et leur qualité au long de leur cycle de vie. Nous vous aidons à vous structurer autour de vos besoin en Data avec des organisations de type Data Mesh.

Notre savoir-faire

Nous concevons des pipelines d’ingestion et de transformation pour traiter des volumes massifs de données (plusieurs millions par jour). Nos compétences couvrent notamment la Data Transformation (pipelines ETL/ELT), et les traitement par Batch (Apache Spark...), en Streaming (Google Dataflow, Apache Beam / Flink...) ou événementiel (Apache Kafka...) ainsi que l’orchestration et l’automatisation de workflows complexes avec des technologies comme Apache Airflow / Dagster.

Exemples de technologies utilisées

Notre savoir-faire

Nous centralisons et migrons vos données dans des espaces de stockage fiables, sécurisés et scalables afin de construire votre Single Source of Truth (SSoT). Nos solutions couvrent notamment les architectures de type Data Warehouse (Google BigQuery, AWS Redshift) et Data Lake House (sur des solutions Cloud comme Databricks ou on-premise avec une stack de type Minio / Dremio / Apache Iceberg par exemple).

Exemples de technologies utilisées

Notre savoir-faire

Nous optimisons et déployons vos infrastructures Data de façon continue et automatisée (Infrastructure as Code avec “Terraform”) sur vos serveurs ou sur les principaux Cloud Providers (GCP, AWS, Azure, OVH, Outscale...). Vos architectures sont scalables, sécurisées et complètement monitorées (metrics/dashboard, alerting, logging, tracing) avec une stack de type Prometheus / Grafana afin de fiabiliser vos opérations.

Exemples de technologies utilisées

Notre savoir-faire

Nous industrialisons vos projets d’IA avec des plateformes de ML Ops Cloud (AWS Sagemaker / Azure ML / Vertex AI) ou on-premise avec ZenML en consolidant vos pipelines de bout en bout : de l’expérimentation avec des solutions d’experiment tracking jusqu’au déploiement en production en intégrant du model serving / versioning et une orchestration de vos pipelines d’entrainement (avec Airflow par exemple). Vos données sont stockées, sécurisées et versionnées dans des feature stores spécialisés afin de les interroger en live ou en batch.

Exemples de technologies utilisées

Notre savoir-faire

Nous offrons des solutions d’analytics complètes allant du processing / stockage dans des bases de données OLAP (Google BigQuery, Apache Druid par exemple) à l’intégration de solutions de Data Visualisation (Apache Superset, Tableau…) . Grâce à notre expertise, vos données se transforment en insights exploitables via des outils de visualisation et de reporting avancés.

Exemples de technologies utilisées

Notre savoir-faire

Nous renforçons la gouvernance, la traçabilité (Data Lineage, Data Monitoring) et la sécurité de vos données en assurant leur conformité (Data Compliance) et leur qualité au long de leur cycle de vie. Nous vous aidons à vous structurer autour de vos besoin en Data avec des organisations de type Data Mesh.

Quelques réussites à grande échelle

Randstad

Comment Randstad a centralisé ses données avec un Data Mart pour améliorer la qualité et optimiser ses processus métiers ?

Découvrez comment Randstad a centralisé ses données grâce à un Data Mart, améliorant la qualité des informations et optimisant ses ...
Comment GEOPOST a mis en place un Datalakehouse sur mesure et scalable pour booster les applications d'IA ?

Comment GEOPOST a mis en place un Datalakehouse sur mesure et scalable pour booster les applications d’IA ?

Découvrez comment Geopost a modernisé son infrastructure data en mettant en place un Datalakehouse scalable et des pipelines Kafka pour ...
Comment la MAIF s’est dotée d’infrastructures MLOps optimales pour passer à l’échelle ses projets d’IA ?

Comment la MAIF s’est dotée d’infrastructures MLOps optimales pour passer à l’échelle ses projets d’IA ?

Découvrez comment la MAIF a réussi à industrialiser ses solutions d'IA avec les pratiques MLOps et LLM Ops, optimisant ainsi ...

Le choix des leaders

Pour s’inscrire, c’est par ici 👇

🗓️ Le 24 juin 2025, à partir de 8h30

📍 En présentiel, Paris, La Défense, Tour Légende – 20 place de la Défense – 92800 Puteaux