12 juillet 2021

REX : Optimiser la chaîne logistique grâce au Stream Processing

Savez-vous qu’il est possible de réduire vos coûts tout en améliorant votre taux de service ? Bienvenue dans l’ère de l’industrie 4.0 ! Notre client, un groupe automobile, détenteur du plus grand stock de pièces détachées européen, a lancé un vaste chantier d’optimisation SCM.

Besoin client

Après un audit sur site, Nexworld et son client on choisit de traiter en priorité :

  • Le suivi de l’état de préparation des pièces dans les flux logistiques de l’usine
  • La définition en temps réel des emplacements de stockage optimaux
  • L’optimisation les tâches humaines supervisées

Ce que Nexworld a réalisé ?

Malgré les différences de culture entre équipes techniques et métiers et une gestion de projet inadaptée, Nexworld a proposé un plan d’action efficace :

  • Identifier les données nécessaires aux traitements temps-réel
  • Piloter le taux de service grâce à un tracking temps-réel des pièces
  • Optimiser la répartition des pièces sur le site logistique

Résultat

  • Réalisation d’un projet pilote à forte valeur ajoutée avec une approche agile
  • Démarche pragmatique de mise en œuvre du Machine Learning et du Stream Processing
  • Architecture et socle technique évolutifs

Pour en savoir plus

Contactez Frédérick MISZEWSKI, notre expert, qui se fera un plaisir de vous répondre et de partager avec vous sa longue expérience d’accompagnement de projets DATA.

Frédérick MISZEWSKI

Frédérick MISZEWSKI

Directeur du pôle Data

DÉCOUVREZ COMMENT NOTRE CABINET ACCOMPAGNERA LA TRANSFORMATION DE VOTRE ENTREPRISE

Les consultants Nexworld mettent leur expertise au service des entreprises qui souhaitent accélérer leur transformation numérique. Nexworld propose des séminaires adaptés à vos besoins de transformation.

Architecture Fast Data : par où commencer ?

Ce n’est plus un secret pour personne, les données sont aujourd’hui porteuses d’un potentiel incroyable avec une quantité toujours plus importante d’année en année. Pourtant, même si les entreprises sont conscientes des masses de données qu’elles ont à leur disposition, la question de savoir comment les exploiter peine toujours à être traitée.

Kafka, pierre angulaire des Architectures Fast Data ?

Comment éviter que le Big Data ne devienne un « Big Mess » ? C’est pour répondre à cette question qu’en 2009 les équipes de LinkedIn, confrontées à des problématiques d’intégration de données auxquelles les outils disponibles ne répondaient pas, élaborent un nouveau bus de messages distribué : Kafka.