Intelligence continue : une nécessité pour la fabrication

Les entreprises de fabrication sont confrontées à un afflux massif de données et, en tant que telles, augmentent leurs investissements dans des moyens de gérer le volume à grande vitesse.
Ce n’est un secret pour personne que les entreprises de tous les secteurs de l’industrie constatent une augmentation significative du volume, de la vitesse et de la variété des données alimentant leurs organisations. Le défi de gérer ces volumes de données sans cesse croissants n’a été exacerbé qu’au cours de la dernière année, en raison de la pression supplémentaire de la pandémie mondiale et du passage soudain à de nouvelles méthodes de travail.
L’industrie manufacturière en particulier a été fortement touchée – selon recherche récente, plus de 50 % des entreprises interrogées dans le secteur manufacturier ont signalé une augmentation significative de plusieurs types de données, y compris les données de commerce électronique, les données des clients et les données des capteurs. Dans l’enquête, les entreprises manufacturières ont signalé des augmentations importantes de leurs investissements dans les technologies suivantes :
- Cloud computing (50 % des entreprises ont considérablement augmenté leurs investissements en 2020)
- Analyse de données (45% des entreprises Investissement significativement accru en 2020)
- Automatisation (43 % des entreprises Augmentation significative des investissements en 2020)
- Machine learning et IA (42 % des entreprises ont considérablement augmenté leurs investissements en 2020)
Ce que cela nous dit, c’est que les fabricants comprennent qu’un accès plus rapide à des données de meilleure qualité est essentiel pour améliorer les opérations et réduire les coûts. Et bien qu’il s’agisse d’un bon point de départ, les fabricants ont encore du travail à faire lorsqu’il s’agit de mettre en œuvre un processus d’« intelligence continue » – où les données en temps réel et historiques sont continuellement combinées pour une analyse en temps réel – pour produire des données rapides, précises, prise de décision pilotée par la machine.
Un obstacle clé consiste à aligner la technologie et les processus pour permettre le passage opérationnel à l’intelligence continue. Examinons de plus près ce que les entreprises de fabrication peuvent faire pour faire de ce changement une réalité et commençons à réaliser tous les avantages que l’analyse en temps réel peut offrir.
Contents
Soyez conscient des pièges des technologies héritées
L’ingestion de données suffisamment rapidement pour prendre en charge l’analyse et la prise de décision est une exigence critique pour une intelligence continue. Cependant, la capture, la gestion et l’analyse des données à grande vitesse peuvent pousser les technologies héritées à leurs limites. Par exemple, là où auparavant des échantillons périodiques étaient prélevés pour détecter les problèmes de qualité, les fabricants cherchent désormais à surveiller les processus et les outils 24h/24 et 7j/7. Le simple fait de pouvoir capturer et stocker des données de mesure est une tâche considérable en soi. Ajoutez à cela la pièce d’analyse, et les systèmes existants auront rapidement du mal.
S’assurer que les données sont de qualité suffisante pour l’analyse et la prise de décision est essentiel et peut avoir des implications sur la santé, la sécurité et la production. Les capteurs et les machines peuvent mal fonctionner, les données peuvent être en retard ou en panne. Vous avez besoin de méthodes en place pour vérifier et corriger en permanence les anomalies dans les données – et le faire assez rapidement pour pouvoir prendre des mesures préventives et/ou correctives.
Un autre défi lié aux technologies héritées est l’accès aux données. L’une des plus grandes plaintes et défis des ingénieurs, data scientists et techniciens est d’avoir accès aux données brutes non filtrées des outils. Les outils hérités imposent des restrictions sur l’accès aux données afin de ne pas avoir d’impact sur les opérations du système, et si l’accès est fourni, c’est souvent plusieurs heures – voire plusieurs jours – après le fait. Encore une fois, pour qu’un modèle opérationnel d’intelligence continue soit efficace, l’accès aux données doit être quasi instantané et constant.
Analyser les informations sur les données à la périphérie
Une fois les données collectées, le défi consiste à trouver une valeur significative pour détecter les anomalies, faire des prédictions et faire des recommandations pour améliorer les opérations en temps réel. Même si une organisation dispose des données, si le processus d’analyse prend plusieurs heures, voire plusieurs jours à s’exécuter, la valeur de ces données se dégradera rapidement, faisant manquer à l’organisation une fenêtre d’opportunité qui pourrait permettre une différenciation concurrentielle.
À mesure que le processus de fabrication s’accélère, la nécessité de prendre des décisions en quelques millisecondes s’accélère également. Faire des évaluations et prendre des mesures – comme déterminer si une pièce doit être rejetée – doit se faire au rythme du processus. Pour atteindre ces vitesses, le traitement et l’analyse des données doivent se produire à proximité de l’endroit où se trouve l’action, souvent à la périphérie. Le déplacement des données vers le cloud et inversement ajoute trop de latence au processus et présente des risques pour les installations de production si l’accès à Internet était interrompu.
Premiers pas avec l’analyse de données
Compte tenu des défis décrits ci-dessus, faire le bon choix sur un partenaire d’analyse en temps réel est essentiel.
Tout d’abord, réfléchissez à la manière dont une solution d’analyse en temps réel pourrait s’intégrer dans l’environnement de données existant. Il est peu probable que de nombreuses entreprises suppriment et remplacent leur pile logicielle de données, les solutions doivent donc pouvoir être intégrées rapidement et facilement dans les systèmes existants. Idéalement, ils devraient être compatibles avec les principales plates-formes cloud et architectures informatiques, et interopérables avec les langages de programmation populaires tels que Python pour utiliser les fournisseurs de services d’analyse et d’apprentissage automatique.
De plus, les plates-formes logicielles doivent pouvoir être déployées à la périphérie, à proximité de l’endroit où les données sont générées près de l’outil ou sur le terrain, ainsi que sur site et dans l’infrastructure cloud pour prendre en charge les charges de travail et les cas d’utilisation où la latence est importante, tout en fournissant simultanément des vues consolidées en temps réel sur les actifs, les processus, les usines et les emplacements.
La sécurité sera également importante – il est recommandé aux entreprises de fabrication de travailler avec des fournisseurs de services réputés capables d’installer et de configurer la technologie de manière à ne pas mettre leur entreprise en danger tout en leur permettant de s’adapter.
La maintenance continue et les coûts d’exploitation sont d’autres facteurs à prendre en compte, ainsi que le niveau de services professionnels disponibles pour prendre en charge l’analyse, la correction et la migration des données. Les entreprises peuvent également vouloir examiner l’expérience qui existe au sein de l’organisation, pour voir si les compétences appropriées existent ou si les politiques de formation et d’embauche doivent être mises à jour.
Lorsqu’elle est effectuée efficacement, l’exploitation des données pour comprendre et optimiser l’utilisation et la maintenance des machines peut différencier les entreprises de fabrication de leurs concurrents. Qu’il s’agisse de parcourir les calendriers de réparation d’un parc de machines pour s’assurer qu’elles sont optimisées pour de grandes séries de production ou de comprendre même les corrections opérationnelles mineures avec une machine, la compréhension et l’analyse des données en temps réel sont essentielles pour maximiser les opérations. Le déverrouillage de l’intelligence continue nécessite d’aller au-delà de la gestion des données en silos avec l’analyse par lots des données historiques, et dans une ère où les organisations rassemblent des données en temps réel et historiques de toute l’entreprise pour une analyse « sur le moment » afin de prendre des décisions plus rapides et plus intelligentes .

A propos de l’auteur
Przemek Tomczak, vice-président principal de l’IoT et des services publics chez KX et First Derivatives plc, où il dirige l’Internet des objets et les secteurs verticaux de l’industrie des services publics à l’échelle mondiale. Przemek a plus de 24 ans d’expérience dans le domaine de l’informatique et des affaires, dans la mise en œuvre et l’exploitation de systèmes de Big Data et d’analyse, dans la mise en œuvre d’initiatives de programme et de transformation, de conseil, d’externalisation et de gestion des risques dans les secteurs de l’énergie et des services publics et autres.