Accueil 5 Recherche & Transferts 5 La science de la mesure au service de décisions efficientes

La science de la mesure au service de décisions efficientes

Quel que soit le domaine, les mesures fondent les décisions. Or, et contrairement à nos…
Publié le 29 janvier 2017
Partager l'article avec votre réseau

Quel que soit le domaine, les mesures fondent les décisions. Or, et contrairement à nos « intuitions », les mesures ne sont pas justes, les décisions ne sont donc pas certaines ! De ce fait, chaque décision induit des risques.

La Smart Metrology, concept développé par les auteurs de cet article, s’appuie sur ce constat peu rassurant à première vue. Les technologies actuelles ouvrent cependant de nouvelles opportunités remarquables qu’il faut saisir parce qu’elles sont les faces positives des risques, des opportunités, à prendre pour inventer un avenir durable.

L’indispensable prise en compte des incertitudes de mesures

Nos organisations industrielles ont hérité d’un modèle datant du siècle dernier. La mécanisation puis l’automatisation et l’informatisation ont incontestablement permis de faire des progrès spectaculaires en termes de productivité. En revanche, le mode de réflexion, la façon de penser et de piloter les entreprises, les processus et plus précisément encore les produits, n’ont pas encore fondamentalement changé. En effet, à l’heure de l’informatisation, de l’augmentation incessante de la puissance de calculs et de la capacité de stockage de l’information, il est surprenant de constater que le modèle de pensée n’a, quant à lui, que très peu évolué. On informatise et on robotise mais les produits sont principalement conçus aujourd’hui comme on les concevait à l’époque de la « table à dessin », les procédés sont pilotés comme on le faisait il y a cinquante ans et les décisions sont prises à partir de données mesurées échantillonnées.

Dans ce contexte, la Métrologie, science de la Mesure, après deux cents ans de Métrologie Légale, vit dans le dogme de « mesures justes ». Pour répondre aux besoins légitimes des consommateurs sur le plan de la loyauté des échanges commerciaux, l’Etat a mis en place un système (Métrologie Légale) chargé d’assurer cette loyauté. Après ces deux siècles d’usage, le consommateur ne doute plus une seule seconde de la valeur indiquée par les instruments de mesure, contrairement à ses aïeux qui eux voulaient « un poids et une mesure » à la veille de la révolution française. Pour ce consommateur, les mesures sont justes, donc indiscutables. Or, ce consommateur est aussi l’opérateur qui, derrière sa machine, décide de régler ou non un processus ou le contrôleur qui décide d’accepter ou de refuser un lot. Il est aussi le directeur qui doit prendre des décisions, souvent de manière indirecte, sur la base de mesures dont il n’a aucune idée de la pertinence véritable.

Un « bon » instrument est évidemment nécessaire à une « bonne » mesure, mais cette condition n’est pas suffisante. La mesure est un processus comme un autre qui fait intervenir différents facteurs. En se limitant à ne considérer que l’instrument de mesure1, la métrologie passe à côté des autres facteurs (environnement, opérateurs, objet mesuré lui-même, …) souvent bien plus influents, donc tout aussi essentiel à la qualité de la mesure et à la décision qui en découle. Or, qui dit « processus de mesure » dit, de manière inexorable, « incertitude de mesure ». La quantification probabiliste de cette incertitude exprime l’information à laquelle le processus de mesure donne accès dans un contexte d’utilisation : une infinité de valeurs potentielles de l’objet mesuré mais dont les probabilités de réalisation ne sont pas toutes identiques. Ce mode de représentation de la réalité mesurée ouvre alors la possibilité d’évaluer des risques décisionnels et de gérer les coûts de manière efficiente.
1 qui a déjà fait l’objet d’une attention toute particulière par son fabricant

Alors que les mesures ne sont pas et ne peuvent pas être « justes », il est étonnant que, dans le quotidien industriel, les décisions soient majoritairement prises à partir d’une seule valeur mesurée sans que cette négligence ait de conséquences apparentes. Ce « prodige » est due au fait que les tolérances exprimées sont généralement déterminées à partir d’un modèle où les entités fonctionnellement conformes sont obtenues par itérations de mesures de mises au point. Les bornes de spécification ont donc été revues pour s’adapter à des valeurs mesurées considérées comme juge de paix. En contournant l’incertitude par une « manipulation d’exigences », l’industrie perd ainsi énormément de temps, d’argent et d’énergie. Des tolérances trop petites, c’est trop de matière première, trop d’énergie, trop de temps (dont celui consacré aux litiges inutiles) et bien d’autres impacts négatifs. L’incertitude de mesure se présente donc comme une fabuleuse opportunité pour tendre vers une expression plus rationnelle du besoin fonctionnel parce qu’elle permet d’élargir les spécifications actuelles au juste nécessaire et d’envisager non seulement des coûts de production plus faibles mais également de moindres consommations.

Un avenir à construire pour le métrologue : la Smart Metrology
La mesure est de fait un enjeu majeur pour l’entreprise. En Recherche et Développement, la qualité des mesures intervient directement sur les temps de développement et de mise au point. Pour prendre des décisions dans ce domaine (poursuivre une voie de recherche, valider un modèle, valider des performances…), la mesure doit être suffisamment fiable pour que les décisions soient pertinentes ; a contrario, l’entreprise risquerait de perdre du temps en revenant sur ses choix, en abandonnant des pistes, en reprenant des spécifications …. Ce temps peut être critique pour elle. Dès lors, le métrologue devrait être l’expert participant activement aux bonnes décisions. C’est en analysant la qualité des mesures disponibles, en proposant des technologies de mesure pour garantir le niveau de performance requis, en assurant la formation et l’accompagnement des opérateurs chargés des mesures que le métrologue pourra donner à sa fonction la place qu’elle mérite.

Les technologies avancent et, à l’aube du XXIème siècle, la mesure va continuer à jouer un rôle majeur, notamment dans la mise en œuvre des nouvelles technologies dont la conséquence première est l’explosion de données à disposition. Alors que le « Big Data » se définissait, à ses débuts, par les «3V» (Volume, Variété et Vélocité), les précurseurs ont rapidement fini par comprendre, pour l’avoir expérimenté à leurs dépens, qu’il fallait aussi impérativement intégrer un quatrième V, celui de «Véracité». S’il est intuitif de s’attendre à tirer beaucoup de profits de ce nouvel « or numérique » que sont les données, il est tout aussi intuitif d’admettre que ces données doivent être impérativement fiables pour avoir des utilisations pertinentes.

Quel que soit le nom qu’on lui donne, l’entreprise du futur ne fonctionnera pas sans évoluer vers des solutions de collecte, de stockage et surtout d’exploitation des données. On évoque désormais la nécessaire « digitalisation des entreprises » permettant d’obtenir la « continuité numérique ». Les industriels pourront ainsi remettre en cause leurs pratiques empiriques et auront la possibilité d’optimiser leur fonctionnement. Dans ce nouveau monde, la métrologue a un tout autre rôle que celui qu’il tient traditionnellement. Il ne s’agit plus de s’assurer de la conformité d’une entité ou d’un instrument de mesure, mais bel et bien de garantir que la donnée (c’est-à-dire la mesure) représente le plus fidèlement possible la réalité, condition sine qua non pour espérer en tirer de la Valeur.

Si l’inférence statistique est née du besoin de caractériser une population totale sur la base de quelques échantillons pour contourner la question des coûts importants liés à la mesure, la technologie permet de plus en plus de sortir de cette contrainte. Avec les capteurs actuels de toute sorte, filaires, Bluetooth, Wifi ou autre, qui délivrent de l’information en mode quasi-continu sur tout type de paramètres, nous sommes entrés dans l’ère du « 100 % mesuré » ou, tout du moins, du «100 % mesurable ». Toutes ces données qui deviennent disponibles sont stockables à un coût quasiment dérisoire. Cloud ou non, elles sont donc exploitables et archivables… le problème étant alors de les exploiter effectivement via les techniques de la « Data Science ».

Illustrons cette évolution par un exemple pédagogique.
Imaginons que nous recherchions les conditions optimales pour obtenir des plantes d’une longueur supérieure à une limite. En identifiant, dans un premier temps, les facteurs « arrosage» et «lumière» comme facteurs importants à considérer et en recueillant chaque jour, tout au long d’une production, les données relatives aux quantités de lumière et d’arrosage reçues par chaque plante, il est possible, au moment de la récolte, d’associer la longueur de la plante aux paramètres influents « arrosage cumulé» et «lumière cumulée». Chaque plante peut alors être représentée par un point de coordonnées dans le plan (« arrosage cumulé » ; « lumière cumulée ») tel que présenté sur la figure ci-dessous où le point est clair si la longueur est supérieure à la limite, foncé dans le cas contraire. Par un procédé algorithmique, il est possible de déplacer « intelligemment » un rectangle dans ce plan pour découvrir automatiquement une situation où se trouve un maximum de points clairs. Les côtés du rectangle ainsi déterminées spécifient les quantités cumulées de lumière et d’arrosage qui permettent d’obtenir des plantes de longueur au moins égale à la longueur souhaitée. On imagine très bien la potentialité d’une telle procédure appliquée à de nombreux autres facteurs pour déterminer automatiquement des conditions de performance dans un hyper-espace.

Partager l'article avec votre réseau
Loading...