LeSPCest-ilencoreadapté ausuivien tempsréelde fabricationsélectroniques?

Le 14/12/2018 à 14:00

Les méthodes de maîtrise statistique des processus (SPC) tiennent encore une place prépondérante chez les OEM. Elles sont mises en œuvre pour le contrôle de procédés de fabrication continue, pour calculer des valeurs d'alerte et pour détecter la non-conformité des paramètres du process.

L plique l'éditeur danois Virinco. es méthodes de maîtrise statistique des processus ( Statistical Process Control ou SPC) sont apparues dans les années 1920, afin de répondre aux exigences de production de l'époque. L'un de leurs objectifs est de permettre de détecter précocement des dysfonctionnements et, donc, d'y remédier rapidement et de procéder à des améliorations. Les limitations des méthodes de SPC proviennent en fait des technolo-gies de l'information (IT), un paysage complètement différent de celui d'aujourd'hui. Les méthodes de SPC disposaient en effet d'un volume d'informations bien moindre que celui que peuvent fournir aujourd'hui les systèmes de production modernes. En se référant simplement à la fameuse la loi de Moore, il est évident que la complexité et les performances des technologies informatiques ont depuis considérablement évolué, de même que celles des produits électroniques fabriqués.

De fait,les mesures collectées à l'époque lors des différentes phases de fabrication sont incomparables tant en nombre, en diversité et en complexité à celles traitées aujourd'hui par les processus de production. Compte tenu de cette complexité croissante ainsi que d'autres facteurs tels que l'augmentation des volumes de production, liée notamment à la mondialisation, il en résulte que la quantité et le type de données à prendre en compte n'ont aujourd'hui rien à voir avec ceux qui étaient en jeu dans les années 1920.

Les méthodes de SPC tiennent encore une place prépondérante chez les OEM ( Original Electronics Manufacturers ). Elles sont mises en œuvre pour le contrôle de procédés de fabrication continue, pour calculer des valeurs d'alerte et pour détecter la non-conformité des paramètres du process. En théorie, le dépassement de valeurs limites permet d'avertir d'une dégradation du process. Mais la théorie reste bien «théorique». Une méthode de SPC repose sur un postulat de base selon lequel l'industriel est en mesure d'éliminer ou de prendre en compte les variations attribuables à une cause commune du processus (1).Toutes les autres variations sont donc considérées comme résultant d'une cause particulière. Ce sont donc les paramètres auxquels l'industriel doit s'intéresser alors qu'ils commencent à dériver.

Un produit électronique peut au-jourd'hui comporter des centaines de composants. Sa conception évoluera sensiblement au fil du temps, notam-ment en raison de l'obsolescence des composants qu'il embarque. Le produit sera soumis à différents tests au cours du processus d'assemblage, son firmware sera mis à jour régulièrement, de même que les applications logicielles de test. Les opérateurs, la variation de facteurs environnementaux, ainsi que d'autres éléments auront une influence sur le process de fabrication et de test.

Un exemple à dynamique élevée

Prenons par exemple le cas de la société finlandaise Aidon, qui est fabricant de systèmes de comptage intelligent et de réseau intelligent ( smart grid ). Selon son directeur de production, de logistique et d'approvisionnement Petri Ounila, un lot de fabrication comprend en moyenne 10000 unités, dont chacune intègre plus de 350 composants électroniques. À cela s'ajoutent plus de 35 changements de composants tout au long de ce processus de fabrication. Ce qui conduit à traiter un « nouveau » produit ou processus toutes les 280 unités fabriquées.

Il faut encore ajouter à cela les modifications du processus de test, des montages, des programmes de test, de l'ins-trumentation, etc. Au final, on peut estimer que le procédé change en moyenne toutes les 10 unités, voire moins. En d'autres termes, 1000 pro-cessus distincts sont mis en œuvre pour la fabrication d'un seul lot. Comment peut-on essayer d'éliminer les variations attribuables à une cause commune ? Devrait-on même le faire? Même si l'on y parvient, comment ferait-on pour mettre en place le système d'alerte approprié?

Une méthode de SPC, connue sous le nom de Western Electrical Rules (WECo), développée par l'américain Western Electric Company en 1956, spécifie certaines règles nécessitant un examen approfondi lorsqu'une violation est repérée, selon l'écart constaté entre la valeur observée et les écarts-types (2) .L'un des inconvénients typiques de la méthodeWECo est qu'elle déclenchera, en moyenne, une fausse alarme toutes les 91,75 mesures non liées.

Les indicateurs de performance (KPI) sont très souvent collectés et analysés en aval du processus de fabrication, après la combinaison de plusieurs sous-ensembles dans un système. Les éventuels problèmes ne sont alors pas détectés là où ils surviennent et au fur et à mesure de leur apparition. Si un défaut se propage de cette manière, les conséquences financières peuvent donc être catastrophiques.

Supposons que le volume de production annuel soit de 10000 unités. Si chacune d'elles est soumise à cinq étapes de test distinctes, mettant en œuvre en moyenne 25 mesures, on obtient au final jusqu'à 62 fausses alarmes par jour en moyenne, sur la base de 220 jours ouvrables par an: 10 000 x 5 x 25 Nombre de fausses alarmes/j = 220 = 61,93 91,75 Il faut savoir que, même en supposant, contre toute attente et quelle qu'en soit la raison, que l'industriel soit à même d'éliminer les variations attribuables à une cause commune, il recevra encore 62 alertes chaque jour.Toute personne recevant 62 courriers électroniques quotidiennement d'un même expéditeur les bloquerait probablement, sans accuser-réception ni assurer le suivi d'informations potentiellement importantes.

Les utilisateurs expérimentés en méthodes de SPC feront probablement valoir qu'il existe des moyens de réduire ce phénomène par la mise en œuvre de nouvelles techniques d'analyse plus performantes: « il y a les règles de Nelson, nous avons les règles de l'AIAG [Automotive Industry Action Group, NDLR], mais vous devriez absolument utiliser les règles de Juran.Vous devez identifier les structures d'autocorrélation pour réduire le nombre de fausses alarmes. Et ce graphe d'avant-garde développé au début des années 2000, si on le mettait en œuvre ? »

Des problèmes détectés trop tard

Même si nous parvenions à réduire à seulement 5 le nombre de fausses alarmes quotidiennes, pourrait-il être considéré comme un système d'alerte stratégique? En prenant en compte la dynamique réelle du processus, la méthode de SPC peut-elle constituer un système fiable pour les responsables de fabrication, une méthodologie qui les libère de leurs préoccupations et des maux qui s'en suivent? La plupart du temps, il s'agit d'établir des hypothèses sur un ensemble limité de paramètres pertinents à surveiller et de les suivre attentivement en représentant leur évolution dans des tableaux de contrôle, des graphes X-mR ( individuals and moving range ) ou tout autre outil capable de séparer le bon grain de l'ivraie. Ces indicateurs de performance ( Key Performance Indicators ou KPI) sont en réalité très souvent collectés et analysés en aval du processus de fabrication, après la combinaison de plusieurs sous-ensembles dans un système.

Les tableaux de bord en temps réel et les fonctions de décomposition permettent d'identifier rapidement les facteurs qui contribuent aux mauvaises performances. Il apparaît, ici, qu'une seule défaillance du produit B contribue à environ 50 % des rebuts. Il n'y a aucune garantie que l'étape 4 fasse partie des indicateurs clés surveillés au sein d'un système SPC. Il est cependant essentiel que son évolution soit portée à votre attention.

Une conséquence évidente de cette situation est que les problèmes ne sont pas détectés là où ils surviennent et au fur et à mesure de leur apparition. L'origine pourrait tout à fait provenir de l'un des composants ou des procédés en amont, un composant fabriqué un mois auparavant au sein d'un lot qui représente maintenant 50000 unités. Une règle bien connue stipule que, si un défaut survient à une étape du processus de fabrication, la défaillance va s'accentuer et, à chaque étape, le coût de la réparation augmentera d'un facteur 10. Une défaillance constatée en fin de fabrication pourrait donc nécessiter le démontage du produit par des techniciens, ce qui peut induire de nouveaux défauts. Si un défaut se propage de cette manière, les conséquences financières peuvent donc être catastrophiques. Il existe de nombreux exemples récents d'entreprises qui ont dû se déclarer en faillite, ou s'en protéger, en raison de la perspective de rappels massifs de produits défaillants. L'un de ces exemples est le dépôt de bilan du japonais Takata, après un rappel massif de plus de 100 millions de composants d'airbags (3) .

Une approche plus moderne

L'un des principaux défauts inhérents aux méthodes de SPC, selon les standards de méthodologies modernes telles que le Lean Six Sigma, est qu'elles établissent des hypothèses sur l'origine des problèmes. Il s'agit là d'une conséquence évidente de l'hypothèse d'une stabilité du processus, alors qu'il dépend, comme nous l'avons mentionné précédemment, de facteurs très dynamiques. L'observation des tendances et le suivi d'un ensemble limité d'indicateurs de performance ne font qu'accentuer ce défaut. Encore une fois, cela donne lieu à des initiatives d'amélioration susceptibles d'échouer en se focalisant sur les problèmes les plus urgents, ou les plus rentables.

Tout cela est pris en compte dans les méthodes modernes de gestion de la qualité. Dans le domaine de la fabrication électronique, cela commence par une reconnaissance et un suivi honnête du taux de produits conformes au premier passage ( First Pass Yield ou FPY), pour que la valeur True FPY soit plus précise. Par «True» (vraie), on entend par là que tout type de défaillance doit être comptabilisé, quelle qu'en soit la cause, même si elle est la conséquence d'un simple oubli du branchement d'un câble par un opérateur de test.Tous les tests qui viennent ensuite constituent un gaspillage des ressources que l'entreprise aurait pu mieux exploiter ailleurs. La valeur True FPY représente sans doute le KPI le plus important et le seul, mais la plupart des OEM n'ont pas la moindre idée de la valeur du leur.

Connaissant le taux de produits conformes au premier passage, l'industriel peut le décomposer en parallèle entre différents produits, différentes familles de produits, différentes usines, différentes stations, différents montages, différents opérateurs et différents systèmes de test. Le fait de disposer de ces données en temps réel sous la forme de tableaux de bord fournit une puissante vue de contrôle, ce qui permet d'analyser rapidement l'origine réelle de sous-performances et d'intervenir selon des critères économiques. La mise à disposition de ces informations sous la forme de tableaux de bord en temps réel à toutes les parties prenantes concernées contribue également à une plus grande responsabilisation en matière de qualité. Une bonne règle empirique pour le tableau de bord est qu'à moins que l'information ne soit donnée à l'utilisateur, elle ne sera pas suivie d'effet. Ces derniers n'ont tout simplement pas le temps de chercher la source des problèmes.

Des données de réparation critiques

À l'étape suivante, il est probablement essentiel que l'utilisateur soit en mesure d'obtenir rapidement une vue Pareto de ses défaillances les plus fréquentes dans toutes leurs dimensions. Il se pourrait alors que les outils de SPC deviennent pertinents, afin de fournir davantage d'informations détaillées. Mais on sait maintenant que l'utilisateur les applique sur des éléments très pertinents, et non sur des conjectures. Ils se retrouvent alors dans une situation où ils peuvent prioriser les initiatives en fonction d'un rapport coûts/avantages réaliste.

Il est également essentiel que les don-nées de réparation soient prises en compte par le système. Ces données ne peuvent pas être exclusivement traitées par un système de MES ( Manufacturing Execution System ) ou un outil de réparation externe. Elles fournissent des informations contextuelles qui améliorent l'analyse des causes profondes, en plus de fournir d'autres informations pertinentes. Du point de vue des ressources humaines, il peut également indiquer si les produits sont re-testés à l'aveugle, car les variations normales du processus se trouvent parfois dans les valeurs li-mites, ou si le produit est en fait retiré de la chaîne de fabrication standard puis réparé, comme prévu. Il ne faut pas se faire d'illusions, il n'est pas rare que des produits soient re-testés plus de 10 fois dans la même heure. En conclusion, les actions ayant une influence sur la qualité proviennent de décisions éclairées. Si les industriels ne disposent pas d'une approche de gestion des données capable de leur délivrer une vue d'ensemble, ils ne pourront jamais optimiser la qualité de leurs produits et de leurs processus, ou les bénéfices de leur entreprise. On ne peut pas réparer ce que l'on ne mesure pas.

Une approche conforme au Lean Six Sigma, permettant un élargissement de la portée des méthodes de SPC, est bien plus appropriée pour identifier et hiérarchiser des actions pertinentes conduisant à l'amélioration des processus.

(1) https: //en.wikipedia.org/wiki/ Statistical_process_control. (2) https: //en.wikipedia.org/wiki/ Western_Electric_rules. (3) https: //www.reuters.com/article/ us-takata-bankruptcy-analysis/with-new-takata-air-bag-recalls-automakers-may-facemore-liabilities-idUSKBN1A40X5.

Copy link
Powered by Social Snap