Principes et outils Six Sigma
Bienvenue dans le troisième volet de notre série sur Lean et Six Sigma. Comme nous l'avons vu dans le premier article, "Que sont les méthodologies Lean et Six Sigma ?", Lean et Six Sigma sont des méthodologies d'amélioration continue complémentaires qui réduisent respectivement le gaspillage global et la variabilité des processus de production. Le deuxième article, « Principes et outils du Lean », a approfondi quelques-uns des principes, outils et méthodologies clés du Lean. Ici, nous concluons notre série avec une discussion de haut niveau sur Six Sigma. Il existe de nombreux outils dans la boîte à outils Six Sigma (analyse des effets du mode de défaillance (FMEA), diagramme IPO, intervalles de confiance, histogrammes, graphiques de Pareto, tests F, conception pour Six Sigma (DFSS) et bien d'autres) qui ne seront pas abordés. ici. L'objectif ici est de discuter des réalités statistiques qui rendent Six Sigma efficace.
Six Sigma vise à identifier et à éliminer la ou les causes profondes des défauts et des déchets à l'aide d'outils statistiques permettant d'identifier les variations à l'origine des défauts. Dans la méthodologie Six Sigma, la seule façon de résoudre efficacement un problème est d'éliminer définitivement sa cause première.
Il s'agit d'une stratégie basée sur des mesures qui se concentre sur l'amélioration des processus en s'efforçant de ne pas dépasser 3,4 défauts par million d'opportunités. Un défaut Six Sigma est défini comme tout ce qui n'est pas conforme aux spécifications du client. Une opportunité Six Sigma est alors la quantité totale de chances qu'un défaut se produise.
Doctrine Six Sigma
Six Sigma est basé sur trois idées clés qui composent la doctrine Six Sigma :- Les efforts continus pour obtenir des résultats de processus stables et prévisibles (c'est-à-dire réduire la variation des processus) sont d'une importance vitale pour la réussite de l'entreprise.
- Les processus de fabrication et commerciaux ont des caractéristiques qui peuvent être mesurées, analysées, contrôlées et améliorées.
- La réalisation d'une amélioration durable de la qualité nécessite l'engagement de l'ensemble de l'organisation, en particulier de la direction au plus haut niveau.
Méthodologie Six Sigma :Le processus DMAIC
DMAIC est une méthodologie de résolution de problèmes Six Sigma basée sur les données. Le processus en cinq phases est décrit par chaque lettre de l'acronyme :
- Définir - Décrivez le problème, les objectifs du projet, les domaines d'amélioration ou les exigences du client.
- Mesure - Mesurer les performances des processus.
- Analyser - Analyser et identifier les causes profondes possibles des défauts et des variations.
- Améliorer - Améliorer les opérations en éliminant les causes profondes.
- Contrôle - Contrôler la qualité du processus d'amélioration.
Décomposons davantage les phases :
Définir
Une fois le problème, l'objectif ou le domaine d'amélioration décrit, il est essentiel d'essayer d'identifier les diverses variables d'entrée et de sortie liées au comportement du processus. Souvent, les variables de sortie sont celles qui ne correspondent pas aux spécifications. Il est important d'identifier quelles variables d'entrée peuvent être à l'origine de la variation avec la ou les variables de sortie.
Mesure
Une fois que les variables d'entrée qui provoquent le comportement de sortie sont identifiées, il est possible de développer un plan de mesure qui fournit suffisamment de données pour démarrer l'analyse. Cette phase est celle où les données sont collectées sur les principales variables d'entrée et de sortie. C'est également la phase où les références de performance sont développées pour être utilisées dans la mesure des améliorations apportées plus tard. En règle générale, au moins 30 observations sont nécessaires pour fournir suffisamment de données pour représenter le comportement du processus.
Analyser
Une fois les données collectées, elles sont analysées pour déterminer les trois à cinq causes profondes potentielles les plus probables. Ceci est accompli par la collecte et l'examen continus des données pour comprendre la contribution de chaque cause racine potentielle à l'aide d'outils statistiques, de graphiques et de graphiques. Le processus DMAIC est itératif et se répète jusqu'à ce que toutes les causes fondamentales valables soient identifiées.
Améliorer
Sur la base des causes fondamentales valides identifiées dans la phase d'analyse, le processus est ajusté jusqu'à ce que la variation excessive soit éliminée. Les phases de mesure et d'analyse sont répétées jusqu'à ce que le résultat souhaité soit atteint.
Contrôle
Lorsque le résultat souhaité est atteint, les améliorations sont institutionnalisées de manière à éliminer la source de la variation excessive. Cette étape doit être accompagnée d'un plan de contrôle pour s'assurer que les résultats restent à un niveau de qualité acceptable. Le plan de contrôle comprend la mise en œuvre d'un contrôle statistique des processus pour surveiller le processus et s'assurer qu'il continue de fonctionner correctement au fil du temps. Ce plan de contrôle doit également inclure des contre-mesures en cas de problème.
En résumé : DMAIC est une méthodologie de résolution de problèmes qui aide le praticien à aborder un problème avec une variation excessive et à le résoudre systématiquement.
Contrôle statistique des processus
Le contrôle statistique des processus est un outil qui mesure si un processus répond ou non aux normes de produit ou de processus. Si un processus est capable et stable dans le temps, les résultats que le processus a été conçu pour produire seront atteints.
Utilisons un exemple pour mieux comprendre ces concepts importants. Pensez à faire des muffins.
Capacité et variation du processus
Un processus transforme les entrées en sorties. Dans ce cas, les ingrédients sont les intrants. On sait que le four doit atteindre une température donnée pendant un laps de temps précis avec la pâte à muffins à l'intérieur pour obtenir les muffins idéaux.
Supposons que le four fonctionne correctement. Il est capable de produire ce que nous voulons - des muffins chauds cuits exactement et parfaitement. Le fait que le four fonctionne correctement garantit-il que les produits de boulangerie sortiront correctement ?
Bien sûr que non.
Que se passe-t-il si le four fonctionne correctement, mais que les enfants affamés de muffins et anxieux continuent d'ouvrir la porte pour voir si les muffins sont déjà cuits ? Les muffins ne seront qu'à moitié cuits lorsque la minuterie sonnera. Il s'agit d'un exemple de cause particulière de variation :nous n'obtenons pas le résultat souhaité car le processus est hors de contrôle. Le processus est capable, il nous donnera ce que nous voulons lorsqu'il est utilisé correctement, mais il n'est pas sous contrôle.
Si nous nous assurons que le four fonctionne de manière optimale — à la bonne température et avec la porte du four fermée pendant la durée prescrite — le processus sera de nouveau sous contrôle. Nous avons maintenant un processus qui est à la fois capable et maîtrisé, et nous pouvons raisonnablement nous attendre à ce qu'il produise une douzaine de muffins idéale.
Si toutes les causes spéciales de variation comme ci-dessus ont été éliminées, alors le processus est considéré comme sous contrôle et toutes les variations qui se produisent sont des variations inhérentes au processus lui-même. Ceux-ci incluent de petites variations dans les ingrédients mesurés et de légères variations de température du four. Mais, le processus est suffisamment robuste pour produire le résultat souhaité même avec ces sources de variation (inhérente).
En résumé : La capacité du processus est une mesure de la capacité du processus à produire le résultat souhaité, c'est-à-dire qu'elle peut nous dire quel pourcentage de défauts le processus produira intrinsèquement s'il est sous contrôle. Résultat souhaité :une dizaine de muffins parfaitement cuits.
Écart type
Maintenant que vous savez comment préparer le muffin idéal, nous allons vous présenter l'écart type.
L'écart type (Ϭ) est une mesure de la variation et le nombre utilisé pour calculer la capacité du processus. Il est calculé comme la racine carrée de la variance.
Le Dr William Shewhart, le père de la qualité, a commencé à développer des cartes de contrôle au début des années 1920. Il s'est rendu compte que si les principales variables de sortie du processus étaient mesurées et qu'elles créaient une distribution qui ressemblerait à la courbe en forme de cloche ci-dessus, alors la variation affichée était aléatoire et, par conséquent, inhérente au processus.
En d'autres termes, le processus se comporte ou fonctionne de la manière pour laquelle il a été conçu. Si les données ne sont pas aléatoires, alors il doit y avoir une logique pour expliquer ce comportement. C'est ce qu'est une cause spéciale de variation.
Ensuite, il y a la règle empirique. Cette règle nous dit que, pour une distribution aléatoire :
- 68 % des observations seront à plus ou moins 1 écart type
- 95 % des observations se situeront à plus ou moins 2 écarts-types
- 99,7 % des observations se situeront à plus ou moins 3 écarts-types
Shewhart a également conçu des cartes de contrôle (voir ci-dessous) qui incluent des limites de contrôle. Les limites de contrôle sont généralement une distance de plus ou moins trois écarts types par rapport à la moyenne. Et nous savons que si les points de données se situent dans les limites de contrôle, alors notre niveau de qualité est d'au moins 99,7 % bon.
Le contrôle statistique des processus utilise ces connaissances à un avantage. Deux graphiques (run charts) sont surveillés en saisissant les données et en observant l'emplacement des points de données par rapport à la moyenne (moyenne) et aux limites de contrôle. Tant que les parcelles se situent dans les limites de contrôle, le processus est considéré comme étant sous contrôle. Ainsi, pour l'exemple des muffins, le graphique d'exécution sur la température du four montrerait la cause particulière de la variation de température due à l'ouverture fréquente de la porte du four comme en dehors de la plage normale - la plage normale de variation étant de la variation de température aléatoire comme la source de chaleur dans le four s'allume et s'éteint par exemple.
Veuillez noter qu'aucune attention n'est accordée aux spécifications ou aux limites de spécification (tolérances). Un processus qui est sous contrôle produit ce qu'il a été conçu (pas nécessairement destiné) à produire. Ainsi, il peut en fait produire de mauvaises sorties.
Indice de capacité de processus et contrôles
Dans Six Sigma, le Process Capability Index (Cpk) est un outil statistique utilisé pour mesurer la capacité d'un processus à produire des produits dans la plage de tolérance d'un client. Plus le Cpk est élevé, plus la distribution du processus est étroite par rapport à la plage de tolérance et plus la sortie est uniforme.
Cpk est calculé à l'aide de la formule suivante, où UCL fait référence à la limite de contrôle supérieure et LCL à la limite de contrôle inférieure :
Cpk =min(UCL - μ, - LCL) / (3σ)
Plus le Cpk est élevé, mieux c'est (plus proche de 2,0 est excellent) où un Cpk de 1,33 indique essentiellement la valeur la plus basse pour un processus sous contrôle et conforme aux spécifications.
A présent, nous savons si un processus est capable et sous contrôle, il produira, par définition, le résultat que le processus a été conçu pour produire. Nous avons discuté de la façon de mesurer le contrôle des processus avec SPC et de l'importance de garder un processus sous contrôle.
Les limites de spécification concernent les tolérances du procédé. Par exemple, une vis pourrait avoir un diamètre de 3 pouces (3 pouces). Mais comment pouvons-nous nous adapter à la variation inhérente au processus de production de la goupille ? Nous le faisons en fournissant des tolérances. Il est déterminé qu'une vis de 3", plus ou moins trois millièmes de pouce (0,003 pouce) de diamètre est suffisante. Toutes les vis dans cette plage de diamètres fonctionneront avec succès pour son application.
Selon NIST (Institut national des normes et de la technologie) :
« La capacité de processus compare la sortie d'un processus sous contrôle aux limites de spécification en utilisant des indices de capacité. La comparaison est effectuée en formant le rapport de l'écart entre les spécifications du processus (la spécification « largeur ») et l'étalement des valeurs du processus, tel que mesuré par 6 unités d'écart-type du processus (la « largeur du processus »). »
L'indice de capacité de processus est utilisé pour déterminer à quel point la sortie est proche de la cible existante et à quel point la performance moyenne est cohérente. Par conséquent, il peut être utilisé pour prédire les performances et la cohérence futures des sorties.
Indice de capacité de processus et écart type
Pour nos besoins, tout ce que nous devons savoir, c'est que nous pouvons déterminer la capacité d'un processus à produire de bonnes pièces. C'est la même chose que de répondre à ce qui suit :
- Quel pourcentage de la production répondra aux spécifications du client ?*
- Combien de vis seront plus grandes que les 3 pouces plus les trois millièmes de diamètre (3 003 pouces) ?
- Combien de vis seront plus petites que les 3 pouces et moins de trois millièmes de diamètre (2,997 pouces) ?
Vous vous souvenez peut-être que :
Les trois mesures de variation de l'écart type signifient un niveau de qualité de 99,7 % du bon travail produit. C'est l'équivalent d'une mesure de capacité de processus de un.
La littérature est à peu près d'accord :
Nous avons besoin d'une mesure de capacité de processus (Cp et Cpk) d'au moins 1,33.
Cela permet ce que l'on appelle le décalage et la dérive où la variation normale du processus provoque des défauts qui ne se produiraient pas s'il n'y avait pas de variation.
Mais il y aura toujours des variations. La clé est de maintenir un bon contrôle du processus pour éviter les défauts.
Encore une fois, selon le NIST :
« Un indice de capabilité du processus utilise à la fois la variabilité du processus et les spécifications du processus pour déterminer si le processus est « capable ». »
Shift &Drift
Le principal problème pour maintenir un bon contrôle de processus est qu'avec le temps, tout processus se déplacera et dérivera, peu importe à quel point les paramètres initiaux étaient serrés. Lorsque cela se produit, le point clé à retenir est qu'à mesure que la moyenne du processus se déplace, l'ensemble de la plage variable fait de même, tandis que les limites de spécification restent stationnaires.
Si le processus dépasse les limites de spécification, le processus fabriquera des produits défectueux. Vous souhaitez maintenir des niveaux d'indice de 1,00 ou mieux. Ceci est obtenu avec un bon centrage de la moyenne du processus et une minimisation de la variabilité.
En résumé : En utilisant Six Sigma, il est possible de comprendre si un processus est capable et de mesurer le contrôle de processus et la capacité de processus. Tant qu'un processus « sous contrôle » est capable de produire le résultat souhaité (Cpk de capacité de processus d'au moins 1,33), il doit fonctionner correctement tant qu'il est sous contrôle. Pour plus d'informations sur Six Sigma ou Lean, veuillez visiter www.cmtc.com et sélectionnez l'option « Services ».
Qui sommes-nous au CMTC
CMTC offre une assistance technique, un développement de la main-d'œuvre et des services de conseil aux petits et moyens fabricants (SMM) de Californie pour aider les SMM à augmenter leur productivité et leur compétitivité mondiale.
Pour plus d'informations sur CMTC, visitez notre site Web à www.cmtc.com ou contactez-nous au 310-263-3060.
Technologie industrielle
- Comparaison Six Sigma et production au plus juste
- Guide de compréhension du Lean et Six Sigma pour la fabrication
- Six Sigma :formation ceinture verte
- Répondre aux inquiétudes liées à la guerre commerciale :une stratégie Six Sigma
- Six Sigma – Réduire les coûts, augmenter la satisfaction client
- Opérations de la machine de tour et outils de coupe de tour
- Qu'est-ce que le rodage ? - Définition, processus et outils
- Qu'est-ce que l'usinage de l'aluminium ? - Outils et opérations
- Types d'opérations de tour et outils de coupe