my8data est une solution logicielle web pour la gestion statistique de la qualité. L'application vous accompagne dans la réalisation d'analyses du système de mesure (MSA), d'études de capabilité machine (MFU) et de maîtrise statistique des procédés (SPC) conformément aux normes industrielles courantes telles que VDA et AIAG.
Questions fréquentes
Encuentre respuestas rápidas a sus preguntas sobre QualityHub Pro
Vous trouverez des explications détaillées sur les méthodes sur www.sixsigmablackbelt.de ou dans notre Knowledge Base.
Général
my8data fonctionne de manière optimale dans les versions actuelles de Chrome, Firefox, Edge et Safari. Pour une meilleure expérience, nous recommandons Google Chrome ou Mozilla Firefox.
Vous pouvez changer la langue via le symbole du globe dans la barre de navigation supérieure. Actuellement, l'allemand et l'anglais sont pris en charge. Votre paramètre est enregistré automatiquement.
Toutes vos analyses sont automatiquement sauvegardées dans le cloud. Vous pouvez également exporter chaque analyse sous forme de fichier Excel. Pour cela, accédez à l'analyse concernée et cliquez sur "Export".
Analyse du système de mesure (MSA)
MSA1 (Cg/Cgk) vérifie la capabilité d'un instrument de mesure à l'aide d'un étalon de référence. MSA2 (Gage R&R) examine la répétabilité et la reproductibilité avec plusieurs évaluateurs. MSA3 est une étude Gage R&R simplifiée avec un seul évaluateur.
Selon VDA tome 5 : Cg ≥ 1,33 et Cgk ≥ 1,33 comme exigence minimale. Pour les procédés spéciaux, on exige souvent Cg ≥ 1,67 et Cgk ≥ 1,67.
%GRR indique la part de la variation du système de mesure dans la variation totale. Évaluation : ≤10% = capable (vert), 10-30% = capable sous conditions (jaune), >30% = non capable (rouge). De plus, ndc ≥ 5 est recommandé.
VDA recommande : au moins 10 pièces, 3 évaluateurs et 2-3 répétitions par pièce et par évaluateur. Les pièces doivent être réparties sur l'ensemble de la plage de tolérance.
MSA7 évalue les processus de contrôle par attributs (bon/mauvais) avec plusieurs évaluateurs à l'aide de la statistique Kappa et des taux de concordance. MSA7A est conçu pour les systèmes de contrôle automatisés avec un seul "évaluateur" (automate).
Capabilité machine (MFU)
Cm/Cmk (capabilité machine) est déterminé lors de mesures à court terme dans des conditions stables. Cp/Cpk (capabilité du procédé) est basé sur des données à long terme et prend en compte toutes les influences du procédé. Cm/Cmk devrait être supérieur à Cp/Cpk.
VDA recommande au moins 50 valeurs de mesure consécutives. La mesure devrait être effectuée dans des conditions aussi stables que possible (même lot, même opérateur, même machine).
Pour les machines neuves : Cmk ≥ 1,67. Pour les machines existantes : Cmk ≥ 1,33. Pour les procédés spéciaux, des valeurs plus élevées peuvent être exigées.
Oui, l'hypothèse de distribution normale devrait être vérifiée par un test (par ex. Anderson-Darling). En cas de données non normalement distribuées, des distributions alternatives ou des transformations peuvent être utilisées.
Maîtrise statistique des procédés (SPC)
Carte X̄-R : pour des tailles d'échantillon de 2 à 10. Carte X̄-S : pour des tailles d'échantillon >10. Carte I-MR : pour des valeurs individuelles. Le choix dépend de votre concept d'échantillonnage.
Les limites de contrôle sont calculées à partir des données du procédé (pas à partir des limites de spécification !). UCL = moyenne + 3σ, LCL = moyenne - 3σ. Le calcul exact dépend du type de carte.
Un procédé est considéré comme hors contrôle en cas de : point en dehors des limites de contrôle, 7 points consécutifs du même côté de la ligne centrale, tendances, cycles ou autres schémas non aléatoires.
Cp/Cpk est basé sur la dispersion intra-groupe (court terme), Pp/Ppk sur la dispersion globale (long terme). Pour un procédé stable, les deux sont similaires. De grandes différences indiquent une instabilité.
Données & Import
Vous pouvez saisir les données directement dans les champs du tableur ou les coller depuis Excel par copier-coller.
Chaque analyse peut être exportée sous forme de fichier Excel (.xlsx). Le fichier contient toutes les données d'entrée, les calculs et les résultats. Pour cela, allez dans l'analyse et cliquez sur "Export".
Oui, via la gestion des modèles Excel, vous pouvez créer et réutiliser des modèles avec des en-têtes et des paramètres prédéfinis.
Le générateur de données produit des données de mesure synthétiques à des fins d'exercice. Vous pouvez choisir différentes distributions (normale, Weibull, etc.) et paramètres.
Compte & Sécurité
Accédez à vos paramètres utilisateur (cliquez sur votre nom → Paramètres) et sélectionnez "Changer le mot de passe".
Oui, toutes les données sont stockées de manière chiffrée sur des serveurs allemands. Nous respectons intégralement le RGPD. Vos données d'analyse vous appartiennent exclusivement.
MSA : Fondamentaux
L'objectif principal est la preuve statistique qu'un processus de mesure (composé de l'appareil, de l'homme, de la méthode et de l'environnement) est adapté à la tâche de mesure prévue sur le lieu d'utilisation concret. Il faut s'assurer que le dispositif de mesure peut saisir une caractéristique qualité avec un écart de mesure systématique (justesse) et une dispersion des valeurs mesurées (précision) suffisamment faibles par rapport à la tolérance.
La preuve se rapporte toujours à l'ensemble du processus de mesure sur le lieu d'utilisation, pas seulement à l'instrument de mesure isolé. Un instrument peut être excellent en conditions de laboratoire, mais devenir inadapté dans le processus réel en raison de facteurs d'influence tels que les vibrations en production, les fluctuations de température, des dispositifs insuffisants ou une manipulation différente par les opérateurs. L'étude doit donc être réalisée en conditions de série.
Oui, en principe, la preuve de capabilité ne s'applique qu'à la caractéristique étudiée. Si des caractéristiques différentes (par ex. diamètre et faux-rond) ou des caractéristiques avec des tolérances nettement différentes sont mesurées avec le même dispositif, une preuve de capabilité séparée est nécessaire pour chacune, car la résolution, la manipulation et les conditions physiques peuvent différer.
La résolution du dispositif de mesure doit être suffisamment fine pour subdiviser la tolérance de la caractéristique. En règle générale ("règle d'or de la métrologie"), la résolution ne doit pas dépasser 5% de la tolérance T (≤ 5% · T). Dans des cas exceptionnels justifiés, une résolution allant jusqu'à 10% de la tolérance est admissible (≤ 10% · T) lorsque des appareils techniquement meilleurs ne sont pas disponibles. Une résolution insuffisante entraîne une perte d'information et fausse l'évaluation statistique de la dispersion.
Les modèles de calcul statistique des procédés 1 à 5 (comme la moyenne, l'écart-type, Cgk, ANOVA) sont mathématiquement basés sur l'hypothèse d'une distribution normale des valeurs de mesure. En l'absence de distribution normale (par ex. limites physiques unilatérales, défauts de forme ou distributions mixtes), ces procédés standard fournissent des résultats erronés ou trompeurs. Dans ces cas, des procédés spéciaux doivent être appliqués ou des transformations de données vérifiées.
Une planification des contrôles soigneuse et documentée est le prérequis obligatoire pour toute preuve de capabilité. Elle définit quoi (caractéristique), avec quoi (moyen de contrôle), comment (méthode) et à quelle fréquence mesurer. Sans cette définition, une preuve de capabilité n'est pas reproductible et n'a aucune valeur normative. Les valeurs limites des indices de capabilité (par ex. 1,33 ou 1,67) dépendent des exigences spécifiques du client ou des normes.
La capabilité du processus de mesure évalue l'aptitude d'un système par rapport à la tolérance d'une caractéristique pour la surveillance en série (objectif : "L'appareil est-il assez bon pour cette pièce ?"). L'incertitude de mesure (selon VDA 5 / GUM) est un paramètre associé à chaque résultat de mesure qui caractérise l'intervalle dans lequel se trouve la vraie valeur. Alors que la capabilité est souvent utilisée pour la validation, l'incertitude de mesure est déterminante pour les décisions de conformité selon ISO 14253.
La documentation doit être suffisamment complète pour que l'étude soit traçable à tout moment. Cela comprend : identification univoque du plan de contrôle, date/heure, conditions ambiantes (température), identification des étalons utilisés (n° de certificat d'étalonnage), noms des opérateurs, toutes les données brutes (valeurs individuelles), les valeurs limites utilisées, la méthode d'évaluation ainsi que le résultat incluant une évaluation claire ("capable" / "non capable").
Lorsque les procédés standard ou l'AIAG MSA ne sont techniquement pas applicables (par ex. contrôles destructifs, géométries extrêmement complexes ou mesures dynamiques), des procédés spéciaux propres doivent être développés. Cette démarche doit être documentée et obligatoirement coordonnée avec le service de gestion de la qualité compétent ainsi qu'avec le client dans le cas de relations fournisseur, avant d'être appliquée.
Procédé 1 : Cg/Cgk
Le procédé 1 est une "étude de capabilité machine" pour l'instrument de mesure. Il sert à examiner le système de mesure de manière isolée, c'est-à-dire sans l'influence de différents opérateurs ou de la dispersion des pièces de série. On vérifie l'écart de mesure systématique (biais) par rapport à une valeur de référence connue et la répétabilité (dispersion) de l'appareil.
L'étalon doit être stable à long terme et correspondre le plus fidèlement possible à la caractéristique de série à mesurer en termes de géométrie et de nature. Il est essentiel qu'il soit étalonné et que la "vraie valeur" (valeur de référence xm) soit connue. L'incertitude de l'étalonnage Ukal doit être nettement inférieure à la tolérance de la caractéristique (cas idéal : Ukal < 1% · T ; exigence minimale : Ukal < 10% · T).
Pour obtenir une déclaration statistique fiable sur la dispersion et la moyenne, une taille d'échantillon suffisante est nécessaire. Au moins 25 mesures sont exigées, mais 50 mesures sont recommandées. Un nombre trop faible de mesures entraîne de grands intervalles de confiance, ce qui augmente le risque de décisions erronées (faux positif ou faux négatif).
La simple répétition de la mesure sans mouvement de la pièce ne capturerait que la dispersion interne de l'électronique ou de la mécanique de l'appareil. Pour reproduire le processus réel, toutes les étapes de manipulation doivent être simulées (serrage, positionnement, palpage). C'est uniquement ainsi que la dispersion qui apparaît également lors de l'exploitation en série par la mise en place des pièces est capturée.
Cg (indice de capabilité potentiel) : met en rapport la dispersion de l'instrument de mesure (généralement 6·s) avec la tolérance (généralement 0,2·T). Il indique la précision de l'appareil mais ignore la justesse. Cgk (indice de capabilité critique) : prend en compte en plus de la dispersion l'écart systématique (biais) par rapport à la vraie valeur. Il vérifie si les valeurs mesurées sont non seulement groupées mais aussi centrées par rapport à la référence.
Selon les normes courantes, les exigences minimales sont Cg ≥ 1,33 et Cgk ≥ 1,33. Des valeurs inférieures à 1,33 indiquent que la dispersion est trop importante (appareil imprécis) ou que l'écart systématique est trop élevé (appareil mal ajusté), ce qui restreint trop la plage de tolérance par l'incertitude de mesure.
Pour les caractéristiques sans limite naturelle (par ex. distance > 10mm), il n'existe pas de largeur de tolérance T fixe, c'est pourquoi Cg et Cgk ne peuvent pas être calculés. Dans ce cas, le procédé 1 est utilisé pour déterminer le biais et la dispersion. On en calcule une zone d'acceptation réduite pour la production (par ex. z ≤ LSS - 4s - |Biais|) afin de s'assurer qu'aucune pièce mauvaise ne soit faussement acceptée comme bonne.
Ce sont des caractéristiques qui ne peuvent physiquement pas être inférieures à zéro, comme par ex. le faux-rond, la rugosité ou la valeur absolue d'un balourd. Ici, le zéro (LTI* = 0) représente une limite naturelle. Dans ces cas, une tolérance de substitution T* (différence entre la valeur limite et zéro) peut souvent être formée pour calculer des valeurs Cg de manière analogue aux caractéristiques bilatérales.
Dans le cadre du procédé 1, un test t permet de vérifier si l'écart mesuré (x̄ - xm) est statistiquement significativement différent de zéro ou s'il pourrait résulter uniquement de la dispersion aléatoire. Si l'écart n'est pas statistiquement significatif, le biais peut être négligé dans certains calculs (par ex. lors de la définition de critères d'acceptation).
Le procédé 1 vérifie l'"hygiène de base" de l'instrument de mesure. Si l'instrument lui-même (sans influence de l'opérateur ni variation des pièces) n'est déjà pas en mesure de fournir des valeurs reproductibles et justes sur l'étalon, il est inutile de réaliser des études plus complexes (procédés 2/3). Un échec au procédé 2 serait alors prévisible et la recherche de causes inutilement compliquée.
Procédé 2 : Gage R&R
Le procédé 2 (Gage R&R) doit être réalisé chaque fois que l'opérateur peut avoir une influence sur le résultat de mesure. C'est le cas avec les instruments de mesure manuels (pied à coulisse, micromètre), lors du chargement manuel de dispositifs, ou lorsque l'opérateur prend des décisions subjectives lors de l'évaluation (par ex. positionnement manuel de lignes de mesure).
Le standard exige : au moins 10 pièces de série représentatives (n ≥ 10), au moins 3 opérateurs différents (k ≥ 3), au moins 2 mesures répétées par pièce et par opérateur (r ≥ 2). Cela donne un total d'au moins 10 × 3 × 2 = 60 valeurs de mesure.
Les pièces ne doivent pas être idéales mais représenter la dispersion réelle du processus de fabrication. Idéalement, elles couvrent l'ensemble de la plage de tolérance. Si les pièces sont trop similaires (dispersion des pièces trop faible), cela peut mathématiquement conduire à une évaluation plus défavorable du processus de mesure qu'il ne l'est réellement (voir problématique ndc).
Pour exclure les effets psychologiques ("effet de mémoire"), l'évaluateur ne doit pas savoir quelle pièce il mesure ni ce qu'il a mesuré la dernière fois. Un ordre aléatoire (randomisation) empêche en outre que des tendances (par ex. échauffement de l'appareil) soient faussement interprétées comme dispersion des pièces ou différence entre opérateurs.
L'indicateur déterminant est le %GRR (Gauge Repeatability and Reproducibility). Il met en rapport la dispersion combinée de l'appareil (EV) et de l'opérateur (AV) avec la grandeur de référence. En général, la grandeur de référence est la tolérance T. La formule simplifiée est : %GRR = (6 · GRR / T) · 100%.
%GRR ≤ 10% : le processus de mesure est considéré comme capable. 10% < %GRR ≤ 30% : le processus de mesure est capable sous conditions. Une utilisation est souvent possible, mais des mesures d'amélioration doivent être envisagées. %GRR > 30% : le processus de mesure n'est pas capable et ne doit pas être utilisé.
L'AIAG MSA recommande souvent la variation totale (Total Variation, TV) comme grandeur de référence. Cela est cependant problématique : lorsqu'un processus de fabrication est très précis (très faible dispersion des pièces), l'erreur de mesure paraît énorme en proportion, bien que l'instrument de mesure soit tout à fait suffisant par rapport à la tolérance (fonction de la pièce). La référence à la tolérance est donc techniquement plus pertinente dans la plupart des cas.
La valeur ndc indique combien de catégories (classes) distinguables le système de mesure peut reconnaître au sein de la dispersion du procédé. C'est une mesure du pouvoir de résolution du système de mesure par rapport à la variation des pièces. Une valeur de 1 signifierait que l'appareil ne peut pas distinguer différentes pièces.
Selon l'AIAG MSA, la valeur ndc ≥ 5 est requise. Cela garantit que le système de mesure a une résolution suffisante pour effectuer la maîtrise et l'analyse du procédé de manière pertinente. Une valeur inférieure à 5 indique que la dispersion de mesure est trop importante par rapport à la dispersion des pièces.
EV (Equipment Variation) : décrit la précision de répétabilité. C'est la dispersion qui survient lorsque le même opérateur mesure la même pièce plusieurs fois (dispersion de l'appareil). AV (Appraiser Variation) : décrit la précision de reproductibilité. C'est l'écart systématique des moyennes entre les différents opérateurs (dispersion de l'opérateur).
Une valeur AV élevée signifie que les opérateurs mesurent en moyenne différemment. Les causes peuvent être : des instructions de travail peu claires, une force différente lors du serrage des pièces, des erreurs de parallaxe lors de la lecture d'échelles, un manque de formation ou une interprétation différente du point de mesure.
Une valeur EV élevée indique des problèmes avec l'instrument de mesure lui-même. Les causes peuvent être : usure ou jeu dans la mécanique, mauvais serrage de la pièce (instabilité), contamination, conditions ambiantes instables (vibrations).
L'ANOVA (Analysis of Variance) est mathématiquement plus exacte. Contrairement à la méthode obsolète moyenne-étendue (ARM), l'ANOVA peut détecter les interactions entre opérateur et pièce (par ex. lorsque l'opérateur A mesure différemment de l'opérateur B uniquement pour les petites pièces). De plus, elle utilise toutes les données de manière plus efficace pour l'estimation des variances.
Dans de tels cas exceptionnels, le procédé 2 peut être réalisé avec moins de pièces. Cependant, pour maintenir la fiabilité statistique (degrés de liberté), le nombre de répétitions de mesure ou d'évaluateurs doit être augmenté. Cela doit être explicitement documenté et justifié comme écart dans le rapport.
Procédé 3 : Automatique
Le procédé 3 (souvent appelé "Type 3 Study") est utilisé pour les systèmes de mesure entièrement automatiques où l'opérateur n'a aucune influence sur le résultat de mesure. Les exemples sont les automates de contrôle automatisés dans les lignes de production, où l'alimentation, le positionnement et la mesure sont réalisés par la machine.
Comme le facteur d'influence "opérateur" disparaît, le paramètre k (nombre d'évaluateurs) est fixé à 1 (ou supprimé). La dispersion AV (Appraiser Variation) est donc nulle. La dispersion totale GRR est dans ce cas déterminée exclusivement par la précision de répétabilité (EV) et l'interaction pièce/machine.
Comme la variation provenant de différents opérateurs disparaît en tant que source d'information, davantage de pièces doivent être mesurées pour obtenir une conclusion statistiquement fiable sur l'interaction entre l'instrument de mesure et les différentes géométries de pièces. 25 pièces offrent une base plus large que les 10 pièces du procédé 2.
Le standard exige : au moins 25 pièces de série (n ≥ 25) et au moins 2 cycles de mesure par pièce (r ≥ 2). Les pièces doivent être réalimentées/repositionnées à chaque cycle pour reproduire le processus automatique réel.
Non, les valeurs limites pour la capabilité sont identiques. Ici aussi : %GRR ≤ 10% indique capable, jusqu'à 30% indique capable sous conditions et au-delà non capable. La grandeur de référence reste de préférence la tolérance.
Procédé 4 : Linéarité
Normalement, la linéarité est vérifiée lors de l'étalonnage. Le procédé 4 est cependant nécessaire en complément lorsque l'instrument de mesure est utilisé sur une très large plage de travail et qu'il existe un soupçon que la précision n'est pas constante sur l'ensemble de la plage (par ex. caractéristique de capteur non linéaire).
Au moins 5 pièces de référence (g ≥ 5) sont sélectionnées, couvrant l'ensemble de la plage de travail du dispositif de mesure. Chacune de ces pièces est mesurée au moins 12 fois (m ≥ 12). Une droite de régression est calculée à partir des moyennes des écarts.
Le test selon l'AIAG MSA vérifie de manière purement statistique si la pente et l'ordonnée à l'origine de la droite de régression s'écartent significativement de zéro. Le lien avec la tolérance technique est souvent négligé. Un appareil très précis peut échouer statistiquement (parce que les plus petits écarts sont significatifs), bien qu'ils soient techniquement sans importance. Inversement, un appareil à forte dispersion peut réussir parce que les intervalles de confiance sont énormes.
Une alternative recommandée est, au lieu de la régression complexe selon MSA, de réaliser le procédé 1 plusieurs fois à différents points d'appui de la plage de mesure (par ex. dans la zone inférieure, moyenne et supérieure du champ de tolérance). Cela garantit qu'à chaque point les exigences de Cg et Cgk sont satisfaites, ce qui est techniquement plus pertinent que le simple test de linéarité.
Selon l'AIAG MSA, le système est linéaire lorsque la "ligne zéro" (aucun écart) se situe entièrement à l'intérieur des bandes de confiance à 95% de la droite de régression. Cela signifie que ni l'écart constant (ordonnée à l'origine) ni l'écart variable (pente) ne sont statistiquement significatifs.
Procédé 5 : Stabilité
Le procédé 5 surveille la stabilité à long terme du processus de mesure. Alors que les procédés 1-3 sont des instantanés, le procédé 5 garantit que le système de mesure fournit des valeurs correctes même sur des semaines et des mois (malgré les changements de température, l'usure, la contamination). Il fonctionne de manière similaire à une carte de contrôle SPC (Statistical Process Control).
En particulier pour les systèmes de mesure électroniques susceptibles de dériver, en cas d'usure mécanique, ou lorsque les conditions ambiantes (température, humidité) ont une influence critique. Également pour les processus de mesure qui n'ont atteint la capabilité que de justesse dans les procédés 1-3, une surveillance continue est conseillée.
On mesure une pièce dite de stabilité (pièce de référence ou étalon) à intervalles réguliers. Il est important que cette pièce soit elle-même stable et ne soit pas altérée par la mesure (pas de destruction).
Habituellement, une carte de moyennes (carte x̄) pour la surveillance de la justesse (dérive du biais) et une carte d'écart-type (carte s) pour la surveillance de la précision (usure/jeu) sont tenues. Alternativement, pour de petits échantillons, une carte de valeurs individuelles peut également être tenue.
Il existe deux approches : 1. Basée sur une étude préliminaire (données historiques du processus). 2. Basée sur la tolérance (par ex. on fixe souvent que l'écart-type s ne doit pas dépasser 2,5% de la tolérance). Les limites définissent la zone dans laquelle le processus de mesure est considéré comme "sous contrôle".
Un point se situe en dehors des limites d'intervention rouges (LSI/LII). "Tendance" : 7 points consécutifs augmentent ou diminuent. "Run" : 7 points consécutifs se trouvent du même côté de la ligne centrale. De tels schémas indiquent des changements systématiques (par ex. dérive, contamination).
L'intervalle dépend de la stabilité. En phase de démarrage, on mesure souvent plus fréquemment (par ex. plusieurs fois par poste). Si la carte montre des valeurs stables sur une longue période, l'intervalle peut être allongé (par ex. une fois par jour ou par semaine). L'intervalle doit être choisi de manière à détecter les mesures défectueuses en temps utile afin de minimiser les actions de rappel.
Procédé 6 : Calibres
Ce sont des caractéristiques qui seraient physiquement mesurables de manière continue (par ex. un diamètre), mais qui dans le processus ne sont évaluées que de manière attributive (discrète). Un exemple classique est le contrôle avec un tampon de tolérance : le résultat n'est que "Bon" ou "Rebut" (OK/NOK), bien que le diamètre ait effectivement une dimension.
Les contrôles par attributs ont une densité d'information très faible. On sait seulement "bon" ou "mauvais", mais pas "à quel point bon" ou "de combien limite". Pour prouver statistiquement de faibles taux d'erreur en ppm, des tailles d'échantillon extrêmement élevées seraient nécessaires, ce qui est économiquement difficilement justifiable. Les procédés de mesure sont donc toujours à privilégier.
On utilise un lot de référence de 50 pièces. Ces pièces sont d'abord mesurées avec précision pour déterminer leur vraie valeur continue (valeur de référence). Ensuite, elles sont contrôlées plusieurs fois avec le moyen de contrôle par attributs (par ex. calibre).
Lors du contrôle des 50 pièces, on constatera que les pièces éloignées de la limite sont toujours correctement identifiées. Les pièces très proches de la limite de tolérance sont cependant parfois évaluées comme "Bon" et parfois comme "Mauvais". La plage des valeurs de référence dans laquelle ces évaluations incohérentes surviennent constitue la zone d'incertitude (zone intermédiaire).
La largeur de cette zone d'incertitude (d) est interprétée comme mesure de la dispersion du processus de contrôle. Par analogie avec le procédé 2, on met cette largeur en rapport avec la tolérance T. La formule de l'indice de capabilité correspond à l'approche %GRR.
Les critères sont analogues aux procédés de mesure : %GRR calculé ≤ 10% : capable. %GRR calculé ≤ 30% : capable sous conditions. Au-delà : non capable.
Procédé 7 : Par attributs
Le procédé 7 est utilisé pour des caractéristiques purement qualitatives pour lesquelles il n'existe pas de valeurs de mesure. Les exemples sont les contrôles visuels de rayures, les écarts de couleur, les soufflures, les contrôles de complétude ou les contrôles de bruit ("Sonne bien/mal").
Un standard clairement défini, généralement sous forme de catalogue de pièces limites. Celui-ci doit contenir des pièces physiques ou des photos qui déterminent clairement ce qui est encore "Bon" et ce qui est déjà "Mauvais", afin de minimiser la subjectivité des évaluateurs.
Au moins 50 pièces sont nécessaires (de préférence 100+). Le lot devrait contenir un mélange de pièces clairement bonnes, de pièces clairement mauvaises et surtout de cas limites. La composition devrait idéalement refléter la distribution réelle des défauts en production. Les "vraies" valeurs (référence) doivent être définies au préalable par des experts.
Au moins 2 (de préférence 3) évaluateurs évaluent toutes les pièces du lot de référence indépendamment les uns des autres. Chaque évaluateur doit contrôler le lot au moins 2 fois (de préférence 3 fois). Il est important que les pièces soient remélangées à chaque passage (randomisation) afin que les évaluateurs ne puissent pas mémoriser les résultats.
Kappa est une mesure statistique de la concordance des évaluations. Le simple pourcentage de concordance est trompeur, car même en devinant au hasard, on obtiendrait une certaine concordance. Kappa corrige ce facteur aléatoire et indique à quel point la concordance dépasse le pur hasard.
On utilise le Kappa de Fleiss. Contrairement au Kappa de Cohen (qui ne compare que 2 évaluateurs), le Kappa de Fleiss convient pour un nombre quelconque d'évaluateurs et de catégories et est donc plus universel.
1. Répétabilité (au sein de l'évaluateur) : l'évaluateur est-il en accord avec lui-même lors des répétitions ? 2. Reproductibilité (entre évaluateurs) : les évaluateurs sont-ils en accord entre eux ? 3. Justesse (par rapport à la référence) : les évaluateurs sont-ils en accord avec le standard d'expert (valeur de référence) ?
κ ≥ 0,9 : le processus de contrôle est capable (très bonne concordance). 0,7 ≤ κ < 0,9 : le processus de contrôle est capable sous conditions (amélioration nécessaire). κ < 0,7 : le processus de contrôle n'est pas capable (concordance trop faible).
Une valeur de 0 signifie que la concordance est purement aléatoire. Les évaluateurs ont en quelque sorte deviné. Une valeur de 1 serait une concordance parfaite. Des valeurs négatives indiquent un désaccord systématique (pire que le hasard).
Au lieu de laisser les évaluateurs décider entre "Bon", "Retouche" et "Rebut" (3 catégories en une étape), il est souvent préférable de d'abord vérifier "OK / NOK" puis dans un deuxième temps de subdiviser "NOK" en "Retouche / Rebut". Cela réduit la complexité de la décision et augmente généralement la cohérence (Kappa).
MSA : Conseils pratiques
Ne pas remplacer immédiatement l'instrument de mesure ! Il faut d'abord réaliser une analyse des causes (par ex. Ishikawa, 5 Pourquoi). Est-ce dû à l'appareil (EV trop élevé) ? Est-ce dû aux collaborateurs (AV trop élevé, formation nécessaire) ? Ou est-ce dû au dispositif/ à l'environnement ? Souvent, ce sont de simples erreurs de manipulation ou des pièces contaminées.
Le processus peut être utilisé provisoirement, mais uniquement sous conditions. Cela signifie généralement : fréquence de contrôle accrue, mesures multiples avec calcul de moyenne pour réduire la dispersion, ou formation intensive des collaborateurs. L'objectif doit être d'amener le processus dans la zone capable par des actions correctives.
Oui, mathématiquement, une tolérance plus large améliore immédiatement les indices de capabilité (Cgk, %GRR), car ceux-ci ont la tolérance au dénominateur. Cela n'est cependant admissible que si la conception/ le développement confirme que la fonction de la pièce est également garantie avec la tolérance élargie.
Lorsqu'un processus de mesure n'est pas (encore) capable mais urgemment nécessaire (par ex. démarrage de production), une dérogation temporaire peut être accordée. Celle-ci doit contenir des mesures de sécurisation des risques (par ex. contrôle à 100%, contre-mesure en laboratoire) et un calendrier pour remédier au défaut.
Comme la distance à la limite de tolérance est critique, une distance de protection doit être respectée. La tolérance de fabrication est réduite de l'incertitude de mesure (resp. 4·s ou Ukal) (LSSnouvelle = LSS - incertitude). En produisant dans cette zone réduite, on est du côté sûr malgré l'incertitude de mesure.
Dans le procédé 1, un étalon idéal est mesuré dans des conditions idéales (souvent par des experts). Dans le procédé 2, s'ajoutent de vraies pièces de série (défauts de forme, rugosité) et des opérateurs normaux (variations de manipulation). La dispersion dans le procédé 2 est donc presque toujours plus grande. Le procédé 1 est la "limite technique", le procédé 2 la "réalité".
C'est un scénario fréquent. Cela signifie : l'instrument de mesure lui-même est précis (V1 OK), mais le processus d'utilisation est inadapté (V2 mauvais). Les causes sont souvent : le dispositif ne convient pas bien aux pièces de série, les opérateurs positionnent différemment, ou la géométrie des pièces est problématique. Ici, il faut travailler sur le processus (dispositif, instruction), pas sur le capteur.
T est la tolérance du dessin (LSS - LTI). T* est une grandeur auxiliaire pour les caractéristiques unilatérales avec limite naturelle (par ex. rugosité). Ici, T* = LSS - 0 (limite naturelle) est défini pour pouvoir appliquer des formules qui nécessitent une largeur de tolérance.
Tmin est la plus petite tolérance théorique pour laquelle ce processus de mesure serait encore considéré comme capable (avec Cgk=1,33 donné). Si la tolérance réelle est inférieure à Tmin, le processus n'est pas capable. La valeur aide à estimer "à quelle distance" on se trouve de l'objectif.
Les valeurs aberrantes ne doivent pas simplement être supprimées pour embellir le résultat. Chaque valeur aberrante doit être examinée quant à sa cause physique (par ex. erreur de saisie, pièce contaminée, erreur de mesure). Ce n'est que si une cause claire est trouvée que la valeur peut être corrigée ou remesurée. Sinon, elle fait partie de la dispersion du processus.
La température est souvent le plus grand facteur perturbateur (dilatation thermique). Les mesures devraient idéalement être effectuées à la température de référence (20 °C). Si ce n'est pas possible en production, l'instrument de mesure et la pièce doivent au moins avoir la même température (acclimatation) ou une compensation de température doit être effectuée.
Mesurer : fournit une valeur numérique concrète (quantitatif). On sait à quel point la pièce est bonne ou mauvaise. Permet la maîtrise du procédé. Calibrer : ne fournit qu'un message d'état (qualitatif, Bon/ Mauvais). On ne sait pas si la pièce est à la limite. La maîtrise du procédé est à peine possible. C'est pourquoi la mesure est préférée en gestion de la qualité.
Méthodiquement, le procédé 3 est en fait un cas particulier du procédé 2 (avec nombre d'évaluateurs k=1). Dans le logiciel, ils sont souvent traités de manière similaire. Lorsque dans le procédé 2 l'influence de l'opérateur (AV) est négligeablement petite (≈ 0), le résultat se rapproche de celui du procédé 3.
Le système de mesure n'est néanmoins pas adapté. Une résolution suffisante (≤ 5% T) est un critère éliminatoire. Si la résolution est trop grossière (par ex. seulement 3-4 paliers dans la tolérance), les écarts-types calculés sont mathématiquement peu fiables et la maîtrise du procédé ne fonctionne pas ("effet d'escalier").