MSA 7 -- Analyse attributive du système de mesure
La méthode MSA 7 est l'analyse attributive du système de mesure et sert à évaluer les systèmes de mesure dans lesquels les caractéristiques ne sont pas évaluées de manière métrique (comme valeur numérique), mais attributive (comme catégorie) -- par exemple "bon/mauvais", "conforme/non-conforme" ou selon une échelle de notation.
Aperçu
Objectif et domaine d'application
L'analyse attributive du MSA répond à la question : Les contrôleurs sont-ils en mesure d'évaluer les pièces de manière cohérente et concordante lorsqu'aucune valeur de mesure métrique n'est disponible ?
Cas d'application typiques :
- Contrôles visuels -- Qualité de surface, écarts de couleur, rayures, bosses
- Contrôles de fonctionnement -- Décisions Bon/Mauvais (par exemple, contrôle par pige de calibrage)
- Évaluations subjectives -- Odeur, toucher, contrôles acoustiques
- Contrôles de tri -- Classification en plusieurs niveaux de qualité
Plan d'expérience
L'analyse attributive du MSA suit la structure d'essai fondamentale suivante :
- Une sélection de pièces est constituée. Les pièces doivent comprendre à la fois des pièces clairement bonnes et clairement mauvaises, ainsi que des cas limites.
- Chaque contrôleur évalue chaque pièce plusieurs fois (au minimum 2 passages, 3 recommandés).
- Les évaluations sont effectuées en aveugle -- les contrôleurs ne connaissent ni la « bonne » réponse (évaluation de référence) ni les évaluations des autres contrôleurs.
- Optionnellement, une évaluation de référence (décision maître) est établie pour chaque pièce, par rapport à laquelle les évaluations des contrôleurs sont comparées.
| Paramètre | Recommandation |
|---|---|
| Nombre de pièces | Au minimum 20, idéalement 50 |
| Nombre de contrôleurs | Au minimum 2, recommandé 3 |
| Nombre de passages | Au minimum 2, recommandé 3 |
| Proportion de cas limites | Environ 30--50 % des pièces |
| Évaluation de référence | Recommandée (déterminée par des experts ou une spécification) |
Important : La qualité d'une analyse attributive du MSA dépend largement de la sélection des pièces. Si seules des pièces clairement bonnes et clairement mauvaises sont utilisées, l'étude surestime la capacité du processus de contrôle. Assurez-vous d'inclure suffisamment de cas limites.

Saisie de données
Configuration
Avant la saisie des données, vous établissez les paramètres d'essai :
| Champ | Description |
|---|---|
| Catégories d'évaluation | Les évaluations possibles (par exemple « conforme » / « non-conforme » ou « 1 » / « 2 » / « 3 ») |
| Nombre de contrôleurs | Combien de contrôleurs participent à l'étude |
| Nombre de pièces | Combien de pièces sont évaluées |
| Nombre de passages | Combien de fois chaque contrôleur évalue chaque pièce |
| Évaluation de référence | Évaluation optionnelle « correcte » pour chaque pièce (décision maître) |
Saisir les évaluations
La saisie de données se fait via un tableau avec la structure suivante :
- Lignes : Pièces (numérotées ou nommées)
- Colonnes : Contrôleurs x Passages (par exemple « Contrôleur A / Passage 1 », « Contrôleur A / Passage 2 », ...)
- Valeurs de cellule : La catégorie d'évaluation choisie
- Cliquez sur la cellule souhaitée.
- Sélectionnez la catégorie d'évaluation dans la liste déroulante ou entrez la valeur directement.
- Naviguez avec
TabouEntréevers la cellule suivante.
Conseil : Si une évaluation de référence est disponible, entrez-la dans la première colonne (« Référence »). La concordance des contrôleurs avec la référence est calculée automatiquement.
Info : Vous pouvez également importer les données de saisie par Copier & Coller depuis Excel. Assurez-vous que les catégories d'évaluation correspondent exactement aux catégories définies (respectez la casse).

Valeurs Kappa
Les indicateurs clés de l'analyse attributive du MSA sont les coefficients Kappa, qui quantifient la concordance des contrôleurs.
Kappa de Cohen
Le Kappa de Cohen mesure la concordance entre deux contrôleurs (comparaison par paires) en tenant compte de la concordance attendue par hasard.
Formule :
Kappa = (P_o - P_e) / (1 - P_e)
- P_o = Concordance observée (proportion réelle des évaluations concordantes)
- P_e = Concordance attendue par hasard
Le Kappa de Cohen est calculé séparément pour chaque paire de contrôleurs. Dans my8data, une matrice Kappa complète est affichée, dans laquelle chaque cellule contient la valeur Kappa pour une paire de contrôleurs spécifique.
Kappa de Fleiss
Le Kappa de Fleiss est une extension du Kappa de Cohen pour plus de deux contrôleurs. Il mesure la concordance globale de tous les contrôleurs simultanément.
Le Kappa de Fleiss est affiché dans my8data comme une valeur globale unique et indique le degré de concordance global des contrôleurs.
Échelle d'interprétation
L'interprétation des valeurs Kappa suit la classification courante de Landis & Koch (1977) :
| Valeur Kappa | Force de la concordance | Évaluation |
|---|---|---|
| < 0.00 | Faible (Poor) | Pire que le hasard. Problème fondamental avec le processus de contrôle. |
| 0.00 -- 0.20 | Légère (Slight) | Quasi aucune concordance. Processus de contrôle inadapté. |
| 0.21 -- 0.40 | Acceptable (Fair) | Concordance faible. Améliorations considérables nécessaires. |
| 0.41 -- 0.60 | Modérée (Moderate) | Concordance moyenne. Améliorations recommandées. |
| 0.61 -- 0.80 | Bonne (Substantial) | Bonne concordance. Acceptable pour de nombreuses applications. |
| 0.81 -- 1.00 | Très bonne (Almost Perfect) | Concordance quasi parfaite. Processus de contrôle excellent. |
Info : Une valeur Kappa de 1.0 signifie une concordance parfaite. Une valeur de 0 signifie que la concordance n'est pas meilleure que le simple hasard. Les valeurs négatives indiquent une contradiction systématique.
Important : En pratique, une valeur Kappa d'au moins 0.75 est souvent exigée. Dans les domaines critiques pour la sécurité (par exemple, technologie médicale, aéronautique et astronautique), des exigences plus élevées peuvent s'appliquer.

Concordance
En plus des valeurs Kappa, my8data offre d'autres analyses de la concordance des contrôleurs.
Taux de concordance
my8data calcule différents taux de concordance :
| Indicateur | Description |
|---|---|
| Dans le contrôleur (Within Appraiser) | Quelle est la cohérence de chaque contrôleur avec lui-même sur les différents passages ? Une valeur élevée indique que le contrôleur aboutit au même résultat lors de l'évaluation répétée d'une même pièce. |
| Entre les contrôleurs (Between Appraisers) | Quel est le degré de concordance entre les contrôleurs ? Compare les évaluations de tous les contrôleurs pour chaque pièce. |
| Contrôleur vs. Référence (Appraiser vs. Reference) | Quel est le degré de concordance de chaque contrôleur avec l'évaluation de référence ? Indique la précision de chaque contrôleur. |
| Tous les contrôleurs vs. Référence | Quel est le degré de concordance de tous les contrôleurs avec la référence ? Seules les pièces où tous les contrôleurs s'accordent dans tous les passages sont comptabilisées. |
Matrice de confusion (Confusion Matrix)
La matrice de confusion oppose les évaluations de chaque contrôleur aux évaluations de référence :
| Référence : conforme | Référence : non-conforme | |
|---|---|---|
| Contrôleur : conforme | Vrai positif (accepté correctement) | Faux positif (accepté à tort) |
| Contrôleur : non-conforme | Faux négatif (rejeté à tort) | Vrai négatif (rejeté correctement) |
Les indicateurs suivants sont dérivés de la matrice de confusion :
| Indicateur | Formule | Description |
|---|---|---|
| Efficacité | (Vrai positif + Vrai négatif) / Total | Proportion des décisions globalement correctes |
| Taux de défaut (Miss Rate) | Faux positif / (Vrai négatif + Faux positif) | Proportion des mauvaises pièces faussement acceptées |
| Taux de fausse alarme (False Alarm Rate) | Faux négatif / (Vrai positif + Faux négatif) | Proportion des bonnes pièces faussement rejetées |
Avertissement : Le taux de défaut est particulièrement critique car il indique combien de mauvaises pièces sont acceptées à tort. Dans les domaines critiques pour la sécurité, ce taux doit être aussi proche que possible de 0.
Conseil : Analysez la matrice de confusion pour chaque contrôleur individuellement. Si un contrôleur particulier a un taux de défaut anormalement élevé, il devrait être formé de manière ciblée. Examinez également les pièces sur lesquelles les erreurs se produisent fréquemment -- ce sont généralement les cas limites, où la décision du contrôleur est incertaine.
Évaluations graphiques
my8data représente également graphiquement l'analyse de la concordance :
- Barres de concordance : Affiche le taux de concordance par contrôleur sous forme de diagramme en barres.
- Carte thermique : Matrice codée par couleur qui montre les pièces où les contrôleurs s'accordent et celles où ils ne s'accordent pas.
- Diagramme de modèle d'erreur : Visualise les pièces qui sont évaluées incorrectement particulièrement fréquemment.
