Häufig gestellte Fragen
Finden Sie schnelle Antworten auf Ihre Fragen zu my8data
Detaillierte Erläuterungen zu den Verfahren finden Sie auf www.sixsigmablackbelt.de
Allgemein
my8data ist eine webbasierte Softwarelösung für statistisches Qualitätsmanagement. Die Anwendung unterstützt Sie bei der Durchführung von Messsystemanalysen (MSA), Maschinenfähigkeitsuntersuchungen (MFU) und statistischer Prozessregelung (SPC) gemäß gängigen Industriestandards wie VDA und AIAG.
my8data läuft optimal in aktuellen Versionen von Chrome, Firefox, Edge und Safari. Für die beste Erfahrung empfehlen wir Google Chrome oder Mozilla Firefox.
Sie können die Sprache über das Globus-Symbol in der oberen Navigationsleiste ändern. Aktuell werden Deutsch und Englisch unterstützt. Ihre Einstellung wird automatisch gespeichert.
Alle Ihre Analysen werden automatisch in der Cloud gespeichert. Sie können jede Analyse auch als Excel-Datei exportieren. Gehen Sie dazu in die jeweilige Analyse und klicken Sie auf "Export".
Messsystemanalyse (MSA)
MSA1 (Cg/Cgk) prüft die Fähigkeit eines Messmittels anhand eines Referenznormals. MSA2 (Gage R&R) untersucht Wiederholbarkeit und Reproduzierbarkeit mit mehreren Prüfern. MSA3 ist eine vereinfachte Gage R&R mit nur einem Prüfer.
Nach VDA Band 5 gelten: Cg ≥ 1,33 und Cgk ≥ 1,33 als Mindestanforderung. Für Sonderprozesse werden oft Cg ≥ 1,67 und Cgk ≥ 1,67 gefordert.
%GRR zeigt den Anteil der Messsystemvariation an der Gesamtvariation. Bewertung: ≤10% = fähig (grün), 10-30% = bedingt fähig (gelb), >30% = nicht fähig (rot). Zusätzlich sollte ndc ≥ 5 sein.
VDA empfiehlt: mindestens 10 Teile, 3 Prüfer und 2-3 Wiederholungen pro Teil und Prüfer. Die Teile sollten über den gesamten Toleranzbereich verteilt sein.
MSA7 bewertet attributive (gut/schlecht) Prüfprozesse mit mehreren Prüfern anhand von Kappa-Statistik und Übereinstimmungsraten. MSA7A ist für automatisierte Prüfsysteme mit nur einem "Prüfer" (Automat).
Maschinenfähigkeit (MFU)
Cm/Cmk (Maschinenfähigkeit) wird bei Kurzzeitmessungen unter stabilen Bedingungen ermittelt. Cp/Cpk (Prozessfähigkeit) basiert auf Langzeitdaten und berücksichtigt alle Prozesseinflüsse. Cm/Cmk sollte höher sein als Cp/Cpk.
VDA empfiehlt mindestens 50 aufeinanderfolgende Messwerte. Die Messung sollte unter möglichst stabilen Bedingungen (gleiche Charge, gleicher Werker, gleiche Maschine) erfolgen.
Für neue Maschinen: Cmk ≥ 1,67. Für bestehende Maschinen: Cmk ≥ 1,33. Bei Sonderprozessen können höhere Werte gefordert werden.
Ja, die Annahme der Normalverteilung sollte mit einem Test (z.B. Anderson-Darling) überprüft werden. Bei nicht-normalverteilten Daten können alternative Verteilungen oder Transformationen verwendet werden.
Statistische Prozessregelung (SPC)
X̄-R Karte: für Stichprobengrößen 2-10. X̄-S Karte: für Stichprobengrößen >10. I-MR Karte: für Einzelwerte. Die Wahl hängt von Ihrem Stichprobenkonzept ab.
Kontrollgrenzen werden aus den Prozessdaten berechnet (nicht aus Spezifikationsgrenzen!). UCL = Mittelwert + 3σ, LCL = Mittelwert - 3σ. Die genaue Berechnung hängt vom Kartentyp ab.
Ein Prozess gilt als außer Kontrolle bei: Punkt außerhalb der Kontrollgrenzen, 7 Punkte in Folge auf einer Seite der Mittellinie, Trends, Zyklen oder andere nicht-zufällige Muster.
Cp/Cpk basiert auf der Within-Streuung (kurzfristig), Pp/Ppk auf der Overall-Streuung (langfristig). Bei stabilem Prozess sind beide ähnlich. Große Unterschiede deuten auf Instabilität hin.
Daten & Import
Sie können Daten direkt in die Spreadsheet-Felder eingeben oder per Copy&Paste aus Excel einfügen.
Jede Analyse kann als Excel-Datei (.xlsx) exportiert werden. Die Datei enthält alle Eingabedaten, Berechnungen und Ergebnisse. Gehen Sie dazu in die Analyse und klicken Sie auf "Export".
Ja, über die Excel-Template-Verwaltung können Sie Vorlagen mit vordefinierten Kopfdaten und Einstellungen erstellen und wiederverwenden.
Der Daten-Generator erzeugt synthetische Messdaten für Übungszwecke. Sie können verschiedene Verteilungen (Normal, Weibull, etc.) und Parameter wählen.
Konto & Sicherheit
Gehen Sie zu Ihren Benutzereinstellungen (Klick auf Ihren Namen → Einstellungen) und wählen Sie "Passwort ändern".
Ja, alle Daten werden verschlüsselt auf deutschen Servern gespeichert. Wir halten die DSGVO vollständig ein. Ihre Analysedaten gehören ausschließlich Ihnen.
MSA: Grundlagen
Das primäre Ziel ist der statistische Nachweis, dass ein Messprozess (bestehend aus Gerät, Mensch, Methode und Umwelt) am konkreten Einsatzort für die vorgesehene Messaufgabe geeignet ist. Es soll sichergestellt werden, dass die Messeinrichtung ein Qualitätsmerkmal mit einer im Verhältnis zur Toleranz hinreichend geringen systematischen Messabweichung (Richtigkeit) und einer hinreichend geringen Messwertstreuung (Präzision) erfassen kann.
Der Nachweis bezieht sich immer auf den gesamten Messprozess am Einsatzort, nicht nur auf das isolierte Messgerät. Ein Messgerät kann unter Laborbedingungen exzellent sein, aber durch Einflussfaktoren wie Vibrationen in der Fertigung, Temperaturschwankungen, unzureichende Vorrichtungen oder unterschiedliche Bedienerhandhabung im realen Prozess untauglich werden. Daher muss die Untersuchung unter Serienbedingungen erfolgen.
Ja, grundsätzlich gilt der Fähigkeitsnachweis ausschließlich für das untersuchte Merkmal. Werden mit derselben Messeinrichtung unterschiedliche Merkmale (z. B. Durchmesser und Rundlauf) oder Merkmale mit deutlich unterschiedlichen Toleranzen gemessen, ist für jedes dieser Merkmale ein separater Fähigkeitsnachweis erforderlich, da sich die Auflösung, die Handhabung und die physikalischen Gegebenheiten unterscheiden können.
Die Auflösung der Messeinrichtung muss klein genug sein, um die Toleranz des Merkmals ausreichend fein zu unterteilen. Als Faustregel ("Goldene Regel der Messtechnik") gilt, dass die Auflösung maximal 5% der Toleranz T betragen sollte (≤ 5% · T). In begründeten Ausnahmefällen ist eine Auflösung von bis zu 10% der Toleranz zulässig (≤ 10% · T), wenn technisch keine besseren Geräte verfügbar sind. Eine unzureichende Auflösung führt zu Informationsverlust und verfälscht die statistische Auswertung der Streuung.
Die statistischen Berechnungsmodelle der Verfahren 1 bis 5 (wie Mittelwert, Standardabweichung, Cgk, ANOVA) basieren mathematisch auf der Annahme einer Normalverteilung der Messwerte. Liegt keine Normalverteilung vor (z. B. bei einseitigen physikalischen Begrenzungen, Formfehlern oder Mischverteilungen), liefern diese Standardverfahren falsche oder irreführende Ergebnisse. In solchen Fällen müssen Sonderverfahren angewandt oder Datentransformationen geprüft werden.
Eine sorgfältige und dokumentierte Prüfplanung ist die zwingende Voraussetzung für jeden Fähigkeitsnachweis. Sie legt fest, was (Merkmal), womit (Prüfmittel), wie (Methode) und wie oft gemessen wird. Ohne diese Definition ist ein Fähigkeitsnachweis nicht reproduzierbar und normativ wertlos. Die Grenzwerte für die Fähigkeitskennzahlen (z. B. 1,33 oder 1,67) richten sich nach den kundenspezifischen oder normativen Vorgaben.
Die Messprozessfähigkeit bewertet die Eignung eines Systems im Verhältnis zur Toleranz eines Merkmals für die Serienüberwachung (Fokus: "Ist das Gerät gut genug für dieses Teil?"). Die Messunsicherheit (nach VDA 5 / GUM) ist ein Parameter, der jedem Messergebnis zugeordnet ist und den Bereich kennzeichnet, in dem der wahre Wert liegt. Während die Fähigkeit oft für die Freigabe genutzt wird, ist die Messunsicherheit für Konformitätsentscheidungen nach ISO 14253 entscheidend.
Die Dokumentation muss so vollständig sein, dass die Untersuchung jederzeit nachvollziehbar ist. Dazu gehören: Eindeutige Identifikation des Prüfplans, Datum/Uhrzeit, Umgebungsbedingungen (Temperatur), Identifikation der verwendeten Normale (Kalibrierschein-Nr.), Namen der Bediener, alle Rohdaten (Einzelmesswerte), die verwendeten Grenzwerte, die Auswertemethode sowie das Ergebnis inklusive einer klaren Bewertung ("fähig" / "nicht fähig").
Wenn die Standardverfahren oder die AIAG MSA technisch nicht anwendbar sind (z. B. bei zerstörenden Prüfungen, extrem komplexen Geometrien oder dynamischen Messungen), müssen eigene Sonderverfahren entwickelt werden. Diese Vorgehensweise muss dokumentiert und zwingend mit dem zuständigen Qualitätsmanagement-Bereich sowie im Falle von Lieferbeziehungen mit dem Kunden abgestimmt werden, bevor sie angewendet wird.
Verfahren 1: Cg/Cgk
Verfahren 1 ist eine "Maschinenfähigkeitsuntersuchung" für das Messgerät. Es dient dazu, das Messsystem isoliert zu betrachten – also ohne den Einfluss von verschiedenen Bedienern oder der Streuung von Serienteilen. Geprüft werden die systematische Messabweichung (Bias) gegenüber einem bekannten Referenzwert und die Wiederholbarkeit (Streuung) des Gerätes.
Das Normal muss langzeitstabil sein und dem zu messenden Serienmerkmal in Geometrie und Beschaffenheit möglichst genau entsprechen. Entscheidend ist, dass es kalibriert ist und der "richtige Wert" (Referenzwert xm) bekannt ist. Die Unsicherheit der Kalibrierung Ukal sollte deutlich kleiner sein als die Toleranz des Merkmals (Idealfall: Ukal < 1% · T; Mindestanforderung: Ukal < 10% · T).
Um eine verlässliche statistische Aussage über die Streuung und den Mittelwert zu erhalten, ist eine ausreichende Stichprobengröße nötig. Es werden mindestens 25 Messungen gefordert, empfohlen werden jedoch 50 Messungen. Eine zu geringe Anzahl an Messungen führt zu großen Vertrauensbereichen, was das Risiko von Fehlentscheidungen (falsch-positiv oder falsch-negativ) erhöht.
Das bloße Wiederholen der Messung ohne Bewegung des Teils würde nur die innere Elektronik- oder Mechanik-Streuung des Gerätes erfassen. Um den realen Prozess abzubilden, müssen alle Handhabungsschritte simuliert werden (Spannen, Positionieren, Antasten). Nur so wird die Streuung erfasst, die auch im späteren Serienbetrieb durch das Einlegen der Teile entsteht.
Cg (Potenzieller Fähigkeitsindex): Setzt die Streuung des Messgerätes (üblicherweise 6·s) ins Verhältnis zur Toleranz (üblicherweise 0,2·T). Er sagt aus, wie präzise das Gerät ist, ignoriert aber die Richtigkeit. Cgk (Kritischer Fähigkeitsindex): Berücksichtigt zusätzlich zur Streuung auch die systematische Abweichung (Bias) vom wahren Wert. Er prüft, ob die Messwerte nicht nur eng beieinander liegen, sondern auch zentriert zur Referenz sind.
Nach gängigen Normen gelten die Mindestanforderungen Cg ≥ 1,33 und Cgk ≥ 1,33. Werte unter 1,33 weisen darauf hin, dass die Streuung zu groß ist (Gerät unpräzise) oder die systematische Abweichung zu hoch ist (Gerät falsch justiert), wodurch der Toleranzbereich zu stark durch die Messunsicherheit eingeschränkt wird.
Bei Merkmalen ohne natürliche Grenze (z. B. Abstand > 10mm) existiert keine feste Toleranzbreite T, weshalb Cg und Cgk nicht berechnet werden können. In diesem Fall wird Verfahren 1 genutzt, um Bias und Streuung zu ermitteln. Daraus wird ein reduzierter Akzeptanzbereich für die Produktion berechnet (z. B. z ≤ OGW - 4s - |Bias|), um sicherzustellen, dass keine Schlechtteile fälschlicherweise als Gutteile akzeptiert werden.
Das sind Merkmale, die physikalisch nicht kleiner als Null werden können, wie z. B. Rundlauf, Rauheit oder Betrag einer Unwucht. Hier stellt die Null (UGW* = 0) eine natürliche Grenze dar. In diesen Fällen kann oft eine Ersatz-Toleranz T* (Differenz aus Grenzwert und Null) gebildet werden, um Cg-Werte analog zu zweiseitigen Merkmalen zu berechnen.
Im Rahmen von Verfahren 1 wird mittels eines t-Tests geprüft, ob die gemessene Abweichung (x̄ - xm) statistisch signifikant ungleich Null ist oder ob sie nur durch Zufallsstreuung entstanden sein könnte. Ist die Abweichung statistisch nicht signifikant, darf der Bias in bestimmten Berechnungen (z. B. bei der Festlegung von Akzeptanzkriterien) vernachlässigt werden.
Verfahren 1 prüft die "Basis-Hygiene" des Messgerätes. Wenn das Messgerät selbst (ohne Bedienereinfluss und Teilevariation) schon nicht in der Lage ist, reproduzierbare und richtige Werte am Normal zu liefern, macht es keinen Sinn, komplexere Studien (Verfahren 2/3) durchzuführen. Ein Scheitern in Verfahren 2 wäre dann vorprogrammiert und die Fehlersuche unnötig kompliziert.
Verfahren 2: Gage R&R
Verfahren 2 (Gage R&R) muss immer dann durchgeführt werden, wenn der Bediener einen Einfluss auf das Messergebnis haben kann. Dies ist der Fall bei Handmessmitteln (Messschieber, Bügelmessschraube), bei manueller Bestückung von Vorrichtungen, oder wenn der Bediener subjektive Entscheidungen bei der Auswertung trifft (z. B. manuelles Setzen von Messlinien).
Der Standard fordert: Mindestens 10 repräsentative Serienteile (n ≥ 10), mindestens 3 verschiedene Bediener (k ≥ 3), mindestens 2 Wiederholungsmessungen pro Teil und Bediener (r ≥ 2). Dies ergibt eine Gesamtanzahl von mindestens 10 × 3 × 2 = 60 Messwerten.
Die Teile sollten nicht ideal sein, sondern die tatsächliche Streuung des Fertigungsprozesses repräsentieren. Idealerweise decken sie den gesamten Toleranzbereich ab. Wenn die Teile zu ähnlich sind (zu geringe Teilestreuung), kann dies mathematisch dazu führen, dass der Messprozess schlechter bewertet wird, als er ist (siehe Problematik ndc).
Um psychologische Effekte auszuschließen ("Erinnerungseffekt"), darf der Prüfer nicht wissen, welches Teil er gerade misst oder was er beim letzten Mal gemessen hat. Eine zufällige Reihenfolge (Randomisierung) verhindert zudem, dass Trends (z. B. Erwärmung des Gerätes) fälschlicherweise als Teilestreuung oder Bedienerunterschied interpretiert werden.
Die entscheidende Kennzahl ist %GRR (Gauge Repeatability and Reproducibility). Sie setzt die kombinierte Streuung aus Gerät (EV) und Bediener (AV) ins Verhältnis zur Bezugsgröße. In der Regel ist die Bezugsgröße die Toleranz T. Die Formel lautet vereinfacht: %GRR = (6 · GRR / T) · 100%.
%GRR ≤ 10%: Der Messprozess gilt als fähig. 10% < %GRR ≤ 30%: Der Messprozess ist bedingt fähig. Eine Nutzung ist oft möglich, aber Maßnahmen zur Verbesserung sollten geprüft werden. %GRR > 30%: Der Messprozess ist nicht fähig und darf nicht verwendet werden.
Die AIAG MSA empfiehlt oft die Gesamtstreuung (Total Variation, TV) als Bezugsgröße. Dies ist jedoch problematisch: Wenn ein Fertigungsprozess sehr präzise ist (sehr kleine Teilestreuung), erscheint der Messfehler im Verhältnis dazu riesig, obwohl das Messgerät bezogen auf die Toleranz (Funktion des Teils) völlig ausreichend ist. Der Toleranzbezug ist daher technisch meist relevanter.
Der ndc-Wert gibt an, wie viele unterscheidbare Kategorien (Klassen) das Messsystem innerhalb der Prozessstreuung erkennen kann. Er ist ein Maß für das Auflösungsvermögen des Messsystems relativ zur Variation der Teile. Ein Wert von 1 würde bedeuten, das Gerät kann nicht zwischen verschiedenen Teilen unterscheiden.
Gemäß AIAG MSA sollte der Wert ndc ≥ 5 sein. Dies stellt sicher, dass das Messsystem fein genug auflöst, um Prozessregelung und -analyse sinnvoll durchzuführen. Ein Wert unter 5 deutet darauf hin, dass die Messstreuung im Vergleich zur Teilestreuung zu groß ist.
EV (Equipment Variation): Beschreibt die Wiederholpräzision. Das ist die Streuung, die entsteht, wenn derselbe Bediener dasselbe Teil mehrfach misst (Gerätestreuung). AV (Appraiser Variation): Beschreibt die Vergleichpräzision. Das ist die systematische Abweichung der Mittelwerte zwischen den verschiedenen Bedienern (Bedienerstreuung).
Ein hoher AV-Wert bedeutet, dass die Bediener im Durchschnitt unterschiedlich messen. Ursachen können sein: Unklare Arbeitsanweisungen, unterschiedliche Kraft beim Spannen der Teile, Parallaxenfehler beim Ablesen von Skalen, mangelnde Schulung oder unterschiedliche Interpretation der Messstelle.
Ein hoher EV-Wert deutet auf Probleme mit dem Messmittel selbst hin. Ursachen können sein: Verschleiß oder Spiel in der Mechanik, schlechte Klemmung des Teils (Wackeln), Verschmutzung, instabile Umgebungsbedingungen (Vibrationen).
Die ANOVA (Analysis of Variance) ist mathematisch exakter. Im Gegensatz zur veralteten Mittelwert-Spannweiten-Methode (ARM) kann die ANOVA Wechselwirkungen zwischen Bediener und Teil erkennen (z. B. wenn Bediener A nur bei kleinen Teilen anders misst als Bediener B). Außerdem nutzt sie alle Daten effizienter zur Schätzung der Varianzen.
In solchen Ausnahmefällen kann Verfahren 2 auch mit weniger Teilen durchgeführt werden. Um jedoch die statistische Sicherheit (Freiheitsgrade) aufrechtzuerhalten, muss die Anzahl der Messwiederholungen oder der Prüfer erhöht werden. Dies muss im Bericht explizit als Abweichung dokumentiert und begründet werden.
Verfahren 3: Automatik
Verfahren 3 (oft "Type 3 Study" genannt) kommt bei vollautomatischen Messsystemen zum Einsatz, bei denen der Bediener keinerlei Einfluss auf das Messergebnis hat. Beispiele sind automatisierte Prüfautomaten in Fertigungslinien, bei denen Zuführung, Positionierung und Messung maschinell erfolgen.
Da der Einflussfaktor "Bediener" wegfällt, wird der Parameter k (Anzahl Prüfer) auf 1 gesetzt (bzw. entfällt). Die Streuung AV (Appraiser Variation) ist somit Null. Die Gesamtstreuung GRR wird in diesem Fall ausschließlich durch die Wiederholpräzision (EV) und die Interaktion Teil/Maschine bestimmt.
Da die Variation durch verschiedene Bediener als Informationsquelle wegfällt, müssen mehr Teile gemessen werden, um eine statistisch belastbare Aussage über das Zusammenspiel von Messgerät und unterschiedlichen Teilegeometrien zu erhalten. 25 Teile bieten hierfür eine breitere Basis als die 10 Teile aus Verfahren 2.
Der Standard fordert: Mindestens 25 Serienteile (n ≥ 25) und mindestens 2 Messzyklen pro Teil (r ≥ 2). Die Teile müssen dabei in jedem Zyklus neu zugeführt/eingelegt werden, um den realen Automatikprozess abzubilden.
Nein, die Grenzwerte für die Fähigkeit sind identisch. Auch hier gilt: %GRR ≤ 10% ist fähig, bis 30% ist bedingt fähig und darüber nicht fähig. Die Bezugsgröße bleibt vorzugsweise die Toleranz.
Verfahren 4: Linearität
Normalerweise wird die Linearität bei der Kalibrierung geprüft. Verfahren 4 ist jedoch zusätzlich erforderlich, wenn das Messgerät über einen sehr großen Arbeitsbereich eingesetzt wird und der Verdacht besteht, dass die Genauigkeit nicht über den gesamten Bereich konstant ist (z. B. bei nicht-linearer Sensorcharakteristik).
Es werden mindestens 5 Referenzteile (g ≥ 5) ausgewählt, die den gesamten Arbeitsbereich der Messeinrichtung abdecken. Jedes dieser Teile wird mindestens 12-mal (m ≥ 12) gemessen. Aus den Mittelwerten der Abweichungen wird eine Regressionsgerade berechnet.
Der Test nach AIAG MSA prüft rein statistisch, ob die Steigung und der Achsenabschnitt der Regressionsgeraden signifikant von Null abweichen. Dabei wird oft der Bezug zur technischen Toleranz vernachlässigt. Ein sehr präzises Gerät kann statistisch durchfallen (weil kleinste Abweichungen signifikant sind), obwohl sie technisch irrelevant sind. Umgekehrt kann ein stark streuendes Gerät bestehen, weil die Vertrauensbereiche riesig sind.
Eine empfohlene Alternative ist, statt der komplexen Regression nach MSA, das Verfahren 1 mehrfach an verschiedenen Stützstellen des Messbereichs durchzuführen (z. B. am unteren, mittleren und oberen Bereich des Toleranzfeldes). Dies stellt sicher, dass an jedem Punkt die Anforderungen an Cg und Cgk erfüllt sind, was technisch relevanter ist als der reine Linearitätstest.
Nach AIAG MSA ist das System linear, wenn die "Null-Linie" (keine Abweichung) vollständig innerhalb der 95%-Vertrauensbänder der Regressionsgeraden liegt. Das bedeutet, dass weder die konstante Abweichung (Achsenabschnitt) noch die variable Abweichung (Steigung) statistisch signifikant sind.
Verfahren 5: Stabilität
Verfahren 5 überwacht die Langzeitstabilität des Messprozesses. Während Verfahren 1-3 Momentaufnahmen sind, stellt Verfahren 5 sicher, dass das Messsystem auch über Wochen und Monate hinweg (trotz Temperaturwechsel, Verschleiß, Verschmutzung) korrekte Werte liefert. Es funktioniert ähnlich wie eine SPC-Regelkarte (Statistical Process Control).
Besonders bei elektronischen Messsystemen, die driften können, bei mechanischem Verschleiß, oder wenn Umgebungsbedingungen (Temperatur, Feuchte) kritischen Einfluss haben. Auch bei Messprozessen, die in Verfahren 1-3 nur knapp die Fähigkeit erreicht haben, ist eine Dauerüberwachung ratsam.
Es wird ein sogenanntes Stabilitätsteil (Referenzteil oder Normal) in regelmäßigen Abständen gemessen. Wichtig ist, dass dieses Teil selbst stabil ist und nicht durch die Messung verändert wird (keine Zerstörung).
Üblicherweise werden eine Mittelwertkarte (x̄-Karte) zur Überwachung der Richtigkeit (Bias-Drift) und eine Standardabweichungskarte (s-Karte) zur Überwachung der Präzision (Verschleiß/Lose) geführt. Alternativ kann bei kleinen Stichproben auch eine Urwertkarte geführt werden.
Es gibt zwei Ansätze: 1. Basierend auf einer Vorlaufuntersuchung (historische Daten des Prozesses). 2. Basierend auf der Toleranz (z. B. wird oft festgelegt, dass die Standardabweichung s maximal 2,5% der Toleranz betragen darf). Die Grenzen definieren den Bereich, in dem der Messprozess als "unter Kontrolle" gilt.
Ein Punkt liegt außerhalb der roten Eingriffsgrenzen (OEG/UEG). "Trend": 7 aufeinanderfolgende Punkte steigen an oder fallen ab. "Run": 7 aufeinanderfolgende Punkte liegen auf derselben Seite der Mittellinie. Solche Muster deuten auf systematische Veränderungen (z. B. Drift, Verschmutzung) hin.
Das Intervall hängt von der Stabilität ab. In der Anlaufphase wird oft häufiger gemessen (z. B. mehrmals pro Schicht). Zeigt die Karte über lange Zeit stabile Werte, kann das Intervall verlängert werden (z. B. einmal pro Tag oder Woche). Das Intervall muss so gewählt sein, dass fehlerhafte Messungen zeitnah erkannt werden, um Rückrufaktionen zu minimieren.
Verfahren 6: Lehren
Das sind Merkmale, die physikalisch kontinuierlich messbar wären (z. B. ein Durchmesser), aber im Prozess nur attributiv (diskret) bewertet werden. Ein klassisches Beispiel ist die Prüfung mit einem Grenzlehrdorn: Das Ergebnis ist nur "Gut" oder "Ausschuss" (IO/NIO), obwohl der Durchmesser eigentlich ein Maß hat.
Attributive Prüfungen haben eine sehr geringe Informationsdichte. Man weiß nur "gut" oder "schlecht", aber nicht "wie gut" oder "wie knapp". Um niedrige ppm-Fehlerraten statistisch sicher nachzuweisen, wären extrem hohe Stichprobenumfänge nötig, die wirtschaftlich kaum vertretbar sind. Messende Verfahren sind daher immer vorzuziehen.
Man verwendet ein Referenzlos von 50 Teilen. Diese Teile werden zunächst präzise gemessen, um ihren wahren kontinuierlichen Wert (Referenzwert) zu bestimmen. Danach werden sie mit dem attributiven Prüfmittel (z. B. Lehre) mehrfach geprüft.
Bei der Prüfung der 50 Teile wird man feststellen, dass Teile weit weg von der Grenze immer korrekt erkannt werden. Teile sehr nah an der Toleranzgrenze werden jedoch manchmal als "Gut" und manchmal als "Schlecht" bewertet. Der Bereich der Referenzwerte, in dem diese uneinheitlichen Bewertungen auftreten, ist der Unsicherheitsbereich (Zwischenbereich).
Die Breite dieses Unsicherheitsbereichs (d) wird als Maß für die Streuung des Prüfprozesses interpretiert. Analog zu Verfahren 2 setzt man diese Breite ins Verhältnis zur Toleranz T. Die Formel für den Fähigkeitsindex entspricht dem %GRR-Ansatz.
Die Kriterien sind analog zu den messenden Verfahren: Berechnetes %GRR ≤ 10%: Fähig. Berechnetes %GRR ≤ 30%: Bedingt fähig. Darüber: Nicht fähig.
Verfahren 7: Attributiv
Verfahren 7 wird für rein qualitative Merkmale verwendet, bei denen keine Messwerte existieren. Beispiele sind Sichtprüfungen auf Kratzer, Farbabweichungen, Lunker, Vollständigkeitsprüfungen oder Geräuschprüfungen ("Klingt gut/schlecht").
Ein klar definierter Standard, meist in Form eines Grenzmusterkatalogs. Dieser muss physische Teile oder Fotos enthalten, die eindeutig festlegen, was gerade noch "Gut" und was schon "Schlecht" ist, um die Subjektivität der Prüfer zu minimieren.
Es werden mindestens 50 Teile benötigt (besser 100+). Das Los sollte eine Mischung aus eindeutig guten Teilen, eindeutig schlechten Teilen und vor allem Grenzfällen enthalten. Die Zusammensetzung sollte idealerweise die reale Fehlerverteilung in der Fertigung widerspiegeln. Die "wahren" Werte (Referenz) müssen vorab von Experten festgelegt werden.
Mindestens 2 (besser 3) Prüfer bewerten alle Teile des Referenzloses unabhängig voneinander. Jeder Prüfer muss das Los mindestens 2-mal (besser 3-mal) prüfen. Wichtig ist, dass die Teile bei jedem Durchgang neu gemischt werden (Randomisierung), damit sich die Prüfer die Ergebnisse nicht merken können.
Kappa ist ein statistisches Maß für die Übereinstimmung von Bewertungen. Der einfache Prozentsatz der Übereinstimmung ist irreführend, da man auch durch reines Raten eine gewisse Übereinstimmung erzielen würde. Kappa korrigiert diesen Zufallsfaktor und gibt an, wie stark die Übereinstimmung über den reinen Zufall hinausgeht.
Es wird Fleiss' Kappa verwendet. Im Gegensatz zu Cohen's Kappa (das nur 2 Prüfer vergleicht) ist Fleiss' Kappa für beliebig viele Prüfer und Kategorien geeignet und daher universeller einsetzbar.
1. Wiederholbarkeit (Innerhalb Prüfer): Stimmt der Prüfer bei Wiederholungen mit sich selbst überein? 2. Vergleichbarkeit (Zwischen Prüfern): Stimmen die Prüfer untereinander überein? 3. Richtigkeit (Gegen Referenz): Stimmen die Prüfer mit dem Expertenstandard (Referenzwert) überein?
κ ≥ 0,9: Prüfprozess ist fähig (sehr gute Übereinstimmung). 0,7 ≤ κ < 0,9: Prüfprozess ist bedingt fähig (Verbesserung nötig). κ < 0,7: Prüfprozess ist nicht fähig (Übereinstimmung zu gering).
Ein Wert von 0 bedeutet, dass die Übereinstimmung rein zufällig ist. Die Prüfer haben quasi geraten. Ein Wert von 1 wäre perfekte Übereinstimmung. Negative Werte deuten auf eine systematische Meinungsverschiedenheit hin (schlechter als Zufall).
Anstatt Prüfer entscheiden zu lassen zwischen "Gut", "Nacharbeit" und "Ausschuss" (3 Kategorien in einem Schritt), ist es oft besser, erst "IO / NIO" zu prüfen und im zweiten Schritt "NIO" in "Nacharbeit / Ausschuss" zu unterteilen. Dies reduziert die Komplexität der Entscheidung und erhöht meist die Konsistenz (Kappa).
MSA: Praxis-Tipps
Nicht sofort das Messgerät austauschen! Zuerst muss eine Ursachenanalyse (z. B. Ishikawa, 5-Why) durchgeführt werden. Liegt es am Gerät (EV zu hoch)? Liegt es an den Mitarbeitern (AV zu hoch, Schulung nötig)? Oder liegt es an der Vorrichtung/Umgebung? Oft sind es einfache Handhabungsfehler oder verschmutzte Teile.
Der Prozess darf vorläufig genutzt werden, aber nur unter Auflagen. Das bedeutet meist: Erhöhte Prüffrequenz, Mehrfachmessung mit Mittelwertbildung zur Reduzierung der Streuung, oder intensive Schulung der Mitarbeiter. Ziel muss sein, den Prozess durch Maßnahmen in den fähigen Bereich zu bringen.
Ja, mathematisch verbessert eine größere Toleranz sofort die Fähigkeitskennzahlen (Cgk, %GRR), da diese im Nenner die Toleranz haben. Dies ist jedoch nur zulässig, wenn die Konstruktion/Entwicklung bestätigt, dass die Funktion des Bauteils auch mit der erweiterten Toleranz gewährleistet ist.
Wenn ein Messprozess (noch) nicht fähig ist, aber dringend benötigt wird (z. B. Produktionsstart), kann eine befristete Sonderfreigabe erteilt werden. Diese muss Maßnahmen zur Risikoabsicherung enthalten (z. B. 100%-Prüfung, Gegenmessung im Labor) und einen Zeitplan zur Behebung des Mangels.
Da der Abstand zur Toleranzgrenze kritisch ist, muss ein Schutzabstand eingehalten werden. Die Fertigungstoleranz wird um die Messunsicherheit (bzw. 4·s oder Ukal) eingeengt (OGWneu = OGW - Unsicherheit). Produziert man in diesem eingeengten Bereich, ist man trotz Messunsicherheit auf der sicheren Seite.
Bei Verfahren 1 wird ein ideales Normal unter idealen Bedingungen (oft durch Experten) gemessen. Bei Verfahren 2 kommen echte Serienteile (Formfehler, Rauheit) und normale Bediener (Handhabungsschwankungen) hinzu. Daher ist die Streuung in Verfahren 2 fast immer größer. Verfahren 1 ist das "technische Limit", Verfahren 2 die "Realität".
Dies ist ein häufiges Szenario. Es bedeutet: Das Messgerät an sich ist präzise (V1 okay), aber der Einsatzprozess taugt nichts (V2 schlecht). Ursachen sind oft: Vorrichtung passt nicht gut für Serienteile, Bediener legen unterschiedlich ein, oder die Teilegeometrie ist problematisch. Hier muss am Prozess (Vorrichtung, Anweisung), nicht am Sensor gearbeitet werden.
T ist die Toleranz aus der Zeichnung (OGW - UGW). T* ist eine Hilfsgröße für einseitige Merkmale mit natürlicher Grenze (z. B. Rauheit). Hier wird T* = OGW - 0 (natürliche Grenze) gesetzt, um Formeln, die eine Toleranzbreite benötigen, anwenden zu können.
Tmin ist die theoretisch kleinste Toleranz, für die dieser Messprozess noch als fähig gelten würde (bei gegebenem Cgk=1,33). Ist die tatsächliche Toleranz kleiner als Tmin, ist der Prozess nicht fähig. Der Wert hilft abzuschätzen, "wie weit" man vom Ziel entfernt ist.
Ausreißer dürfen nicht einfach gelöscht werden, um das Ergebnis zu schönen. Jeder Ausreißer muss auf seine physikalische Ursache untersucht werden (z. B. Tippfehler, Teil verschmutzt, Messfehler). Nur wenn eine klare Ursache gefunden wird, darf der Wert korrigiert oder nachgemessen werden. Andernfalls gehört er zur Prozessstreuung.
Temperatur ist oft der größte Störfaktor (Längenausdehnung). Messungen sollten idealerweise bei der Bezugstemperatur (20 °C) stattfinden. Ist das in der Fertigung nicht möglich, müssen Messgerät und Teil zumindest die gleiche Temperatur haben (akklimatisieren) oder es muss eine Temperaturkompensation erfolgen.
Messen: Liefert einen konkreten Zahlenwert (quantitativ). Man weiß, wie gut oder schlecht das Teil ist. Ermöglicht Prozessregelung. Lehren: Liefert nur eine Statusmeldung (qualitativ, Gut/Schlecht). Man weiß nicht, ob das Teil grenzwertig ist. Prozessregelung ist kaum möglich. Daher wird Messen im Qualitätsmanagement bevorzugt.
Methodisch ist Verfahren 3 eigentlich ein Spezialfall von Verfahren 2 (mit Anzahl Prüfer k=1). In der Software werden sie oft ähnlich behandelt. Wenn bei Verfahren 2 der Bedienereinfluss (AV) vernachlässigbar klein ist (≈ 0), nähert sich das Ergebnis dem von Verfahren 3 an.
Das Messsystem ist dennoch nicht geeignet. Eine ausreichende Auflösung (≤ 5% T) ist ein K.O.-Kriterium. Wenn die Auflösung zu grob ist (z. B. nur 3-4 Schritte innerhalb der Toleranz), sind die berechneten Standardabweichungen mathematisch unzuverlässig und die Prozessregelung funktioniert nicht ("Treppenstufeneffekt").