Ein Fehler, der in der Konstruktion 1 € kostet, kostet beim Kunden 1.000 €. Diese Zehnerregel ist keine Theorie — sie ist Erfahrungswert aus Jahrzehnten industrieller Fertigung. Dennoch behandeln viele KMUs Qualitätssicherung als notwendiges Übel: zu teuer, zu bürokratisch, zu wenig messbar im Nutzen.
Das Gegenteil ist richtig. Prüfstrategien, Messtechnik und statistische Prozesssteuerung sind die effizientesten Werkzeuge, um Fehlerkosten zu senken — vorausgesetzt, sie werden als zusammenhängendes System verstanden. Die häufigsten Fehler entstehen nicht durch fehlende Messgeräte, sondern durch falsche Reihenfolge: Prozess steuern, bevor das Messsystem validiert ist. Stichprobe reduzieren, bevor der cpk-Wert stimmt.
Dieser Artikel verbindet Messmittelauswahl, Messsystemanalyse, SPC-Regelkarten und Prüfstrategien zu einem durchgängigen Leitfaden — praxisnah, normbasiert und direkt auf den Maschinenbau zugeschnitten.
📌 TL;DR — Das Wichtigste in Kürze
- Zehnerregel: Fehlerkosten verzehnfachen sich pro Wertschöpfungsstufe — Prävention ist 100× günstiger als Reklamation
- Messmittelauswahl: Messunsicherheit ≤ 1/10 der Toleranz (Goldene Regel) — aber risikobasiert nach VDI/VDE 2600 bewerten
- MSA vor SPC: Erst Messsystem prüfen (%GRR < 10 %), dann Prozess überwachen — umgekehrt sind SPC-Daten wertlos
- SPC-Anforderungen: cpk ≥ 1,33 (allgemeiner Maschinenbau), cpk ≥ 1,67 (Automotive Vorserie)
- Prüfstrategie: 100 %-Prüfung bei instabilem Prozess → AQL-Stichprobe → SPC-gesteuert bei cpk ≥ 1,33
- Fehleranalyse: 8D-Report als Rahmen, Ishikawa + 5-Why für Ursachenanalyse (D4), FMEA präventiv
Warum Qualitätssicherung kein Kostentreiber ist — die Zehnerregel
Die Zehnerregel der Fehlerkosten besagt: Je später ein Fehler im Produktlebenszyklus entdeckt wird, desto teurer wird seine Behebung. Der Faktor 10 pro Stufe ist eine Faustformel — kein exakter Messwert — aber die Grundaussage ist durch Erfahrungen aus der industriellen Praxis gut belegt.
Konkret: Ein Konstruktionsfehler, der in der Designphase für 1 € korrigiert werden kann, kostet in der Fertigung bereits rund 10 €, in der Montage 100 € und beim Kunden 1.000 € oder mehr. Bei sicherheitsrelevanten Bauteilen (Rückrufaktionen, Haftungsfälle) multiplizieren sich diese Zahlen nochmals erheblich.
Die drei Kostenarten der Qualität nach DIN 55350-11
Das klassische Modell unterscheidet drei Kostenblöcke, die in jedem Unternehmen anfallen — bewusst kalkuliert oder nicht:
| Kostenart | Definition | Beispiele im Maschinenbau |
|---|---|---|
| Fehlerverhütungskosten | Kosten zur Analyse und Beseitigung von Fehlerursachen | FMEA, Schulungen, Prüfplanung, Prozessoptimierung |
| Prüfkosten | Planmäßige Prüfungen zur Fehlerfolgen-Vermeidung | Messmittel, Prüfpersonal, Kalibrierung, KMG-Betrieb |
| Fehlerkosten | Kosten durch Fehlproduktion und deren Auswirkungen | Ausschuss, Nacharbeit, Reklamationen, Gewährleistung |
In der Praxis geben viele KMUs zu wenig für Fehlerverhütung aus und zu viel für Prüfung und Fehlerbeseitigung. Eine Verschiebung des Budgets in Richtung Prävention zahlt sich langfristig aus — aber sie erfordert Messdaten und Ausdauer.
Messmittel richtig auswählen — von Messschieber bis KMG
Die Wahl des richtigen Messmittels entscheidet darüber, ob eine Toleranzaussage belastbar ist oder nicht. Zu ungenaues Messmittel → falsche Gut/Ausschuss-Entscheidungen. Zu teures Messmittel → unnötige Prüfkosten. Der Schlüssel liegt in der Messunsicherheit. Für den Einsatz von Sensoren zur Prozessüberwachung — induktiv, kapazitiv oder Ultraschall — erklärt der Artikel Sensorik im Maschinenbau: Auswahl und Einbau die entscheidenden Auswahlkriterien.
Die Goldene Regel der Messtechnik
Die klassische Faustregel lautet: Die Messunsicherheit des Messmittels sollte maximal 1/10 der Toleranz betragen. Bei einer Toleranz von ±0,05 mm (gesamt 0,1 mm) darf die Messunsicherheit also höchstens 0,01 mm betragen.
💡 Berechnungsbeispiel: Messmittel für eine H7-Bohrung
Gegeben:
Bohrung Ø25 H7: Toleranz laut ISO 286 = +0,021 mm / 0 mm → Toleranzbreite = 21 µm
Anforderung nach Goldener Regel:
Messunsicherheit ≤ 21 µm / 10 = 2,1 µm
Folgerung:
Messschieber (U ≈ ±20-50 µm) → nicht geeignet
Bügelmessschraube (U ≈ ±3-5 µm) → grenzwertig
KMG oder Bohrungsmessgerät (U ≈ ±1-3 µm) → geeignet
Hinweis: VDI/VDE 2600 Blatt 1 empfiehlt eine risikobasierte Bewertung statt starrer 1/10-Regel. Bei unkritischen Merkmalen kann 1/4 der Toleranz ausreichend sein.
Messmittel-Hierarchie im Überblick
Die folgende Tabelle gibt Orientierung für die Messmittelauswahl in der Praxis. Die Messunsicherheitswerte sind typische Bereiche — die tatsächlichen Werte hängen vom Gerät, der Kalibrierung und den Umgebungsbedingungen ab:
| Messmittel | Auflösung | Messunsicherheit (typ.) | Toleranzklasse |
|---|---|---|---|
| Messschieber (digital) | 0,01 mm | ±0,02-0,05 mm | IT10-IT12 |
| Bügelmessschraube | 0,001 mm | ±0,003-0,005 mm | IT8-IT10 |
| Messuhr / Feinzeiger | 0,001-0,01 mm | ±0,002-0,01 mm | IT7-IT9 |
| KMG (taktil) | 0,0001 mm | ±0,001-0,005 mm | IT5-IT7 |
| KMG (optisch) / Streifenlicht | variabel | ±0,003-0,1 mm | IT7-IT9 |
| CT (Computertomografie) | ~0,01 mm | ±0,01-0,05 mm | Innenliegendes |
| Rauheitsmessgerät | 0,001 µm | Streuung ±20-30 % | Ra, Rz |
Die Referenztemperatur für alle Längenmessungen ist nach DIN EN ISO 1 genau 20 °C. Abweichungen von dieser Temperatur führen durch thermische Ausdehnung zu systematischen Messfehlern — besonders relevant bei engen Toleranzen und großen Bauteilen.
Mehr zur Oberflächenmessung mit Ra und Rz: Oberflächenrauheit im Maschinenbau — Ra, Rz, Toleranzen richtig angeben. Praktische Berechnung direkt im Browser: DS Werk Rauheitsrechner.
Taktil, optisch oder CT — wann welche Technik?
Die Wahl zwischen taktiler KMG, optischer 3D-Messtechnik und Computertomografie hängt nicht nur von der geforderten Genauigkeit ab, sondern auch vom Bauteil und der Prüfaufgabe:
Taktile KMG ist die genaueste Option für Einzelpunktmessungen. Bohrungsdurchmesser, Ebenheiten, Positionen — alles mit Messunsicherheiten unter 5 µm. Nachteil: langsam, nur Außengeometrie messbar, Kontaktkraft kann weiche Oberflächen beschädigen. Normung: DIN EN ISO 10360.
Optische 3D-Systeme (Streifenlichtprojektion, Photogrammetrie) erfassen Flächen vollständig und schnell. Genauigkeit 0,003-0,3 mm je nach Messvolumen — für Freiformflächen und Soll-Ist-Vergleiche ideal. Einschränkung: glänzende oder transparente Oberflächen erfordern Mattierungsspray.
CT (Computertomografie) ist die einzige Technik, die Innen- und Außengeometrie zerstörungsfrei prüft. Besonders wertvoll für Gussteile, additiv gefertigte Bauteile und Baugruppen. Einschränkung: massive Stahlteile lassen sich schlecht durchstrahlen, Genauigkeit liegt unterhalb taktiler KMG.
Form- und Lagetoleranzen korrekt interpretieren: Form- und Lagetoleranzen nach ISO 1101 — der komplette Praxisguide.
Messsystemanalyse (MSA) — prüfen Sie Ihr Messsystem, bevor Sie messen
Der häufigste Fehler im QS-Alltag: Prozesse werden mit Regelkarten überwacht, aber niemand hat vorher geprüft, ob das Messsystem überhaupt in der Lage ist, relevante Unterschiede zuverlässig zu erkennen. Eine Messsystemanalyse (MSA) ist kein optionaler Schritt — sie ist die Grundvoraussetzung für belastbare Prüfergebnisse.
✅ Lösung: Immer in dieser Reihenfolge vorgehen:
- Messsystem analysieren (MSA / Gage R&R)
- Prozessfähigkeit nachweisen (cpk-Studie)
- Prozess mit Regelkarten steuern (SPC)
Diese Reihenfolge ist in der Qualitätskette nach Bosch-Booklet Nr. 10 und VDA 5 explizit so vorgesehen.
VDA 5 vs. AIAG MSA — zwei Ansätze, ein Ziel
In der Praxis begegnen Ihnen zwei Ansätze, die dasselbe Ziel verfolgen, aber unterschiedliche Kennwerte verwenden:
| Merkmal | VDA 5 / ISO 22514-7 | AIAG MSA 4th Edition |
|---|---|---|
| Grundlage | Messunsicherheit (GUM-basiert) | Gage R&R (statistisch) |
| Hauptkennwert | QMP (Messprozessfähigkeit) | %GRR (Anteil an Toleranz) |
| Akzeptanzkriterium | QMP ≤ 30 % (empf. ≤ 20 %) | %GRR < 10 % (gut), 10-30 % (bedingt) |
| Verbreitung | Europa (VDA-Kunden) | International, Nordamerika |
Gage R&R Schritt für Schritt (Verfahren 2)
Das in der Praxis am häufigsten eingesetzte Verfahren ist Gage R&R nach AIAG MSA Verfahren 2. Es trennt die Messsystem-Streuung in zwei Komponenten:
Repeatability (EV — Equipment Variation): Wiederholbarkeit des Geräts — gleicher Bediener, gleiches Teil, mehrfach gemessen. Zeigt die Grundstreuung des Messmittels.
Reproducibility (AV — Appraiser Variation): Vergleichbarkeit zwischen Bedienern — verschiedene Personen messen dieselben Teile. Zeigt Einfluss von Bedienerunterschieden.
Die Kennzahl ndc (number of distinct categories) gibt an, wie viele unterscheidbare Kategorien das Messsystem innerhalb der Toleranz erkennen kann. Gefordert: ndc ≥ 5.
- %GRR < 10 %: Messsystem geeignet ✅
- %GRR 10-30 %: Bedingt geeignet — Verbesserung empfohlen ⚠️
- %GRR > 30 %: Nicht geeignet — Messsystem muss verbessert werden ❌
- ndc < 5: Messsystem zu grob für die Toleranz — unabhängig vom %GRR
SPC — Prozesse mit Regelkarten statistisch steuern
Statistical Process Control (SPC) ist das Werkzeug, um einen stabilen und fähigen Prozess dauerhaft unter Kontrolle zu halten. Nicht um Fehler zu finden — das ist Aufgabe der Prüfung — sondern um Trends und Verschlechterungen frühzeitig zu erkennen, bevor Ausschuss entsteht. Was dabei oft übersehen wird: Jedes Ausschussteil repräsentiert nicht nur Materialverlust und Nacharbeitskosten, sondern auch verbrauchte Energie ohne Nutzwert. Der Artikel Energiekennzahlen in der Produktion: kWh pro Bauteil zeigt, wie die Kennzahl kWh/Gutteile diesen versteckten Energieverlust durch Ausschuss sichtbar macht.
cp, cpk, pp, ppk — die vier Kennwerte erklärt
Die Prozessfähigkeitskennwerte beschreiben das Verhältnis zwischen Toleranzbreite und Prozessstreuung. Grundvoraussetzung: normalverteilte Merkmale und ein statistisch stabiler Prozess.
cp (Prozesspotenzial) beschreibt, wie gut ein Prozess sein könnte, wenn er perfekt zentriert wäre:
cp = Toleranzbreite / (6 × σ)
cpk (Prozessfähigkeit) berücksichtigt zusätzlich die tatsächliche Lage des Mittelwerts zur Toleranzmitte:
cpk = min[(OTG − µ), (µ − UTG)] / (3 × σ)
Wenn cp > cpk gilt: Der Prozess könnte durch bessere Zentrierung fähig gemacht werden. Wenn cp = cpk gilt: Prozess ist perfekt zentriert.
💡 Berechnungsbeispiel: cpk für eine gedrehte Welle
Gegeben:
Welle Ø25 h7: Toleranz 0 / −0,021 mm
UTG = 24,979 mm, OTG = 25,000 mm
Prozessmittelwert µ = 24,990 mm
Standardabweichung σ = 0,003 mm
Berechnung:
cp = 0,021 / (6 × 0,003) = 0,021 / 0,018 = 1,17
cpk = min[(25,000 − 24,990), (24,990 − 24,979)] / (3 × 0,003)
cpk = min[0,010; 0,011] / 0,009 = 0,010 / 0,009 = 1,11
Bewertung: cpk = 1,11 liegt unterhalb der Anforderung von 1,33. Der Prozess muss entweder besser zentriert oder die Streuung reduziert werden. Ziel: µ näher an 24,990 mm mit σ < 0,0026 mm.
Typische Anforderungen nach Branche:
- Allgemeiner Maschinenbau: cpk ≥ 1,33 (entspricht 63 ppm Ausschuss bei Normalverteilung)
- Automotive Serienproduktion: ppk ≥ 1,33 (Langzeit-Performance)
- Automotive Vorserie / SOP: cpk ≥ 1,67 (entspricht 0,57 ppm)
- Six Sigma Ziel: cp = 2,00, cpk = 1,67 (±6σ Prozessbreite)
Regelkarten in der Praxis
Die x̄/R-Karte ist der Standard für kleine Stichprobengrößen (n < 10) in der laufenden Fertigung. Für größere Stichproben (n ≥ 10) empfiehlt sich die x̄/s-Karte, da die Standardabweichung s dann ein besseres Streuungsmaß als die Spannweite R ist.
Abb. 1: Schematische x̄-Regelkarte — OEG/UEG = Eingriffsgrenzen (±3σ), OWG/UWG = Warngrenzen (±2σ), x̄ = Prozessmittelwert
Ein wichtiger Unterschied in der Praxis: Prozessregelkarten berechnen ihre Grenzen aus den gemessenen Prozessdaten — sie spiegeln die tatsächliche Prozessstreuung wider, nicht die Toleranz. Annahmeregelkarten dagegen leiten die Grenzen aus den Toleranzgrenzen ab. Für SPC-konforme Prozessüberwachung ist die Prozessregelkarte der Standard.
Wann ist SPC sinnvoll — und wann nicht?
SPC entfaltet seinen Nutzen bei messbaren, kontinuierlichen Merkmalen in der Serienfertigung mit stabilen Prozessen. Für die Einzelfertigung oder bei attributiven Merkmalen (gut/schlecht ohne Messwert) sind andere Werkzeuge besser geeignet. Und ohne nachgewiesenen cpk ≥ 1,33 liefert SPC keine sinnvollen Ergebnisse — der Prozess muss erst fähig gemacht werden, bevor er gesteuert werden kann.
Zum Zusammenhang zwischen Schnittwerten, Prozessparametern und Prozessstabilität: Fertigung & Zerspanung: Verfahren, Parameter, Prozesssicherheit.
Prüfstrategien — von 100 % bis SPC-gesteuert
Die Prüfstrategie legt fest, welche Merkmale wann, wie oft und mit welchem Aufwand geprüft werden. Sie ist das Bindeglied zwischen Messmitteleinsatz und SPC — und sie sollte auf Basis von Risikobewertung und Prozessdaten getroffen werden, nicht aus Gewohnheit.
100%-Prüfung, Stichprobe oder SPC-gesteuert?
100%-Prüfung (Vollprüfung) ist sinnvoll bei sicherheitskritischen Merkmalen, instabilem Prozess (cpk < 1,00) oder wenn Fehlerfolgekosten die Prüfkosten um ein Vielfaches übersteigen. Nachteil: teuer, zeitintensiv, und auch 100%-Prüfung schützt nicht vor Prüffehlern (Inspektor-Müdigkeit, Messmittelfehler).
Stichprobenprüfung nach DIN ISO 2859-1 (AQL-System) reduziert den Prüfaufwand um bis zu 80 % bei statistisch belastbarer Aussage. Das AQL (Acceptable Quality Level) definiert den maximalen akzeptablen Fehleranteil in einer Lieferung. Typische AQL-Werte: 0,065 % (sicherheitsrelevant) bis 4,0 % (unkritische Merkmale). Das System kennt drei Prüfniveaus: Normal, Verschärft und Reduziert — mit definierten Umschaltregeln.
SPC-gesteuerte Prüfung ist die effizienteste Strategie, setzt aber einen nachgewiesenen cpk ≥ 1,33 voraus. Ist der Prozess stabil und fähig, kann der stichprobenbasierte Prüfaufwand schrittweise reduziert werden (Reduced Inspection, Skip-Lot). Bei Prozessauffälligkeiten wird automatisch zurückgestuft.
Den Prüfplan richtig aufbauen
Ein vollständiger Prüfplan enthält sieben Elemente. Fehlt eines davon, entstehen Lücken, die zu Fehlentscheidungen führen:
- Prüfmerkmal: Welches Maß, welche Form/Lage, welche Eigenschaft?
- Prüfmittel: Welches Messgerät? Kalibriert? Geeignet nach Goldener Regel?
- Prüfumfang: 100 % oder Stichprobe? AQL-Niveau?
- Prüfhäufigkeit: Wie oft pro Schicht / Losgröße?
- Prüfart: Messend (Wert) oder attributiv (gut/schlecht)?
- Prüfzeitpunkt: Wareneingang, Inprozess, Endprüfung?
- Prüfpersonal: Wer prüft? Schulung und Qualifikation nachgewiesen?
Erstmusterprüfung (PPF/PPAP) — Serienfähigkeit nachweisen
Vor dem Serienstart fordert die Automobilindustrie einen formalen Nachweis der Serienfähigkeit. In Europa erfolgt dies nach VDA Band 2 (PPF), international nach dem AIAG PPAP-Standard. Beide verfolgen dasselbe Ziel: Der Lieferant muss belegen, dass er die geforderten Merkmale unter echten Serienbedingungen reproduzierbar einhalten kann.
Der Nachweis umfasst typischerweise Zeichnungsmerkmale, Werkstoffnachweise, cpk-Studien, MSA-Ergebnisse und Erstmusterprüfberichte (EMPB). Ohne freigegebenen EMPB dürfen keine Serienteile geliefert werden.
Zu Toleranzen und Passungen, die häufig Teil der Erstbemusterung sind: Toleranzen & Passungen: Präzision im Maschinenbau nach ISO 286. Passungsberechnungen direkt im Browser: DS Werk Passungsrechner.
Fehleranalyse — systematisch statt Bauchgefühl
Wenn ein Fehler auftritt, entscheidet die Qualität der Ursachenanalyse darüber, ob das Problem dauerhaft behoben oder nur kurzfristig überdeckt wird. Drei Methoden bilden den Standardwerkzeugkasten im Maschinenbau: 8D-Report als Rahmen, Ishikawa für Ursachensuche, 5-Why für Tiefenanalyse.
Der 8D-Report als Rahmen
Der 8D-Report strukturiert die Problemlösung in acht Disziplinen. Er ist in der Automobilindustrie Standard, hat sich aber auch im allgemeinen Maschinenbau bewährt:
| Schritt | Inhalt |
|---|---|
| D1 | Team zusammenstellen (interdisziplinär, Entscheidungskompetenz) |
| D2 | Problem beschreiben (Was, Wo, Wann, Wie viel — IS/IS-NOT) |
| D3 | Sofortmaßnahmen (Containment) — verhindert Weitergabe fehlerhafter Teile |
| D4 | Grundursachen identifizieren (Ishikawa, 5-Why, Datenanalyse) |
| D5 | Abstellmaßnahmen planen und auswählen |
| D6 | Abstellmaßnahmen umsetzen und Wirksamkeit prüfen |
| D7 | Wiederholungsvermeidung sicherstellen (Systeme, Standards anpassen) |
| D8 | Teamleistung würdigen, Bericht abschließen |
Ishikawa, 5-Why und FMEA im Zusammenspiel
In D4 kommen die eigentlichen Analysetools zum Einsatz. Das Ishikawa-Diagramm (auch Fischgrätendiagramm) strukturiert die Ursachensuche nach den 6M: Mensch, Maschine, Material, Methode, Milieu (Umgebung) und Messung. Es eignet sich besonders für Gruppenworkshops, bei denen viele mögliche Ursachen systematisch gesammelt werden.
Abb. 2: Ishikawa-Diagramm (Fischgräte) — die 6M-Systematik strukturiert die Ursachensuche in der Fehleranalyse (D4 im 8D-Report)
Die 5-Why-Methode ergänzt das Ishikawa-Diagramm: Für jeden identifizierten Ast wird iterativ gefragt „Warum?“, bis die eigentliche Grundursache (Root Cause) erreicht ist. Fünf Warum-Fragen sind eine Faustregel — manchmal reichen drei, manchmal braucht es sieben.
Die FMEA (Fehlermöglichkeits- und Einflussanalyse) wirkt dagegen präventiv: Vor der Fertigung werden potenzielle Fehlerquellen systematisch identifiziert und bewertet. Seit dem harmonisierten AIAG/VDA-Handbuch (2019) ersetzt die Aufgabenpriorität (AP) — Hoch / Mittel / Niedrig — die alte Risikoprioritätszahl (RPZ). Die 7-Schritte-Methode erhöht die Reproduzierbarkeit und Nachvollziehbarkeit der Analyse.
Wie KI-gestützte Systeme die Defekterkennung in der Qualitätsprüfung verändern: Qualitätsprüfung mit KI Tools: Defekterkennung, Teil 1.
Der rote Faden — von der Messmittelauswahl zur Prozesssteuerung
Die einzelnen Methoden der Qualitätssicherung entfalten ihren vollen Nutzen erst im Zusammenspiel. Die folgende Prozesskette zeigt den logischen Ablauf — und warum jede Abkürzung teuer werden kann:
Abb. 3: QS-Prozesskette — die fünf Schritte von der Messmittelauswahl bis zur Prüfstrategie, ergänzt durch die Fehleranalyse bei Abweichungen
Drei Kernerkenntnisse für die Praxis: Erstens — MSA ist keine bürokratische Pflichtübung, sondern die Grundlage aller anderen Schritte. Ein Messsystem mit 35 % GRR zeigt überwiegend sich selbst, nicht den Prozess. Zweitens — cpk allein sagt wenig aus, wenn er nur einmalig erhoben wurde. Prozessfähigkeit muss kontinuierlich nachgewiesen und überwacht werden. Drittens — Prüfstrategie und SPC-Intensität sind keine fixen Größen, sondern sollten dynamisch an den aktuellen Prozesszustand angepasst werden.
Der nächste Schritt: Prüfen Sie für ein kritisches Merkmal in Ihrer Fertigung, ob eine aktuelle MSA-Studie vorliegt — und ob der %GRR-Wert dokumentiert ist. Das ist der Startpunkt für alles Weitere.
Weiterführend zur Werkstoffwahl als Basis für reproduzierbare Fertigung: Werkstoffwahl im Maschinenbau: Wie die richtige Stahlgüte über die Lebensdauer entscheidet.
FAQ — Häufig gestellte Fragen
Was ist der Unterschied zwischen Qualitätsmanagement und Qualitätssicherung?
Qualitätsmanagement (QM) ist der übergeordnete Begriff — er umfasst alle Tätigkeiten zur Steuerung und Lenkung einer Organisation in Bezug auf Qualität (ISO 9001). Qualitätssicherung (QS) ist ein Teilbereich des QM und bezeichnet konkrete Maßnahmen, die sicherstellen, dass Produkte und Prozesse die definierten Anforderungen erfüllen. Grob gesagt: QM ist Strategie und System, QS ist operative Umsetzung mit Messmitteln, Prüfplänen und statistischen Methoden.
Wie wählt man das richtige Messmittel für eine Messaufgabe aus?
Der Ausgangspunkt ist die Toleranz des zu messenden Merkmals. Nach der Goldenen Regel der Messtechnik sollte die Messunsicherheit des Messmittels höchstens 1/10 der Toleranzbreite betragen. Bei einer Toleranz von 0,1 mm ist also ein Messmittel mit Messunsicherheit ≤ 0,01 mm erforderlich — das schließt den Messschieber aus und fordert mindestens eine Bügelmessschraube oder ein Bohrungsmessgerät. VDI/VDE 2600 Blatt 1 empfiehlt ergänzend eine risikobasierte Bewertung: Bei unkritischen Merkmalen kann die Anforderung lockerer sein, bei sicherheitsrelevanten Merkmalen strenger.
Was bedeuten cp und cpk — und welche Werte sind gefordert?
cp beschreibt das Prozesspotenzial: Wie gut könnte der Prozess sein, wenn er perfekt zentriert wäre? cpk beschreibt die tatsächliche Prozessfähigkeit unter Berücksichtigung der Lage des Mittelwerts zur Toleranzmitte. Wenn cp deutlich größer als cpk ist, liegt der Mittelwert aus der Toleranzmitte — durch bessere Zentrierung lässt sich der Prozess verbessern, ohne die Streuung zu reduzieren. Geforderte Mindestwerte: cpk ≥ 1,33 im allgemeinen Maschinenbau, cpk ≥ 1,67 in der Automotive-Vorserie (IATF 16949).
Wie funktioniert eine Messsystemanalyse (Gage R&R)?
Bei einer Gage R&R-Studie nach AIAG MSA Verfahren 2 messen typischerweise 2-3 Prüfer jeweils 10 Teile je 2-3 Mal in randomisierter Reihenfolge. Ausgewertet wird: Repeatability (EV) — Streuung bei Wiederholung durch denselben Prüfer, und Reproducibility (AV) — Streuung zwischen verschiedenen Prüfern. Der Gesamt-%GRR-Wert gibt den Anteil der Messsystemstreuung an der Toleranz an. Unter 10 % gilt das Messsystem als geeignet, über 30 % muss es verbessert werden. Die Anzahl unterscheidbarer Kategorien (ndc) sollte mindestens 5 betragen.
Wann lohnt sich SPC in der Fertigung?
SPC lohnt sich, wenn drei Bedingungen erfüllt sind: Das Merkmal ist messbar (kontinuierlich, nicht nur gut/schlecht), der Prozess ist statistisch stabil, und die Prozessfähigkeit ist nachgewiesen (cpk ≥ 1,33). Ohne diese Voraussetzungen zeigt eine Regelkarte überwiegend Rauschen, keine sinnvollen Trends. In der Einzelfertigung oder bei Chargengrößen unter 20-30 Stück ist SPC in der Regel nicht sinnvoll — hier sind Prüfpläne mit Stichproben effizienter.
Was ist der Unterschied zwischen VDA 5 und AIAG MSA?
Beide Ansätze bewerten die Eignung von Messsystemen, verwenden aber unterschiedliche Kenngrößen. VDA 5 (ISO 22514-7) basiert auf dem GUM-Konzept der Messunsicherheit und berechnet den QMP-Wert (≤ 30 %, empfohlen ≤ 20 %). AIAG MSA nutzt den statistischen Gage R&R-Ansatz mit dem %GRR-Wert (< 10 % = gut, 10-30 % = bedingt). Für europäische OEMs im Automotive-Bereich ist VDA 5 bindend, international ist AIAG MSA weiter verbreitet. In der Praxis führen beide Ansätze bei gleicher Messaufgabe zu ähnlichen Ergebnissen.
Was kostet schlechte Qualität — und was bringt Prävention?
Nach der Zehnerregel verzehnfachen sich Fehlerkosten pro Wertschöpfungsstufe: Konstruktion 1 €, Fertigung 10 €, Montage 100 €, Kunde 1.000 €. Hinzu kommen schwer quantifizierbare Kosten: Imageschaden, Reklamationsaufwand, Produkthaftung. Prävention — FMEA, Prüfplanung, MSA, SPC — kostet Geld im Vorfeld, vermeidet aber vielfach höhere Folgekosten. Unternehmen, die systematisch in Fehlerverhütung investieren, erreichen typischerweise Fehlerkostenanteile unter 1 % des Umsatzes. Ohne konsequente QS liegen diese Werte erfahrungsgemäß bei 5-15 %.
Was ist der Unterschied zwischen Prozessregelkarte und Annahmeregelkarte?
Bei der Prozessregelkarte werden die Eingriffs- und Warngrenzen aus den gemessenen Prozessdaten berechnet (±3σ und ±2σ). Sie spiegeln die tatsächliche Prozessstreuung wider — nicht die Toleranz. Die Annahmeregelkarte hingegen leitet ihre Grenzen aus den vorgegebenen Toleranzgrenzen ab. Für die SPC-konforme Prozessüberwachung ist die Prozessregelkarte der richtige Ansatz. Die Annahmeregelkarte eignet sich für Akzeptanzentscheidungen (Gut/Ausschuss), nicht für die Prozesssteuerung.
Quellen und weiterführende Literatur
- ISO 9001:2015 — Qualitätsmanagementsysteme, Anforderungen
- VDA 5:2021 — Prüfprozesseignung, Verband der Automobilindustrie
- AIAG MSA 4th Edition — Measurement Systems Analysis Reference Manual
- ISO 22514-7:2021 — Statistical methods: Capability of measurement processes
- DIN ISO 2859-1:2014 — Stichprobenprüfung anhand der Anzahl fehlerhafter Einheiten
- VDI/VDE 2600 Blatt 1 — Prüfprozessmanagement, VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik
- VDI/VDE 2600 Blatt 2:2022 — Ermittlung der Messunsicherheit komplexer Prüfprozesse
- DIN EN ISO 10012:2004 — Messmanagementsysteme
- GUM (JCGM 100:2008) — Guide to the Expression of Uncertainty in Measurement, BIPM
- AIAG/VDA FMEA-Handbuch (2019) — Harmonisierte FMEA in 7 Schritten
- Bosch Booklet Nr. 9 — Maschinen- und Prozessfähigkeit (öffentlich verfügbar)
- Bosch Booklet Nr. 10 — Fähigkeit von Mess- und Prüfprozessen (öffentlich verfügbar)
- DIN EN ISO 10360 — Annahmeprüfung und Bestätigungsprüfung für KMG
Fazit
Qualitätssicherung im Maschinenbau ist kein bürokratischer Overhead, sondern ein messbarer Kostenhebel. Die Kombination aus validiertem Messsystem, statistischer Prozesssteuerung und risikobasierter Prüfstrategie schafft die Grundlage für reproduzierbare Fertigungsqualität — und verhindert teure Reklamationen beim Kunden.
- MSA vor SPC: Erst das Messsystem prüfen (%GRR < 10 %), dann den Prozess überwachen — sonst sind alle Messdaten wertlos
- cpk ≥ 1,33 als Mindestanforderung im allgemeinen Maschinenbau; Automotive-Vorserie erfordert cpk ≥ 1,67
- Die Zehnerregel gilt: 1 € Prävention spart 10–100 € in Fehlerkosten — FMEA und Prüfplanung sind Investitionen, keine Kosten
Starten Sie mit einer MSA Ihrer kritischsten Messmittel — Sie werden überrascht sein, wie viele Prozesse auf einer wackligen Messbasis stehen.
⚖️ Rechtlicher Hinweis
Dieser Artikel dient ausschließlich Informationszwecken und stellt keine Konstruktionsanleitung, Produktempfehlung oder verbindliche technische Beratung dar. Die Inhalte wurden nach bestem Wissen und unter Berücksichtigung aktueller technischer Standards erstellt, jedoch können Irrtümer und Änderungen nicht ausgeschlossen werden.
Haftungsausschluss:
- Die Anwendung der beschriebenen Verfahren, Berechnungen und Empfehlungen erfolgt auf eigenes Risiko.
- Für konkrete Prüfstrategien, Messmittelauswahl und Prozessfähigkeitsnachweise konsultieren Sie bitte qualifizierte Messtechnik-Fachleute und aktuelle Normwerke.
- Normenangaben können veraltet sein — prüfen Sie stets die aktuelle Fassung bei DIN, ISO oder VDA.
- Messunsicherheitswerte sind typische Bereiche aus der Praxis — tatsächliche Werte hängen vom Gerät, der Kalibrierung und den Umgebungsbedingungen ab.
- DS Werk und der Autor übernehmen keine Haftung für Schäden, die aus der Anwendung der Informationen entstehen.
Bei sicherheitsrelevanten Prüfaufgaben (Luftfahrt, Medizintechnik, Druckbehälter) ist eine fachkundige Prüfung durch akkreditierte Prüflabore nach DIN EN ISO 17025 zwingend erforderlich.
Weiterführende Artikel
- Oberflächenrauheit im Maschinenbau — Ra, Rz, Toleranzen richtig angeben
- Form- und Lagetoleranzen nach ISO 1101 — der komplette Praxisguide
- Toleranzen & Passungen: Präzision im Maschinenbau nach ISO 286
- Fertigung & Zerspanung: Verfahren, Parameter, Prozesssicherheit
- Qualitätsprüfung mit KI Tools: Defekterkennung, Teil 1
- Werkstoffwahl im Maschinenbau: Wie die richtige Stahlgüte über die Lebensdauer entscheidet
- Härteprüfung: Brinell, Vickers, Rockwell — Verfahren, Auswahlhilfe und Umrechnungstabelle nach ISO 18265