Kontrollkarten auf Basis archimedischer Copulas Dem Promotionsausschuss der Technischen Universita¨t Dortmund vorgelegte Dissertation zur Erlangung des akademischen Grades Doktorin der Naturwissenschaften (Dr. rer. nat.) von Dipl.-Stat. Editha Lockow 2013 1. Gutachter: Prof. Dr. Claus Weihs 2. Gutachter: Prof. Dr. Walter Kra¨mer Inhaltsverzeichnis 1 Einleitung 1 2 Abha¨ngigkeits- und Abstandsmaße 5 2.1 Kovarianz und Korrelation . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2 Maße auf Basis von Konkordanzen . . . . . . . . . . . . . . . . . . . 6 2.3 Abstandsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3 Copulas 9 3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 3.2 Sklar’s Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.3 Fre´chet-Hoeffding-Schranken . . . . . . . . . . . . . . . . . . . . . . 13 3.4 Ausgewa¨hlte Spezialfa¨lle . . . . . . . . . . . . . . . . . . . . . . . . . 14 3.5 Beziehung zu den Korrelationskoeffizienten . . . . . . . . . . . . . . 16 3.6 Parameterscha¨tzung . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 4 Karten zur Prozessu¨berwachung 21 4.1 Qualita¨t und Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . 21 4.2 Qualita¨tsregelkarten . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4.3 Die mittlere Laufla¨nge ARL . . . . . . . . . . . . . . . . . . . . . . . 26 4.4 OC-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4.5 Hotellings T 2-Karte . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4.6 Steigers Z-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 5 Variante I: U¨berwachung von Prozesslage und -streuung 31 5.1 Verwendete Kontrollkarten . . . . . . . . . . . . . . . . . . . . . . . 31 5.1.1 Adjustierte T 2-Karte . . . . . . . . . . . . . . . . . . . . . . . 32 5.1.2 Alternative: Euklidische E2-Karte . . . . . . . . . . . . . . . 33 i 5.2 Effizienz der Kontrollkarten . . . . . . . . . . . . . . . . . . . . . . . 34 5.2.1 Bestimmung der Kontrollgrenzen . . . . . . . . . . . . . . . . 34 5.2.2 Verhalten der Laufla¨nge bei Lageverschiebung . . . . . . . . . 36 5.3 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 5.3.1 Beispiel I: Ultraschall-Durchflussmesser . . . . . . . . . . . . 42 5.3.2 Beispiel II: Inkrementelles Umformen . . . . . . . . . . . . . 47 5.4 U¨berwachung der Prozessstreuung . . . . . . . . . . . . . . . . . . . 53 6 Variante II: Zusammenhangskontrolle 57 6.1 Entwicklung eines geeigneten Testverfahrens . . . . . . . . . . . . . . 57 6.1.1 T 2-Karte fu¨r Abha¨ngigkeitsa¨nderungen . . . . . . . . . . . . 57 6.1.2 Beschreibung der Teststatistik . . . . . . . . . . . . . . . . . 59 6.1.3 ”Entwicklungsgeschichte“ des vorgestellten Tests . . . . . . . 64 6.2 Konstruktion der Grenzwerte lcl und ucl . . . . . . . . . . . . . . . 67 6.2.1 Herleitung der beno¨tigten Wahrscheinlichkeiten . . . . . . . . 67 6.2.2 Bestimmung der Wahrscheinlichkeitsba¨nder . . . . . . . . . . 73 6.2.3 Beispiel Produktcopula . . . . . . . . . . . . . . . . . . . . . 74 6.3 Effizienz der Kontrollkarte . . . . . . . . . . . . . . . . . . . . . . . . 76 6.3.1 Berechnung von lcl und ucl . . . . . . . . . . . . . . . . . . . 76 6.3.2 Ergebnisse der Laufla¨ngensimulation . . . . . . . . . . . . . . 78 6.3.3 Approximation der Grenzwerte am Beispiel der Claytoncopula 81 6.4 Vergleich mit Steigers Z-Test . . . . . . . . . . . . . . . . . . . . . . 85 6.5 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 6.5.1 Beispiel I: Aktienrenditen . . . . . . . . . . . . . . . . . . . . 87 6.5.2 Beispiel II: Schra¨gseilbru¨cken . . . . . . . . . . . . . . . . . . 90 6.6 Optimierung der Teststatistik . . . . . . . . . . . . . . . . . . . . . . 98 6.6.1 Verteilung der Grenzwerte lcl und ucl . . . . . . . . . . . . . 99 6.6.2 Niveauausscho¨pfung verbessern . . . . . . . . . . . . . . . . . 101 6.6.3 ARL-Verhalten optimieren . . . . . . . . . . . . . . . . . . . 102 6.6.4 ARL-Verhalten und Niveauausscho¨pfung verbessern . . . . . 106 7 Zusammenfassung und Ausblick 109 ii A Erga¨nzende Formeln und Berechnungen 113 A.1 Wahrscheinlichkeiten fu¨r Kapitel 6 . . . . . . . . . . . . . . . . . . . 113 A.1.1 Die Wahrscheinlichkeit P(r ≤ r∗, e∗1 ≤ e ≤ e∗2) . . . . . . . . . 113 A.1.2 Die Wahrscheinlichkeit P(e∗1 ≤ e ≤ e∗2) . . . . . . . . . . . . . 114 A.1.3 Die Wahrscheinlichkeit P(r ≤ r∗|e∗1 ≤ e ≤ e∗2) . . . . . . . . . 115 A.1.4 Beispiel Produktcopula - Herleitung der Integrale . . . . . . . 116 A.2 Copuladichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 A.2.1 Dichte der Claytoncopula . . . . . . . . . . . . . . . . . . . . 117 A.2.2 Dichte der Gumbelcopula . . . . . . . . . . . . . . . . . . . . 118 A.2.3 Vergleich der Formeln 6.4 und 6.12 . . . . . . . . . . . . . . . 120 B Zusa¨tzliche Tabellen und Abbildungen 123 iii Verzeichnis wichtiger Abku¨rzungen und mathematischer Ausdru¨cke Verteilungen Term Bedeutung ❇() Binomialverteilung ❋() F-Verteilung ◆(0, 1) Standardnormalverteilung ◆(µ,Σ) multivariate Normalverteilung mit Erwartungswertvektor µ und Kovarianzmatrix Σ ❚ 2 Hotellings T-Quadrat-Verteilung ❲() Wishart-Verteilung Griechische Ausdru¨cke Term Bedeutung α Testniveau beziehungsweise Niveau einer Kontrollkarte η Auspra¨gung des zu u¨berwachenden Prozessparameters η0 Sollwert des zu u¨berwachenden Prozessparameters µ Erwartungswert(-vektor) einer Normalverteilung Φ Verteilungsfunktion einer standardnormalverteilten Zufallsvariablen ϕ erzeugende Funktion einer archimedischen Copula ϕ[−1] Pseudoinverse von ϕ ρXY Korrelation zwischen X und Y nach Pearson ρSXY Rangkorrelation zwischen X und Y nach Spearman σXY Kovarianz zwischen X und Y Σ Kovarianzmatrix einer Normalverteilung τXY Rangkorrelation zwischen X und Y nach Kendall θ Copulaparameter (archimedische Copula) v Sonstige Ausdru¨cke Term Bedeutung C(u1, u2, θ) bivariate Copula mit dem Paramter θ am Punkt (u1, u2) c(u1, u2, θ) Dichte von C(u1, u2, θ) Cov(X,Y ) Kovarianz von X und Y dM (X,Y ) Malahanobisdistanz zwischen X und Y e euklidische Distanz eines Punktes auf der Winkelhalbierenden im I2 zum Koordinatenursprung E2 Teststatistik der Euklidischen E2-Karte E(X) Erwartungswert von X f(.) Fischertransformation F eindimensionale Verteilungsfunktion H0 Nullhypothese eines statistischen Tests H1 Alternativhypothese eines statistischen Tests H(x1, x2) bivariate Verteilungsfunktion am Punkt (x1, x2) I, I2 geschlossenes Intervall auf [0, 1], beziehungsweise [0, 1]× [0, 1] Ip p-dimensionale Einheitsmatrix i Za¨hlvariable lcl Quantilsfunktion (obere Grenze) von r in Abha¨ngigkeit von e m Gro¨ße der Lernstichprobe n Stichprobengro¨ße p Anzahl betrachteter Merkmale, Dimension der Verteilung P(.) Wahrscheinlichkeit fu¨r ein Ereignis r orthogonaler Abstand zwischen einem Punkt und der Winkelhalbierenden im I2 R∗ Korrelationsmatrix der multivariaten Normalverteilung rg(.) Rang von . Ri ∈ {0, 1, 2} als Klasse fu¨r ri in Abha¨ngigkeit von ei (i = 1, . . . , n) Rn Teststatistik der entwickelten R-Karte fu¨r n Werte Sm Kovarianzmatrix einer Lernstichprobe der Gro¨ße m s∗m Vektor der Standardabweichungen fu¨r alle Merkmale einer Lernstichprobe der Gro¨ße m sXY empirische Kovarianz zwischen X und Y vi Sonstige Ausdru¨cke (Fortsetzung) Term Bedeutung T Teststatistik eines statistischen Tests (allgemein) T 2 Teststatistik zu Hotellings T 2-Karte T 2adj Teststatistik zur adjustierten T 2-Karte U Zufallsvariable aus I beziehungsweise Ip, meist mit p = 2 ucl Quantilsfunktion (untere Grenze) von r in Abha¨ngigkeit von e V Zufallsvariable aus I Var(X,Y ) Varianz von X und Y X Zufallsvariable aus dem ❘p Y Zufallsvariable aus dem ❘p Y m Mittelwertvektor einer Lernstichprobe der Gro¨ße m Abku¨rzungen Abku¨rzung Bedeutung ARL Average Run Length - mittlere Laufla¨nge CL Kontrollgrenze einer Kontrollkarte (”Control Limit“) CML Canonical Maximum Likelihood (ML-Methode bei unbekannten Ra¨ndern) IFM Inference for Margins (ML-Methode bei bekannten Ra¨ndern) LCL untere Kontrollgrenze einer Kontrollkarte (”Lower Control Limit“) ML Maximum Likelihood OC Operationscharakteristik, misst den Fehler zweiter Art QRK Qualita¨tsregelkarte RL Run Length - Laufla¨nge SDRL Standard Deviation of the ARL - Standardabweichung der ARL SPC Statistical Process Control - Statistische Prozessu¨berwachung UCL obere Kontrollgrenze einer Kontrollkarte (”Upper Control Limit“) uiv unabha¨ngig identisch verteilt vii viii 1 Einleitung Copulas waren bislang hauptsa¨chlich ein Modellierungsinstrument der O¨konomen und Finanzstatistiker. Inzwischen erkennen auch vermehrt Naturwissenschaftler die Vorteile dieser multivariaten Datendarstellung, beispielsweise beim Modellieren von Umweltzusammenha¨ngen und in der Ingenieurtechnik. Es werden immer mehr Be- reiche gefunden, bei denen Copulamodelle bisher verwendete Verteilungsannahmen in ihrer Anpassungsgu¨te u¨bertreffen. Die vorliegende Arbeit soll einen Beitrag zu dieser Entwicklung im Bereich der Qualita¨tskontrolle leisten. Falsche oder ”nicht optimale“ Verteilungsannahmen von Mess- und Qualita¨tsdaten fu¨hren unter Umsta¨nden zu rapiden Fehleinscha¨tzungen der wahren Prozesslage. Wird der Prozess durch Copulamodelle beschrieben, sollten dies auch die verwende- ten Instrumente zur Qualita¨tsu¨berwachung beru¨cksichtigen. Eine genauere Kenntnis der Datenstruktur fu¨hrt in der Praxis zur Einsparung verschiedener Ressourcen, etwa Material, Maschinen- oder Arbeiterstunden und ist damit finanziell und o¨kologisch interessant. Die Idee, Copulamodelle auf den Bereich der Qualita¨tssicherung zu u¨bertragen, insbesondere auf Qualita¨tsregelkarten, stammt von Yan (2007). Die vorliegende Dis- sertation greift diesen Gedanken auf. Betrachtet werden Qualita¨tsregelkarten fu¨r Prozesse, welche durch bivariate archimedische Copulas modellierbar sind. Neben dem bekannten Problem, einen Prozess in Lage und Streuung der interes- sierenden Parameter konstant zu halten, wird die Abha¨ngigkeitsstruktur zwischen den Merkmalen betrachtet. Hierauf liegt das Hauptaugenmerk der Arbeit. Fu¨r Lage- und Streuungsa¨nderungen werden Modifikationen der klassischen T 2- Karte verwendet. Zusa¨tzlich wird die E2-Karte entwickelt; diese verwendet ein alter- natives Abstandsmaß. Zur U¨berwachung der Prozessstruktur wird eine neue Qua- lita¨tsregelkarte entwickelt und getestet. Diese Karte soll dabei sowohl eine Versta¨r- 1 kung als auch eine Abschwa¨chung des Zusammenhangs zwischen den Daten erken- nen. Alle Karten werden hinsichtlich ihres Gu¨teverhaltens gepru¨ft. Dazu wird die durchschnittliche Laufla¨nge des Prozesses betrachtet, ehe die Karte Alarm auslo¨st. Bei kontrolliert ablaufenden Prozessen sollte sie mo¨glichst groß sein (in Abha¨ngigkeit vom Testniveau), bei Prozesssto¨rungen dagegen klein ausfallen. Die Arbeit entha¨lt fu¨nf Hauptkapitel. Das na¨chste Kapitel stellt Abha¨ngigkeits- und Abstandsmaße vor. Diese dienen zur Beschreibung der interessierenden Da- tenstrukturen und bilden die mathematische Grundlage der neu entwickelten Qua- lita¨tsregelkarte. Das dritte Kapitel behandelt Copulas. Nach einer kurzen Darstellung der Anwen- dungsgebiete und der zugrunde liegenden Idee pra¨sentiert dieses Kapitel ausgewa¨hlte archimedische Copulas. Neben der multivariaten Normalverteilung wird im Folgen- den ausschließlich diese Gruppe betrachtet. Archimedische Copulas basieren auf ei- ner Generatorfunktion; dabei ist die Auswahl beliebig groß. Sie beschreiben auf diese Weise sehr unterschiedliche Abha¨ngigkeitsstrukturen und decken viele in der Praxis vorkommende Datenformationen ab. Ein weiterer Vorteil fu¨r diese Arbeit ist, dass Zufallszahlen auf Basis archimedischer Copulas relativ leicht zu erzeugen sind. Das vierte Kapitel bescha¨ftigt sich mit dem zweiten inhaltlich relevanten Theo- riegebiet, den Qualita¨tsregelkarten. Neben Grundlagen und einigen Mo¨glichkeiten, die Gu¨te der Karte zu bewerten, werden Hotellings T 2-Karte und Steigers Z-Test vorgestellt. Auf Basis der theoretischen Grundlagen bescha¨ftigt sich Kapitel 5 mit den Mo¨g- lichkeiten zur U¨berwachung von Prozesslage und -streuung. Zuna¨chst wird eine Mo- difikation des klassischen T 2-Tests eingesetzt. Die verwendeten Copulas sind ach- sensymmetrisch, daher wird anschließend ein anderes Distanzmaß - der Euklidische Abstand - als Basis einer Regelkarte verwendet. Beide Karten werden fu¨r unter- schiedliche Prozessszenarien vergleichend getestet. Zwei Anwendungen runden diese Betrachtung ab. Copulas zielen darauf ab, die Datenstruktur gut abzubilden und Abha¨ngigkei- ten zwischen zwei oder mehr Merkmalen zu modellieren. Der interessanteste Aspekt dieser Arbeit ist daher die U¨berwachung der Abha¨ngigkeitsstruktur. Diese soll fu¨r den betrachteten Prozess konstant bleiben. Die T 2-Karte erfasst Abha¨ngigkeitsa¨nde- 2 rungen nicht zufriedenstellend. In Kapitel 6 wird daher eine neue Qualita¨tsregelkarte entwickelt. Sie soll Struktura¨nderungen eines Prozesses sichtbar machen. Dazu wird der Abstand der (Copula-)Datenpunkte zur Winkelhalbierenden auf dem Einheits- quadrat betrachtet. Dieser Abstand wird entsprechend aufbereitet und mit seiner Hilfe werden die Datenpunkte klassiert. Die Einordnung der Messpunkte erfolgt anhand entsprechender ”Wahrscheinlichkeitsba¨nder“ eines kontrolliert ablaufenden Prozesses. Diese Ba¨nder u¨berdecken einen Bereich, in dem ein bestimmter Prozent- satz der Daten eines kontrolliert ablaufenden Prozesses liegt. Die Ba¨nder decken den gesamten Wertebereich der modifizierten Messwerte ab. Damit ermo¨glichen sie eine eindeutige Dateneinordnung. Die Verteilung der klassifizierten Werte ist bestimm- bar; sie bildet die Grundlage der Regelkarte. Ein Vergleich mit Steigers Z-Test fa¨llt zugunsten der neuen Qualita¨tsregelkarte aus, so dass deren praktischer Einsatz empfehlenswert scheint. Es folgen wiederum zwei Anwendungsbeispiele. Abschließend wird die Karte am Beispiel einer bestimm- ten Copula optimiert, indem die Wahrscheinlichkeitsschla¨uche variiert werden. Das letzte Kapitel fasst die Ergebnisse zusammen und nennt Ansatzpunkte fu¨r weiterfu¨hrende Arbeitsgebiete im Bereich der Qualita¨tsregelkarten auf Basis von Copulamodellen. 3 2 Abha¨ngigkeits- und Abstandsmaße Die deskriptive Statistik liefert verschiedene Mo¨glichkeiten der Datenbeschreibung. Kennzahlen konzentrieren die Dateninformation auf wenige, relevante Maße, welche eine gute U¨bersicht u¨ber die Datengrundlage bieten. Einige Maße werden in diesem Kapitel erla¨utert, weiterfu¨hrende Informationen gibt Greene (2012). Einen umfas- senden U¨berblick zu ”Standardmaßen“ liefern Hartung et al. (2005); die Definitionen aus Kapitel 2.1 stammen von ihm. 2.1 Kovarianz und Korrelation Qualita¨tsmerkmale eines Objektes sind in der Regel nicht unabha¨ngig, daher mu¨ssen Art und Ausmaß des Zusammenhangs fu¨r viele ingenieur- und naturwissenschaftliche U¨berlegungen bekannt sein. Fu¨r multivariat normalverteilte Daten sind Kovarianzen beziehungsweise Korrelationen geeignete Abha¨ngigkeitsmaße. Die Kovarianz zweier Zufallsvariablen ist definiert als Cov(X,Y ) = σXY = E[(X − E(X))(Y − E(Y ))] Fu¨r eine Stichprobe (xi, yi), i = 1, . . . , n, wird die Kovarianz gescha¨tzt durch die empirische Kovarianz: sxy = 1 n− 1 n ∑ i=1 (xi − x¯)(yi − y¯) (2.1) Dabei bezeichnen x¯ und y¯ die arithmetischen Mittel der Beobachtungen x1, . . . , xn und y1, . . . , yn. Die Varianz von X (Var(X)) entspricht σXX = σ2X beziehungsweise sxx = s2x. Die Kovarianz ist nicht beschra¨nkt. Eine auf das Intervall [−1, 1] normierte Form der Kovarianz ist die Korrelation nach Pearson, die allgemein unter dem Begriff 5 ”Korrelation“ verstanden wird. Sie ist gegeben durch: ρXY = σXY √ σ2X √ σ2Y (2.2) Fu¨r die empirische Variante ρˆxy oder auch rxy werden die entsprechenden theoreti- schen Kovarianzen durch die empirischen ersetzt. Fu¨r a, b 6= 0 ∈ ❘ und c, d ∈ ❘ ist ρ(aX+c,bY+d) = sign(ab)ρXY . Die Korrelation ist also invariant gegenu¨ber streng monoton wachsenden, linearen Transformatio- nen der verwendeten Zufallsvariablen. Fu¨r streng monoton wachsende, nichtlineare Funktionen (hier: T und S) gilt dieser Zusammenhang nicht, sondern allgemein ist ρT (X),S(Y ) 6= ρXY . Betrachtet man beispielsweise die Vektoren x = (0.2, 0.3, 0.4, 0.6, 0.2, 0.4)⊤ und y = (3.1, 4, 4.8, 6., 2.8, 5.2)⊤ und die Funktionen T (x) = x2 sowie S(y) = y6, gilt ρxy = 0.97 6= ρT (x),S(y) = 0.99. Kovarianz und Korrelation sind meist einfach herzuleiten, bilden aber ausschließ- lich lineare Zusammenha¨nge ab. Aus der Unabha¨ngigkeit zweier Zufallsvariablen folgt stets Unkorreliertheit, sofern die zweiten Momente existieren (σXY = 0 → ρXY = 0), der Umkehrschluss gilt nur fu¨r multivariat normalverteilte Daten. 2.2 Maße auf Basis von Konkordanzen Die Theorie zu Konkordanzen und darauf basierenden Abha¨ngigkeitsmaßen sind erkla¨rt Nelson (2006). Sowohl die Rangkorrelation von Kendall als auch Spearmans Rangkorrelation nutzen Konkordanzmessungen zur Beschreibung der Abha¨ngigkeit zweier Variablen. 6 Betrachtet werden die Zufallsvariablen X und Y . Zwei Beobachtungspaare (xi, yi) und (xj , yj) (i, j ∈ 1, . . . , n) heißen konkordant, falls xi < xj und yi < yj oder xi > xj und yi > yj gilt. beziehungsweise diskonkordant, falls gilt: xi < xj und yi > yj oder xi > xj und yi < yj Darauf aufbauend wird die Rangkorrelation nach Kendall (Kendalls τ) von(X,Y ) mit n unabha¨ngigen Ziehungen (Xl, Yl), l = 1, . . . , n folgendermaßen definiert: τXY = P[(Xi −Xj)(Yi − Yj) > 0]− P[(Xi −Xj)(Yi − Yj) < 0] ∀i, j = 1, . . . , n Sei c die Anzahl konkordanter Paare und d die Anzahl diskonkordanter Paare inner- halb der Stichprobe, so gilt τˆXY = c− d c+ d. (2.3) Im Gegensatz zu Kendalls τ nutzt die Rangkorrelation von Spearman (Spear- mans ρ) die Differenz der Ra¨nge und nicht nur deren Unterschied. Mit der Schreib- weise von rg(Xi) als Rang von Xi gilt fu¨r n Wertepaare: ρˆSXY = 1− 6 n ∑ i=1 (rg(Xi)− rg(Yi))2 n · (n2 − 1) . (2.4) Im Folgenden wird einheitlich Kendalls τ zur Beschreibung von Abha¨ngigkeiten verwendet. Das Anwachsen des Abha¨ngigkeitsmaßes kann im direkten Vergleich zu Pearsons ρ nicht unbedingt linear interpretiert werden, siehe auch Abschnitt 3.5. Je nach betrachteter Grundgesamtheit kann beispielsweise eine Erho¨hung von τ um 0.2 einen wesentlich gro¨ßeren Sprung von ρ bewirken. 7 2.3 Abstandsmaße Viele multivariate Methoden basieren auf der Betrachtung von Absta¨nden zwi- schen Objekten im multidimensionalen Raum. Unterschiedliche Methoden zur Ab- standsberechnung ko¨nnen die Ergebnisse einer Methode stark beeinflussen. Fu¨r wei- terfu¨hrende Informationen sowie verschiedene konkrete Berechnungsmo¨glichkeiten fu¨r Absta¨nde siehe etwa Fahrmeir et al. (1996). Fu¨r eine endliche Menge M = {X1, X2, . . . , XN} heißt die Funktion d : M ×M → ❘ Distanzmaß oder Distanzfunktion, falls sie folgende Punkte erfu¨llt: • d(Xi, Xj) = d(Xj , Xi) ∀Xi, Xj ∈M • d(Xi, Xj) ≥ 0 und d(Xi, Xi) = 0 ∀Xi, Xj ∈M Der Abstand zwischen zwei Punkten im n-dimensionalen Raum kann durch die Lq-Norm nach der Gleichung von Minkowski dq(x, y) = ( p ∑ i=1 |xi − yi|q )1/q mit q ≥ 1 (2.5) berechnet werden. Dabei steht q fu¨r die Art des Abstands. Spezialfa¨lle sind • q = 1: ”City-Block-Metrik“ oder auch ”Manhattan-Distanz“ und • q = 2: ”Euklidische Distanz“ mit der Darstellung ||x− y||. Die Minkowski-Distanz beru¨cksichtigt unterschiedliche Skalierungen der individuel- len Koordinaten nicht. Wenn die Merkmale verschiedene Auspra¨gungsintervalle oder Maßeinheiten haben, dominiert die Koordinate mit dem gro¨ßeren Bereich das Er- gebnis. Dieses Problem kann durch Skalierung der Daten vor der Distanzberechnung gelo¨st werden. Die Mahalanobisdistanz beru¨cksichtigt die Korrelation und verschiedene Ska- lierungen durch Einbeziehen der inversen gescha¨tzten Kovarianzmatrix S−1 ; fu¨r unkorrelierte, standardisierte Daten entspricht sie der Euklidischen Distanz. Sie be- rechnet sich nach der Formel dM (x, y) = (x− y)TS−1(x− y). (2.6) 8 3 Copulas Der Name ”Copula“ stammt aus dem Lateinischen (”Band, Koppel, Verbindung“), er betont die Eigenschaft der Funktion, Randverteilungen und Abha¨ngigkeitsstruktur zu verknu¨pfen. Copulas helfen, mehrdimensionale Zusammenha¨nge darzustellen und stochastische Abha¨ngigkeit wesentlich flexibler modellieren als etwa mit Korrelationskoeffizien- ten. Klassische Beispiele hierfu¨r stammen meist aus der Finanzwelt, siehe etwa Savu (2007). Weit verbreitet ist die Modellierung der Abha¨ngigkeit mit Copulafunktionen in Anwendungen der finanziellen Risikobewertung und in versicherungsmathemati- schen Analysen. Das bekannteste Beispiel ist die Preisgestaltung von Wertpapieren, insbesondere von CDOs (Collateralized Debt Obligations), siehe etwa C´ızek et al. (2005), Meucci (2011) oder Meneguzzo und Vecchiato (2003). CDOs bestehen aus einem Portfolio festverzinslicher Wertpapiere. Sie sind ein wichtiges Refinanzierungs- mittel fu¨r Banken auf dem Kapitalmarkt und im Zuge der aktuellen Finanzkrise in die Kritik geraten. Mit den CDOs geriet auch die Anwendung der Gaußcopula auf Kreditderivate in Verruf (Salmon (2009)). Neue Vero¨ffentlichungen im Bereich der Finanzstatistik dokumentieren die Beschra¨nkungen der Gaußcopula. Wesentliche Punkte dabei sind die Unfa¨higkeit, Abha¨ngigkeiten dynamisch zu modellieren, und die schlechte Wiedergabe extremer Ereignisse. Korrigierende Modelle stellen etwa Brigo et al. (2010) oder Donnelly und Embrechts (2010) vor. Weniger umstritten ist die Anwendung von Copulas im Bereich anderer Anla- gesektoren, beispielsweise bei der Preiskalkulation oder im Risikomanagement, fu¨r Devisenkurse und fu¨r Rentenfonds, siehe etwa Qu (2005). Auch bei Versicherungsunternehmen spielt der Begriff ”Risikomanagement“ eine immer gro¨ßere Rolle, insbesondere die Risikoaggregation, also die Zusammenfas- sung von Einzelrisiken zu einem Gesamtrisiko. Abha¨ngigkeiten von verschiedenen Einzelrisiken zu verstehen und zu bewerten, ist hier essentiell, um etwa die Gefahr 9 zu modellieren, dass verschiedene Anspru¨che gleichzeitig geltend gemacht werden (Tran (2009)). Salvadori und De Michele (2007) zeigen Anwendungsgebiete in der Hydrologie, wenn etwa Pegelsta¨nde eines Flusses an verschiedenen Messpunkten modelliert wer- den; auch im Bereich der Offshoretechnik gibt es diverse Einsatzgebiete (de Waal (2005)). Bei technischen Produktionsprozessen interessiert das Auftreten von verbunde- nen Fehlern oder die zeitliche Verbundenheit von Misserfolgen. Copulafunktionen werden unter anderem erfolgreich im Bereich der Zuverla¨ssigkeitsanalyse von Auto- bahnbru¨cken angewandt (Srinivas et al. (2006), Thompson und Kilgore (2011)). Anwendungen im Bereich der Meteorologie und Klimaforschung (ta¨gliche Nieder- schlagsmessungen, Temperatur, . . . ) stellen Scho¨lzel und Friederichs (2008) vor. Im Bereich der Medizin ko¨nnen Copulafunktionen beispielsweise zur Modellierung von Aktionspotentialen (Za¨hlimpulse von Spitzen im zeitlichen Ablauf) in der Neurologie angewendet werden, siehe etwa Onken et al. (2009). In der Praxis werden oft multivariate statistische Verfahren zur Modellierung der genannten Beispiele verwendet. Diese basieren meist auf der Annahme, dass gemein- sam normalverteilte Daten vorliegen. Diese Bedingung ist oftmals nicht erfu¨llt, auch wenn die verbundenen Merkmale einzeln normalverteilt sind. Hier sind andere multivariate Verteilungen geeigneter, in der Vergangenheit wa- ren sie allerdings auch schwer zu konstruieren. Meist entstanden multivariate Ver- teilungen als Verallgemeinerung von univariaten Verteilungen, so dass nur gleiche Randverteilungen beru¨cksichtigt werden konnten. Außerdem gab es oftmals starke Bedingungen an die Abha¨ngigkeit der einzelnen Zufallsgro¨ßen. Copulas verfolgen einen anderen Ansatz. Mit ihnen lassen sich multivariate Vertei- lungsfunktionen in zwei Teile zerlegen. Dabei werden die univariaten Randverteilun- gen getrennt von der Copulafunktion betrachtet, welche die Abha¨ngigkeitsstruktur der Zufallsvariablen beschreibt. Sowohl die Randverteilungen als auch die Copula sind dabei frei wa¨hlbar, wodurch die Modellierung der oben genannten Sachverhalte erheblich flexibler und einfacher wird. Der Ansatz, Randverteilungen von der gemeinsamen Wahrscheinlichkeitsvertei- lung zu trennen, ist seit den 1940ern bekannt. (Enorm) gestiegen ist das Interesse 10 an Copulas aber erst um die Jahrtausendwende, wie man an der wachsenden Anzahl der Vero¨ffentlichungen zu diesem Thema erkennen kann. Bislang gibt es daher nur wenige Standardwerke zu Copulas, etwa Nelson (2006) oder Joe (2001). Das Kon- zept der Copulas erscheint zuna¨chst ungewo¨hnlich, als Einstiegslektu¨re ist das Werk von Genest und Favre (2007) geeignet. Grundlage der folgenden mathematischen Erla¨uterungen ist die Arbeit von Nelson (2006). Hier werden alle angefu¨hrten Theoreme und Sa¨tze fu¨r den zweidimensionalen Fall bewiesen, was fu¨r diese Arbeit ausreichend ist. 3.1 Definition Copulas werden genutzt, um multivariate Verteilungen mit beliebigen Randvertei- lungen zu konstruieren. Sie veranschaulichen die Zusammenhangsstruktur verschie- dener Zufallsvariablen. Gegeben sei dazu das geschlossene Intervall I = [0, 1] und analog I2 = [0, 1]× [0, 1]. Weiter sei (U1, . . . , Up)T ein Zufallsvektor, wobei die Ein- tra¨ge Ui, i = 1, . . . , p, gleichverteilt u¨ber dem Intervall I sind. Die gemeinsame Verteilungsfunktion aller Ui heißt p-dimensionale Copula (p- Copula) C(u1, . . . , up) = P(U1 ≤ u1, . . . , Up ≤ up). Eine zweidimensionale Copula (kurz: Copula) ist eine Funktion C : I2 → I mit C(u, v) = P(U ≤ u, V ≤ v) fu¨r u, v ∈ I, fu¨r die gilt: 1. C(u, 0) = C(0, v) = 0 ∀ u, v ∈ I 2. C(u, 1) = u und C(1, v) = v ∀ u, v ∈ I 3. C(u2, v2)− C(u2, v1)− C(u1, v2) + C(u1, v1) ≥ 0 fu¨r alle Rechtecke (u1, u2]× (v1, v2] ⊂ I2 Die obigen Bedingungen folgen direkt aus der Definition einer Verteilungsfunktion. Existiert die Dichtefunktion einer Copula, ergibt sie sich durch Ableiten nach den Randvariablen als c(u, v) = ∂C(u, v)∂u∂v . (3.1) 11 Elliptische Copulas (am Beispiel der Gaußcopula) und Archimedische Co- pulas (Clayton-, Frank- und Gumbel-) werden hier vorgestellt. Informationen zu Extremwertcopulas, einer weiteren wichtigen Copulagruppe im Bereich der Inge- nieurstatistik, liefert Joe (2001). Abbildung 3.1 zeigt einige Mo¨glichkeiten, wie die gemeinsame Verteilung aussehen kann, wenn die Randverteilungen einzeln (iden- tisch) normalverteilt sind. Normal X1 X 2 −2 −1 0 1 2 −2 −1 0 1 2 Frank X1 X 2 −2 −1 0 1 2 −2 −1 0 1 2 Clayton X1 X 2 −2 −1 0 1 2 −2 −1 0 1 2 Gumbel X1 X 2 −2 −1 0 1 2 −2 −1 0 1 2 Abbildung 3.1: Dichtefunktionen von Verteilungen, die durch verschiedene Copulas model- liert wurden (Normal-, Frank-, Clayton- und Gumbel-). Die (beiden) Ra¨nder sind standardnormalverteilt und Kendalls τ =0.6. 12 3.2 Sklar’s Theorem Sklar’s Theorem besagt: Sei H eine p-dimensionale Verteilungsfunktion mit den Randverteilungen F1, . . . , Fp. Dann existiert eine p-Copula C derart, dass ∀x ∈ ❘p gilt H(x1, . . . , xp) = C(F1(x1), . . . , Fp(xp)). (3.2) Auch der Umkehrschluss gilt: Es existiert fu¨r alle eindimensionalen Verteilungsfunk- tionen F1, . . . , Fp sowie fu¨r jede Copula C eine mehrdimensionale Verteilungsfunk- tion H mit den Randverteilungen F1, . . . , Fp. Fu¨r den zweidimensionalen Fall ist H(x1, x2) = C(F1(x1), F2(x2)) mit F1(x1) = u und F2(x2) = v. Falls alle Randverteilungen stetig sind, ist C eindeutig bestimmt. Stetige multivariate Verteilungen ko¨nnen also ohne Informationsverlust in zwei Komponenten zerlegt werden: Die univariaten Randverteilungen und die Copula. Die Abha¨ngigkeitsstruktur multivariater Verteilungen kann so separat von den ge- gebenen Randverteilungen betrachtet werden - es reicht, sich auf die Copula zu beschra¨nken. Diese Tatsache bietet vo¨llig neue Mo¨glichkeiten bei der Modellierung von Abha¨ngigkeiten. 3.3 Fre´chet-Hoeffding-Schranken Fu¨r eine Copula C(u, v) gelten als obere beziehungsweise untere Grenze die Fre´chet- Hoeffding-Schranken, die folgende Ungleichung bilden max(u+ v − 1, 0) ≤ C(u, v) ≤ min(u, v) ∀ u, v ∈ I. Die Schranken erfu¨llen selbst auch wieder die Copulabedingungen. Die untere Schran- ke ist nur fu¨r den bivariaten Fall eine Copula und wird als Maximumscopula W (u, v) bezeichnet; sie gibt perfekt negative Abha¨ngigkeit an. Die obere Grenze, die Minimumscopula M(u, v), entspricht perfekt positiver Abha¨ngigkeit. Damit lautet die obige Ungleichung W (u, v) ≤ C(u, v) ≤ M(u, v) ∀ u, v ∈ I. 13 3.4 Ausgewa¨hlte Spezialfa¨lle Die einfachste Form der Copula ist die Unabha¨ngigkeits- oder Produktcopula der Form C(u, v) = uv. Elliptische Copulas ergeben sich aus elliptischen Verteilungen, beispielsweise der multivariaten Normalverteilung oder der multivariaten t-Verteilung. Sie sind punktsymmetrisch um den Erwartungswert der Verteilung, das erleichtert explizite Rechnungen beziehungsweise ermo¨glicht diese erst. Weiterhin ko¨nnen in dieser Klas- se endlastige Verteilungen (”heavy tails“) auftreten. Anschaulich besagt der Begriff, dass auf dem ”Ende“ beziehungsweise den ”Enden“ der Verteilung mehr Masse liegt als bei der Normalverteilung. Diese Verteilungen eignen sich unter anderem zur Modellierung von Großscha¨den und seltenen Ereignissen (”Jahrhundertflut“, Radio- aktivita¨tswerte (vor und) nach einer Reaktorexplosion, . . .). Elliptische Copulas ko¨nnen genutzt werden, um mit Hilfe von Sklar’s Theorem (Formel (3.2)) multivariate Verteilungen zu konstruieren. Zu beachten ist, dass zwar aus der Normalcopula eine multivariate Normalverteilung wird, aus der t-Copula in der Regel aber keine multivariate t-Verteilung (Ausnahme: Alle Randverteilungen haben gleichviele Freiheitsgrade). DieNormal- oderGaußcopula geho¨rt zur Klasse der elliptischen Verteilungen. Sie wird mit Hilfe der Normalverteilung definiert. Dazu sei ΦR∗ die Verteilungsfunktion einer multivariaten Normalverteilung mit der Korrelationsmatrix R∗ :=         1 ρ12 . . . ρ1p ρ21 1 . . . ρ2p ... ... . . . ... ρp1 ρp2 . . . 1         und Φ die Verteilungsfunktion einer standardnormalverteilten (◆(0, 1)) Zufallsvaria- blen. Dann ist die Normalcopula mit Verteilungsparameter (auch: charakteristische Matrix) R∗ gegeben durch CN (u1, ..., up,R∗) = ΦR∗ [Φ−1(u1), . . . ,Φ−1(up)]. 14 Im bivariaten Fall gilt fu¨r den Copulaparameter ρ = ρ12 aus R∗ dementsprechend CN : I2 → I mit CN (u, v, ρ) = Φρ[Φ−1(u),Φ−1(v)]. (3.3) Archimedische Copulas werden - im Gegensatz zu den elliptischen Copulas - nicht mit Hilfe von Sklar’s Theorem konstruiert. Sie leiten sich aus einer univariaten Funktion ab. Sie sind als geschlossener Ausdruck darstellbar und meist leicht zu konstruieren. Außerdem gibt es verschiedenste Copulafamilien aus der Klasse archi- medischer Copulas. Daher findet man sie in der Praxis in vielen Bereichen. Neben Nelson (2006) bietet auch Joe (2001) einen ausfu¨hrlichen U¨berblick u¨ber diverse archimedische Copulas. Archimedische Copulas werden mit Hilfe einer erzeugenden Funktion ϕ (auch: Erzeuger oder Generator) konstruiert und sind durch diese eindeutig bestimmt. Dazu sei ϕ : I → [0,∞) eine stetige, streng monoton fallende Funktion mit ϕ(1) = 0. Die Laplacetransformierte oder Pseudoinverse ϕ[−1] von ϕ ist definiert als: ϕ[−1] : [0,∞]→ I mit ϕ[−1](ν) =      ϕ−1(ν) 0 ≤ ν < ϕ(0), 0 ϕ(0) ≤ ν ≤ ∞ Fu¨r ϕ(0) =∞ heißt ϕ strikter Erzeuger. Dann gilt ϕ[−1](t) = ϕ−1(t) ∀ t und die daraus resultierende Copula heißt strikte (archimedische) Copula. Mit der Laplacetransformierten ist die archimedische Copula C : Ip → I mit Parameter θ definiert als C(u1, ..., up, θ) = = ϕ[−1][ϕ(u1) + . . .+ ϕ(up)]. Im bivariaten Fall vereinfacht sich die obige Formel zu C : I2 → I mit C(u, v, θ) = ϕ[−1][ϕ(u) + ϕ(v)]. (3.4) 15 Verschiedene Generatoren erzeugen unterschiedliche archimedische Copulafamilien, die durch geeignete Parameterwahl noch einmal unterscheidbar sind. Exemplarisch wird hier die Claytoncopula aus ihrem Erzeuger hergeleitet. Es ist ϕ(t) = 1θ (t−θ − 1) fu¨r θ > 0. Damit ist ϕ(u) = 1θ (u−θ − 1) und ϕ(v) = 1θ (v−θ − 1) sowie ϕ[−1](t) = (θt + 1)− 1θ . Einsetzen in Formel (3.4) ergibt dann die gesuchte Darstellung: C(u, v, θ) = ϕ[−1][ϕ(u) + ϕ(v)] = ϕ[−1] [1 θ (u −θ + v−θ − 2) ] = [ θ1θ (u −θ + v−θ − 2) + 1 ]− 1θ = ( 1 uθ + 1 vθ − 1 )− 1θ Drei wichtige Copulafamilien zeigt Tabelle 3.1. Familie ϕ(t) θ Cϕ(u, v, θ) Clayton 1θ (t−θ − 1) θ > 0 ( 1 uθ + 1 vθ − 1 )− 1θ Gumbel (− ln t)θ θ ≥ 1 exp ( − [ {− ln(u)}θ + {− ln(v)}θ ] 1 θ ) Frank ( − ln e−θt−1e−θ−1 ) θ ∈ ❘ −1θ ln ( 1 + (e −θu−1)(e−θv−1) eθ−1 ) Tabelle 3.1: Generator ϕ(t), Parameter θ und Verteilungsfunktion C(u, v, θ) ausgewa¨hlter archimedischer Copulas 3.5 Beziehung zu den Korrelationskoeffizienten Kendalls τ und Spearmans ρ ko¨nnen als Funktionen bivariater Copulas dargestellt werden durch τXY = 4 ∫ ∫ [0,1]2 C(u, v) dC(u, v)− 1 sowie (3.5) ρSXY = 12 ∫ ∫ [0,1]2 u · v dC(u, v)− 3 = 12 ∫ ∫ [0,1]2 C(u, v) dudv − 3, (3.6) wie beispielsweise Embrechts et al. (2010) zeigen. 16 Berechnet man Abha¨ngigkeitsmaße fu¨r Datenpunkte, die durch verschiedene Co- pulastrukturen erkla¨rbar sind, kann das Anwachsen von Kendalls τ nicht im direkten Vergleich zu Pearsons ρ linear interpretiert werden, siehe auch Abbildung 3.2. −1.0 −0.5 0.0 0.5 1.0 −1 .0 −0 .5 0. 0 0. 5 1. 0 Vergleich : ρ − τ ρ τ −1 .0 −0 .5 0. 0 0. 5 1. 0 τ −1 .0 −0 .5 0. 0 0. 5 1. 0 τ Normalcopula Claytoncopula Gumbelcopula Abbildung 3.2: Zusammenhang zwischen Kendalls τ und Pearsons ρ fu¨r verschiedene Da- tenstrukturen Die Korrelationsmatrix R∗ der Gaußcopula CN ist eindeutig in die Rangkorre- lationsmatrizen nach Kendall oder Spearman umformbar, siehe etwa Lindskog et al. (2001) und Lindskog (2000). Danach gilt fu¨r den bivariaten Fall τ = 2π arcsin(ρ) und ρ S = 6π arcsin (ρ 2 ) . (3.7) Zwischen Kendalls τ und dem Copulaparameter θ der Claytoncopula la¨sst sich folgender Zusammenhang feststellen: θ = 2τ1− τ (3.8) 17 Fu¨r die Gumbelcopula gilt der Zusammenhang θ = 11− τ . (3.9) Eine geschlossene Darstellung fu¨r den Parameter der Frankcopula existiert nicht. 3.6 Parameterscha¨tzung Um den Copulaparameter aus einem vorliegenden Datensatz zu scha¨tzen, gibt es ver- schiedene Methoden. Einige Verfahren passen die direkt aus den Daten gescha¨tzten Parameter noch weiter an und optimieren das Modell, indem abwechselnd Randver- teilungen und Copulaparameter in mehreren Durchla¨ufen aufeinander abgestimmt werden. Beispielhaft werden hier die Scha¨tzung durch Rangkorrelation und per Maximum-Likelihood-Methode fu¨r den zweidimensionalen Fall dargestellt. Die Er- la¨uterungen stammen aus Joe (2001) sowie Genest und MacKay (1986). Die Copulafamilie (Gauß-, Clayton-, . . .) wird meist als bekannt vorausgesetzt, da oft inhaltliche Gru¨nde fu¨r eine bestimmte Verteilungsform der Daten sprechen. Ist dies nicht der Fall, gibt es eine Vielzahl mathematischer Modelle zur Bestim- mung einer geeigneten Copula. Wichtig ist hier vor allem, verschiedene Anpassun- gen vergleichen zu ko¨nnen. In der vorliegenden Arbeit werden fu¨r praktische Bei- spiele Copulas angepasst. Dabei handelt es sich stets um den gleichen Datensatz. Es wird nur ein Copulaparameter gescha¨tzt, da die Dissertation Qualita¨tsregelkarten auf Basis archimedischer Copulas betrachtet. Somit sind die Anforderungen an die Scha¨tzmethode u¨berschaubar und die Anpassungsgu¨te verschiedener Copulamodelle ist direkt vergleichbar. DieML-Methode (”Maximum Likelihood“) liefert beispielsweise eine Mo¨glichkeit, nach Parameterscha¨tzung fu¨r mehrere Copulas diejenige mit der besten Anpassung auszuwa¨hlen. Dazu werden die ML-Werte verglichen. Alternativ ko¨nnen Anpas- sungstests helfen, eine geeignete Copula zu finden. Bei der Anpassung einer Copula mit der ML-Methode tritt das Problem auf, dass 18 die ui ∈ I2, i = 1 . . . n, meist nicht direkt beobachtet werden. Stattdessen liegen die Beobachtungen xi ∈ ❘2, i = 1 . . . n, vor, denen die gemeinsame Verteilung H zugrun- de liegt. Es muss also zuna¨chst eine Transformation erfolgen. Nach Sklar’s Theorem ist ui entsprechend der Copula verteilt, wenn ui := (F1(xi1), F2(xi2)) gewa¨hlt wird mit den Randverteilungen F1 und F2. Diese Methode setzt bekannte Randvertei- lungen voraus. Hierbei spricht man auch von der IFM-Methode (”Inference for Margins“). Unbekannte Randverteilungen ko¨nnen beispielsweise durch die entsprechenden empirischen Verteilungsfunktionen gescha¨tzt werden. Dann ergibt sich eine Stich- probe von Pseudorealisationen uˆi, i = 1, . . . , n, mit uˆi := (Fˆ1(xi1), Fˆ2(xi2)). Wird die log-Likelihood-Funktion der Pseudorealisierungen betrachtet und fu¨r θ ma- ximiert, spricht man von der CML-Methode (”Canonical Maximum Likelihood“). Die Parameterscha¨tzung per Rangkorrelation setzt voraus, dass eine Beziehung zwischen dem Copulaparameter und einem Rangkorrelationskoeffizienten (Spear- man, Kendall) existiert. Dabei wird auf die Rangkorrelation zuru¨ckgegriffen, weil sie nur von der Copula abha¨ngt, wa¨hrend die Korrelation nach Pearson auch durch die Randverteilungen beeinflusst wird. Dieser Zusammenhang wurde in Abschnitt 3.5 fu¨r Gauß-, Clayton- und Gumbelcopula gezeigt und wird in Tabelle 3.2 genutzt, um aus der gescha¨tzten Korrelation der Daten einen Scha¨tzer fu¨r den Copulapara- meter abzuleiten. Copula Gaußcopula Claytoncopula Gumbelcopula Parameterscha¨tzer ρˆ = sin(piτˆ2 ) θˆ = 2τˆ1−τˆ θˆ = 11−τˆ Tabelle 3.2: Parameterscha¨tzer fu¨r verschiedene Copula, dargestellt als Funktion eines Abha¨ngigkeitsmaßes 19 4 Karten zur Prozessu¨berwachung 4.1 Qualita¨t und Statistik Der Erfolg eines produzierenden Unternehmens ha¨ngt unter anderem von dessen Fa¨higkeit ab, Kunden termingerecht, kostengu¨nstig und deren Qualita¨tserwartungen entsprechend beliefern zu ko¨nnen. Damit beeinflusst die Qualita¨tsstrategie eines Un- ternehmens dessen langfristige U¨berlebenschancen stark. Einen U¨berblick u¨ber die Anwendungsmo¨glichkeiten der Statistik in der Qualita¨tssicherung liefern Montgo- mery (2009) sowie Weihs und Jessenberger (1999). Die Qualita¨t eines Produktes ist die Gesamtheit von Eigenschaften und Merk- malen, die sich auf dessen Eignung zur Erfu¨llung festgelegter oder vorausgesetzter Erfordernisse beziehen. Montgomery (2009) definiert Qualita¨t auf zwei Arten, ein- mal durch ”Qualita¨t bedeutet Gebrauchstauglichkeit“ und zum anderen mit ”Qua- lita¨t ist umgekehrt proportional zur Variabilita¨t“. Die Statistik liefert wesentliche Werkzeuge, um Qualita¨tsvereinbarungen von Kunden und Lieferanten u¨bersichtlich zu machen. Statistische Methoden der Qualita¨tskontrolle dienen zur U¨berwachung und Verbesserung eines Prozesses, beispielsweise verschiedene Regelkarten, statis- tische Versuchsplanung, die Fehler-, Mo¨glichkeits- und Einflussanalyse (FMEA), Prozessfa¨higkeitsindizes oder die Methodensammlung ”Six-Sigma“. Mehr Informa- tionen zu den genannten Methoden bieten auch Yang und El-Haik (2003). Weihs und Jessenberger (1999) teilen den Qualita¨tssicherungsprozess in drei Bereiche ein: Schwachstellenanalyse, Optimierung und Stabilisierung. Die statistische Prozessu¨berwachung SPC (”Statistical Process Control“) soll Qualita¨tsdefizite bereits wa¨hrend der Produktion entdecken und ihnen durch steuernde Eingriffe entgegenwirken. Außerdem wird eine geringere Variabilita¨t der interessierenden Kennwerte angestrebt, so dass der Prozess stabiler la¨uft. 21 Die SPC ist dabei nicht geeignet, die Qualita¨t von Produkten zu erho¨hen. Entspre- chend der Definition von Weihs und Jessenberger (1999) wird sie in der Phase der ”Stabilisierung des Prozesses“ eingesetzt und dient lediglich dazu, ein festgelegtes Maß an Qualita¨t mo¨glichst einzuhalten. Eine u¨ber das beno¨tigte Maß hinausgehende Qualita¨t ha¨tte zusa¨tzliche Kosten zur Folge und wird daher nicht angestrebt. Als Pionierwerk der SPC gilt das Buch von Shewhart (1931). Deming (1975) u¨bertrug die Erkenntnisse und Werkzeuge der SPC auf andere Prozesse, etwa Ver- waltungs- oder Gescha¨ftsprozesse und erreichte auch dort Verbesserungen. Er nutzte die Methoden in den Vereinigten Staaten wa¨hrend des Zweiten Weltkrieges im Be- reich der Munitionsproduktion. Nach dem Krieg stellte er die Techniken der japani- schen Industrie vor, wo sie unter anderem innerhalb des Toyota-Produktionssystems weiterentwickelt wurden. Laut Shewhart (1931) ist jeder Produktionsprozess Sto¨rkomplexen ausgesetzt. Da- bei ist es egal, wie gut er durchgefu¨hrt wird: Auf jede Produktion wirken zufa¨llige und nicht zufa¨llige (”systematische“) Ursachen ein. Zufa¨llige Einwirkungen sind durch die Herstellung selbst bestimmt und in ihrer Wirkung nicht zu beseitigen. Ein Beispiel dafu¨r sind Vibrationen in den Maschinen. Dem gegenu¨ber sind syste- matische Ursachen lokalisierbar und beeinflussbar. Sie fu¨hren zu allma¨hlichen oder plo¨tzlichen Vera¨nderungen (beispielsweise Werkzeugverschleiß, Temperaturanstieg oder Ermu¨dung des Personals). Schwankungen der Merkmalsauspra¨gungen sind al- so unvermeidlich und sollten innerhalb eines Toleranzbereichs um den Sollwert zu- gelassen werden. Ein Prozess, der nur mit zufa¨lligen Schwankungen la¨uft, wird als statistisch unter Kontrolle und ein Prozess mit systematischen Abweichungen wird als statistisch außer Kontrolle bezeichnet. Mit Hilfe der SPC soll das Auftreten von systematischen Ursachen mo¨glichst schnell erkannt werden, so dass Nachforschungen unternommen und korrigieren- de Maßnahmen eingeleitet werden ko¨nnen. Die Qualita¨tsregelkarte (QRK) ist ein effektives Werkzeug zur Prozessu¨berwachung und wird im folgenden Abschnitt vorgestellt. 22 4.2 Qualita¨tsregelkarten Prozess- beziehungsweise Qualita¨tsregelkarten (QRK) wurden von Shewhart (1931) entwickelt und sind ein Fru¨hwarnsystem, um Fehler und Ausschuss zu ver- meiden. Kontrollkarten werden zur Auswertung von Pru¨fdaten eingesetzt. Beispiele fu¨r u¨berwachbare Merkmale sind La¨nge oder Durchmesser in Zentimeter, Gewicht in Gramm, Wartezeit in Minuten oder die Anzahl von Verkaufsgespra¨chen. Die Karten sind also nahezu universell einsetzbar, ”lohnen“ sich aber meist erst bei der An- wendung auf große Stu¨ckzahlen. Klassische Einsatzfelder liegen in der Industrie, im Bereich der (Intensiv-)Medizin oder auch im Verwaltungs- oder Dienstleistungssek- tor. QRK betrachten die Realisationen von Zufallsvariablen eines Prozesses. Fu¨r Pro- zesse unter statistischer Kontrolle ist die Verteilung der interessierenden Merkmale konstant und das Prozessverhalten ist prognostizierbar. Dies entspricht dem H0- Szenario. Bei einem Prozess außer Kontrolle kann sich beispielsweise der Erwar- tungswert oder Erwartungswertvektor der Zufallsvariablen verschieben oder die Va- riabilita¨t der Messwerte a¨ndern. Es kann auch passieren, dass die Beobachtungen im Außer-Kontrolle-Fall autokorreliert werden. Gera¨t der Prozess außer Kontrolle, sollte das natu¨rlich schnell entdeckt werden, um eingreifen und die Ursache beheben zu ko¨nnen. Dies geschieht mit Hilfe von QRK. Einige Karten beziehen dabei in ihre aktuellen Teststatistiken Messungen aus der Vergangenheit ein, um Trends im Prozessverhalten zu beru¨cksichtigen (siehe etwa Roberts (1959) oder Page (1954)). Im Folgenden werden aber nur Karten ”ohne Geda¨chtnis“ betrachtet. Meist werden zur Konstruktion einer Kontrollkarte unabha¨ngige metrische Qualita¨tsdaten vorausgesetzt. Der Produktion wird eine Stichprobe entnommen und das interessierende Merkmal (beziehungsweise die interessierenden Merkmale) als Realisierung einer (oder mehrerer) Zufallsvariablen betrachtet. Nach Mittag (1993) mu¨ssen dabei folgende Annahmen fu¨r den Prozess unter Kontrolle gelten: 1. Die sukzessiven Messwerte jeder gezogenen Einzelstichprobe sind unabha¨ngig identisch verteilt (uiv) mit endlicher Varianz. 23 2. Stichprobenvariablen von unterschiedlichen Zeitpunkten sind uiv. 3. Die genaue Verteilung oder wenigstens die Verteilungsfamilie der Stichproben- variablen ist bekannt. 4. Messfehler der Stichprobenvariablen sind vernachla¨ssigbar. Der dritte Punkt entfa¨llt, wenn statt eines verteilungsbasierten Tests eine nicht- parametrische Alternative verwendet wird. Die Messwerte des zu u¨berwachenden Qualita¨tsmerkmals werden entweder direkt als Einzelwerte weiterverwendet oder zu einer Funktion verdichtet. Diese Funktion ist im einfachsten Fall der Mittelwert, der Median oder die Varianz der Werte. Die daraus abgeleitete Teststatistik wird gegen die Zeit beziehungsweise die An- zahl entnommener Proben abgetragen. Untersucht wird dann mit Hilfe eines statis- tischen Signifikanztests: H0: Der Prozess ist unter Kontrolle gegen H1: Der Prozess ist außer Kontrolle Widersprechen die erhobenen Messwerte der Nullhypothese H0 nicht, ist keine Ak- tion vom Anwender no¨tig. Eine Testentscheidung zugunsten der Alternativhypothese H1 wird getroffen, wenn der Stichprobenbefund den unter H0 erwarteten Resulta- ten widerspricht. Die Teststatistik liegt dann außerhalb der Eingriffsgrenzen. Der Prozess ist damit als nicht mehr unter statistischer Kontrolle anzusehen und ein korrigierender Eingriff in den Fertigungsablauf ist no¨tig. Zusa¨tzlich gibt es noch die Mo¨glichkeit ”unter H0 unwahrscheinlichere“ Ereignis- se zu betrachten, welche aber H0 noch nicht widersprechen. In diesem Fall liegt der Stichprobenbefund zwischen den sogenannten Warn- und Eingriffsgrenzen und ein Verdacht auf Eintritt einer Sto¨rung liegt vor. Dieser Verdacht versetzt den Pru¨fer in ”Alarmbereitschaft“: Ha¨ufigere Probenentnahme und/oder eine Erho¨hung der Stich- probengro¨ße zur schnellen Entdeckung eventueller Fehler sind denkbare Reaktionen. Die Warn- und Kontrollgrenzen der QRK bestimmen sich durch die Grenzen des (1-α)-Konfidenzintervalls der Teststatistik unter H0. Abbildung 4.1 stellt diesen Zu- 24 sammenhang dar. U¨blich ist, als Warngrenze α = 0.10 (oder α = 0.05) und als Kontrollgrenze α = 0.05 (oder α = 0.01) zu setzen. Abbildung 4.1: Beispielhafte Kontrollkarte Multivariate Karten werden fu¨r mehrdimensionale Daten verwendet, deren Objekt- eigenschaften voneinander abha¨ngen, etwa Fu¨llgewicht und Volumen von Mehltu¨ten. Einen guten Einblick in die Arbeitsweise der verschiedenen multivariaten Karten bie- tet Ryan (2011). Das bekannteste Beispiel ist Hotellings T 2-Karte (Hotelling (1947)). Sie ist optimal geeignet zur U¨berwachung von Lage- und Streuungsa¨nderungen mul- tivariat normalverteilter Daten. Diese urspru¨ngliche T 2-Karte wurde zudem vielfach neuen Bedu¨rfnissen angepasst, so dass inzwischen verschiedene Varianten und Un- terformen existieren (siehe Oyeyemi (2011)). Bei den meisten multivariaten Karten handelt es sich um Kontrollkarten bezu¨glich der Prozesslage, nur wenige u¨berwachen die Streuung eines Prozesses. Beispiele dafu¨r sind die S2-Karte oder die Influenzfunktions-Varianz-Karte (siehe etwa Montgomery (2009), Aparasi et al. (1999) oder Jaupi (2002)). Die meisten statistischen Tests ko¨nnen als Kontrollkarten aufbereitet werden. Daher sind die Anwendungsfelder der Copulamodelle aus Abschnitt 3 prinzipiell auf Kontrollkarten u¨bertragbar. Anstelle der gemeinsamen Modellierung von Pe- gelsta¨nden durch eine Copulafunktion ko¨nnte beispielsweise die Frage betrachtet 25 werden, ab welcher Ho¨he der Pegelsta¨nde von ”Flutgefahr“ gesprochen werden muss. Da Copulas Zusammenha¨nge modellieren, sind hier allerdings nur multivariate Qua- lita¨tsregelkarten sinnvoll. 4.3 Die mittlere Laufla¨nge ARL Die Laufla¨nge RL (”Run Length“) ist die Zeitspanne bis zu einem Eingriff in den Prozess. Die RL ist eine Zufallsvariable mit Erwartungswert, Varianz und einer Ver- teilung. Sie existiert fu¨r jede Qualita¨tsregelkarte. Der Erwartungswert der Laufla¨nge ist die mittlere Laufla¨nge ARL (”Average RL“), also die mittlere Zeitspanne bis zum Eingreifen in den Prozess. Sie ist darstellbar als ARL(η) := E(RL(η) | Verteilungsannahme unter H0) = P(T liegt außerhalb der Kontrollgrenzen | η)−1. Dabei kann η beliebige Werte aus dem Wertebereich des interessierenden Prozesspa- rameters annehmen (vergleiche Weihs und Jessenberger (1999)). Die Wahrscheinlich- keit eines Ereignisses ist durch P(.) gegeben, T steht fu¨r die gewa¨hlte Teststatistik. Die Kontrollgrenzen ergeben sich aus der Verteilungsannahme unter H0. Ist der Prozess unter Kontrolle (η entspricht dem Sollwert η0), ha¨ngt die ARL direkt von α ab. Hier gilt ARL(η0) = 1/α. Mit zunehmender Abweichung der Stichprobe von der Sollverteilung nimmt die ARL ab. Dieser Erwartungswert kann nicht direkt berechnet werden, das Verhalten der ARL-Funktion wird daher durch Simulationen ermittelt. Neben der ARL ist auch die Standardabweichung der Laufla¨ngen interessant, die ebenfalls mittels Simulation u¨ber eine große Anzahl von Stichproben approximiert werden muss. Allgemein gilt fu¨r die Standardabweichung der RL (SDRL): SDRL(η) := √ Var(RL(η) | Verteilungsannahme unter H0). 26 4.4 OC-Funktion Durch die Wahl des α wird die Wahrscheinlichkeit fu¨r einen Fehler erster Art eines Tests bestimmt. Der Fehler zweiter Art (auch β-Fehler, das heißt der Prozess wird irrtu¨mlich als unter Kontrolle angesehen) wird durch die Operationscharakteris- tik, die sogenannte OC-Funktion, ausgedru¨ckt. Unter Beibehaltung der Notation aus Abschnitt 4.3 gilt: OC(η) := P(T liegt innerhalb der Kontrollgrenzen | η) OC(η) gibt demzufolge die Wahrscheinlichkeit an, dass der Prozess als unter Kon- trolle gilt, wenn der interessierende Prozessparameter den Wert η annimmt. Unter Idealbedingungen ha¨tte die OC-Funktion an der Stelle des Sollwertes η0 den Wert 1 und sonst den Wert 0. In der Realita¨t ist die OC-Funktion meist glockenfo¨rmig. Dabei gilt: Je na¨her die Funktion dem Ideal kommt, umso besser ist die Gu¨te der zugeho¨rigen Kontrollkarte oder je gro¨ßer ihr Wert abseits des Sollwertes ist, umso ineffizienter ist die Kontrollkarte. Fu¨r unabha¨ngige Beobachtungen gilt bei Kontrollkarten ohne Geda¨chtnis OC(η) = 1− 1ARL(η) . (4.1) 4.5 Hotellings T 2-Karte Die Hotelling T 2-Karte ist eine Karte fu¨r multivariat normalverteilte Einzelbeobach- tungen, um den Prozess auf Abweichungen von den Sollwerten fu¨r das Prozessmittel sowie die Prozessstreuung (durch Betrachtung der Kovarianzmatrix) zu u¨berwachen, siehe Hotelling (1947). Dabei ist sie unter den geforderten Voraussetzungen die opti- male Kontrollkarte; hier sinkt die ARL im Außer-Kontrolle-Fall also am schnellsten, wa¨hrend das Niveau im In-Kontrolle-Fall eingehalten wird. Im Außer-Kontrolle-Fall muss anschließend noch das alarmauslo¨sende Merkmal gefunden werden. Dies kann beispielsweise durch gleichzeitige, separate Verwendung univariater Kontrollkarten geschehen. Es gibt verschiedene Versionen der Karte, die vorgestellte nutzt Scha¨tzwerte fu¨r das Prozessmittel und die Prozessvarianz. Zuna¨chst wird eine Zufallsstichprobe des Umfangs m des Prozesses unter statis- 27 tischer Kontrolle gezogen. Die Beobachtungen Y1, . . . , Ym ∈ ❘p seien unabha¨ngig identisch ◆(µ,Σ)-verteilt. Sie werden zur Berechnung des Mittelwertvektors (Y m) und der Stichprobenkovarianzmatrix (Sm) genutzt. Die Teststatistik T 2 basiert auf der Mahalanobisdistanz. Fu¨r jede neue unab- ha¨ngige Beobachtung X ∈ ❘p gilt T 2(X) := (X − Y m)TS−1m (X − Y m). (4.2) Unter der Nullhypothese ist die Teststatistik T 2 nach entsprechender Gewichtung ❋p,m−p-verteilt. Die F-Verteilung ergibt sich aus der Tatsache, dass X ∼ ◆(µ,Σ) und Y m ∼ ◆(µ,m−1Σ) sowie mSm ∼ ❲(Σ,m− 1), wobei ❲ fu¨r die Wishart-Verteilung steht, also die multivariate Form der χ2-Vertei- lung. Die Differenz von X und Y m ist normalverteilt mit dem Mittelwert null und der Kovarianzmatrix m+1m Σ. Da X und Y m jeweils unabha¨ngig von Sm sind, ist auch ihre Differenz (X − Y m) unabha¨ngig von Sm. Damit gilt (siehe etwa Mardia et al. (1995)), dass m(X − Y m)T (m+ 1 m mSm )−1 (X − Y m) ∼ ❚2p,m−1 wobei ❚2p,m−1 fu¨r Hotellings T-Quadrat-Verteilung mit p und m− 1 Freiheitsgraden steht. Zwischen ihr und der F-Verteilung gilt der Zusammenhang ❚ 2 k,n = nk n− k + 1 ❋k,n−k−1 fu¨r beliebige k < n ∈ ❘. Damit ist m(X − Y m)T (m+ 1 m mSm )−1 (X − Y m) ∼ (m− 1)p m− p ❋p,m−p und schließlich (X − Y m)TS−1m (X − Y m) ∼ (m+ 1)(m− 1)p m(m− p) ❋p,m−p. Die obere Kontrollgrenze UCLα zum Niveau α ist dann das entsprechende (1− α)- 28 Quantil der hergeleiteten F-Verteilung, also UCLα := p(m+ 1)(m− 1) m2 −mp ❋1−α,p,m−p. Simulationen zur Laufla¨nge zeigen, wie sich A¨nderungen der Prozessverteilung unter H0 auf die Karte auswirken. In Kapitel 6.3 wird so bespielsweise untersucht, wie die T 2-Karte sich fu¨r Werte verha¨lt, deren Verteilung durch verschiedene Copulastruk- turen erkla¨rbar ist. 4.6 Steigers Z-Test Einen Ansatz, A¨nderungen in der Abha¨ngigkeitsstruktur von Daten zu testen, erla¨u- tert Steiger (1980). Steigers Z-Test nutzt den Korrelationskoeffizienten nach Pearson ρ (Formel 2.2). Die Fishertransformation f(·) korrigiert die Tatsache, dass fu¨r bivariat normalverteilte Daten der aus n Datenpunkten resultierende Korrelations- koeffizient ρ unimodal rechtssteil verteilt ist. Die (fischer-)transformierte Variable f(ρ) = 0.5 ln (1 + ρ 1− ρ ) ist dann anna¨hernd normalverteilt. Daher setzt der Z-Test na¨herungsweise bivariat normalverteilte Daten voraus und testet im zweiseitigen Fall: H0 : ρ = ρ0 vs. H1 : ρ 6= ρ0 Die Teststatistik ist gegeben durch T (r) = f(r)− f(ρ0)− ρ0/(n− 2) 1/ √ n− 3 , sie ist unter H0 anna¨hernd ◆(0, 1)-verteilt. Eine Qualita¨tsregelkarte, welche auf diesem Test basiert, verwendet also den zu T (r) modifizierten empirischen Korrelationskoeffizienten der Stichprobe und ver- gleicht diesen mit dem entsprechenden oberen und unteren Quantil der Standard- normalverteilung. 29 5 Variante I: U¨berwachung von Prozesslage und -streuung Yan (2007) erla¨utert, dass Copulastrukturen neben den typischen Anwendungsfel- dern in der Finanzwelt auch zur Beschreibung von Produktionsprozessen denkbar sind. Darauf bezugnehmend werden in diesem Abschnitt Karten zur Lage- und Streu- ungsu¨berwachung konstruiert. Die interessierenden Prozessdaten sollen dazu in ih- rer gemeinsamen Verteilung einer gegebenen bivariaten Copula mit normalverteilten Ra¨ndern folgen. Im Abschnitt 5.1 werden die Kontrollkarten beschrieben. Ihr Gu¨teverhalten fu¨r verschiedene Prozessszenarien wird durch Simulationsstudien in Kapitel 5.2 unter- sucht. Dabei zeigt sich, dass die adjustierten T 2-Karten Abweichungen im Prozess- mittel fu¨r alle untersuchten Copulas gut erkennen. Die E2-Karte basiert auf einem alternativen Distanzmaß. Sie u¨bertrifft die adjustierten T 2-Karten in einigen Fa¨llen der Prozessverschiebung. Schließlich werden die entwickelten Karten in den Kapiteln 5.3.1 und 5.3.2 auf praktische Beispiele angewendet. In Abschnitt 5.4 wird abschließend untersucht, inwiefern die klassische T 2-Karte Abweichungen in der Streuung einzelner Ra¨nder aufdeckt, wenn Copulastrukturen fu¨r die Daten verwendet werden. 5.1 Verwendete Kontrollkarten Traditionell wird zur Lageu¨berwachung korrelierter Daten Hotellings T 2-Karte ge- nutzt. Fu¨r verschiedene Copulatypen aus Kapitel 3, Tabelle 3.1, werden im Folgen- den Kontrollkarten konstruiert. Die vorgestellten Karten basieren auf verschiedenen Distanzmessungen einer Beobachtung zum erwarteten beziehungsweise gescha¨tzten Mittel der Grundgesamtheit, siehe auch Abschnitt 2.3. 31 5.1.1 Adjustierte T 2-Karte Sind die betrachteten Daten unter H0 nicht multivariat normalverteilt, verliert die Qualita¨tsregelkarte nach Hotelling aus Kapitel 4.5 ihre Optimalita¨tseigenschaften, etwa die Einhaltung des Niveaus sowie das schnelle Absinken der ARL unter H1. Verglichen mit Konkurrenzkarten sinkt die ARL also unter Umsta¨nden nicht mehr am schnellsten. Auch das Maximum der ARL muss nicht mehr bei η0 erreicht wer- den. Die Verteilung der T 2-Statistik a¨ndert sich in diesem Fall und damit auch die Kontrollgrenzen. Verteilungsaussagen sind fu¨r nicht multivariat normalverteilte Da- ten schwierig, siehe Abschnitt 4.5. Daher werden hier adjustierte, also angepasste, Karten auf Basis der T 2-Statistik erzeugt. Um mo¨glichst viele Datenstrukturen abbilden zu ko¨nnen, werden die Frank-, Clayton- und Gumbelcopula verwendet, siehe auch Abbildung 3.1. Die Gaußcopula (also die multivariate Normalverteilung) als vierte Mo¨glichkeit erfordert keine Ad- justierung der traditionellen T 2-Karte nach Hotelling. Die Kontroll- und Warngren- zen der klassischen T 2-Karte ha¨ngen von der Anzahl betrachteter Merkmale p und der Gro¨ße der Lernstichprobe m ab. Die Grenzen der adjustierten Karten variieren außerdem mit unterschiedlichem Maß der Abha¨ngigkeit zwischen den betrachteten Variablen. Die ”neuen“ Kontrollgrenzen werden mit Hilfe einer Trainingsstichprobe aus einem Prozess unter Kontrolle gescha¨tzt, dabei werden per Monte-Carlo-Simulation Stich- proben erzeugt und daraus die beno¨tigten Kennzahlen berechnet. Mit wachsender Stichprobengro¨ße wird die Verteilung der Teststatistik immer besser angena¨hert und die empirischen Quantile sind gute Scha¨tzer der theoretischen Quantile. Abbildung B.1 im Anhang zeigt das Flussdiagramm der Grenzwertsimulation. Die Simulation zur Bestimmung der Grenzwerte verla¨uft folgendermaßen: 1. Kendalls τ auswa¨hlen, Copulafamilie festlegen mit standardnormalverteilten Ra¨ndern (Zi ∼ ◆(0, 1), i = 1, 2) und den Parameter θ entsprechend τ wa¨hlen. Damit gilt H0 : H(Z1, Z2) = C(F (Z1), F (Z2), θ) 2. m bivariate Zufallvektoren (Y1, ..., Ym) aus H(Z1, Z2) generieren und daraus Sm und Y m berechnen 32 3. Weitere B Zufallsvektoren Xi , i = 1, ..., B aus H(Z1, Z2) erzeugen 4. Berechnung von T 2(Xi) := (Xi − Y m)TS−1m (Xi − Y m) Schritt 2. bis 4. wird K-mal wiederholt. Die entsprechenden Quantile der B · K simulierten T 2-Werte sind die ermittelten (empirischen) Kontrollgrenzen. Einige Beispielergebnisse fu¨r verschiedene Verteilungen unter H0 und Niveaus α zeigt Tabelle 5.1 in Abschnitt 5.2. 5.1.2 Alternative: Euklidische E2-Karte Die T 2-Statistik repra¨sentiert den normierten Abstand von X zum Mittelwertvektor einer elliptischen Datenverteilung. Dazu wird die Mahalanobisdistanz verwendet. Die genannten Copulas modellieren aber nichtelliptische Datenstrukturen. Daher wird ein alternatives Distanzmaß zur Konstruktion einer Prozessregelkarte verwen- det. Als Teststatistik bietet sich die Euklidische Distanz der (einzeln) normierten Ursprungsdaten an. Dieses Maß setzt unter H0 keine elliptisch um den Sollwert ver- teilten Daten voraus, so dass es fu¨r die unter H0 achsensymmetrisch angeordneten Punkte gute Resultate liefert. Analog zu Hotellings T 2-Karte wird zuna¨chst eine Zufallstichprobe vom Umfang m Y1, . . . , Ym ∈ ❘p gezogen und daraus der p-dimensionale Mittelwertvektor Y¯m bestimmt. Zusa¨tzlich wird der Vektor der fu¨r jedes Merkmal separat berechneten Standardabweichungen s∗m = (s∗m,1, . . . , s∗m,p)T nach Formel (2.1) bestimmt. Fu¨r eine neue unabha¨ngige Beobachtung X ∈ ❘p gilt dann: E2 := ( diag(s−1m,1, . . . , s−1m,p)(X − Y m) )T ( diag(s−1m,1, . . . , s−1m,p)(X − Y m) ) (5.1) Dabei steht diag fu¨r die Diagonalmatrix. Unterstellt man den Daten unter H0 Normalverteilung (wie beispielsweise bei Hotellings T 2-Karte in Abschnitt 4.5), ist die Verteilungsfunktion der Teststatistik E2 nicht geschlossen darstellbar. Es gilt zuna¨chst analog zur T 2-Statistik, dass X ∼ ◆(µ,Σ) und Y m ∼ ◆(µ,m−1Σ), beziehungsweise je Vektoreintrag Xi ∼ ◆(µi, σ2i ) und Y m,i ∼ ◆(µi,m−1σ2i ). 33 Außerdem ist s∗m,i ∼ σ2i m− 1χ 2 m−1 und (Xi − Y m,i) ∼ ◆(0, ( m+ 1 m )σ 2 i ). Weiter sind s∗m,i und (Xi − Y m,i) unabha¨ngig. Demzufolge ist Xi − Y m,i s∗m,i ∼ √ m+ 1 m !m−1 fu¨r alle i = 1, . . . , p. Das Quadrat einer !m−1-verteilten Zufallsvariable ist ❋1,m−1-verteilt. Es gilt daher komponentenweise fu¨r i = 1, . . . , p: ( s∗m,i−1(Xi − Y m,i) )( s∗m,i−1(Xi − Y m,i) ) ∼ m+ 1m ❋1,m−1 Die Summe der p Werte (also die Teststatistik E2) ist eine Faltungspotenz dieser F-Verteilung und damit nicht durch Standardverteilungen darstellbar. Die Grenz- werte fu¨r alle betrachteten Copulastrukturen werden simuliert. Wie bei den ad- justierten T 2-Karten ha¨ngen die Kontrollgrenzen von p, m, der zugrundeliegenden Datenstruktur und dem Abha¨ngigkeitsmaß der Variablen ab. Die Simulation der Grenzwerte erfolgt analog zu Abschnitt 5.1.1. Die gesuchten Grenzen fu¨r verschie- dene Copulas und α zeigt Tabelle 5.2 in Abschnitt 5.2. 5.2 Effizienz der Kontrollkarten Der Vergleich der Gu¨teeigenschaften der Kontrollkarten aus Kapitel 4.6 und 5.1.1 erfolgt durch eine Simulationsstudie. Dazu muss der betrachtete Prozess einige An- forderungen erfu¨llen. Die Anzahl beobachteter Merkmale wird auf p = 2 beschra¨nkt, die Stichprobengro¨ße zur Parameterscha¨tzung sei n = 30 und die einzelnen Merk- male seien univariat normalverteilt, also X = (X1, X2)T sowie Y = (Y1, Y2)T mit Xj , Yj ∼ ◆(µj , σj) fu¨r j = 1, 2. 5.2.1 Bestimmung der Kontrollgrenzen Die Simulationsergebnisse gelten fu¨r beliebige normalverteilte Ra¨nder, also fu¨r alle Werte von µj und σj , weil die gewa¨hlten Methoden skaleninvariant sind. Prozessab- weichungen werden daher nur fu¨r den Bereich von µ1 = −3 bis µ1 = +3 betrachtet. 34 Zuna¨chst werden Kontrollgrenzen nach der Routine aus Abschnitt 5.1.1 simuliert mit B = 100 und K = 200.000. Verschiedene Grade der Abha¨ngigkeit werden durch unterschiedliche τ nach Kendall beschrieben. Fu¨r die adjustierten Karten (T 2adj) sind die Werte der oberen Kontrollgrenzen in Tabelle 5.1 aufgelistet und fu¨r die Euklidische Kontrollkarte (E2) in Tabelle 5.2. Niveau α = 10% 5% 1% 0.27% T 2(N) 5.357 7.150 11.671 15.753 T 2adj (F, τ = 0.2) 5.381 7.223 11.981 16.388 T 2adj (F, τ = 0.4) 5.455 7.449 12.900 18.321 T 2adj (F, τ = 0.6) 5.637 7.970 14.873 22.175 T 2adj (F, τ = 0.8) 5.948 9.178 20.682 34.471 T 2adj (C, τ = 0.2) 5.381 7.260 12.181 16.818 T 2adj (C, τ = 0.4) 5.422 7.457 13.072 18.578 T 2adj (C, τ = 0.6) 5.582 8.069 15.776 24.162 T 2adj (C, τ = 0.8) 5.849 9.376 23.510 41.485 T 2adj (G, τ = 0.2) 5.405 7.305 12.244 16.873 T 2adj (G, τ = 0.4) 5.435 7.408 12.682 17.778 T 2adj (G, τ = 0.6) 5.474 7.584 13.595 19.853 T 2adj (G, τ = 0.8) 5.516 7.841 15.072 23.378 Tabelle 5.1: Simulierte Kontrollgrenzen der klassischen und adjustierten T 2-Karten fu¨r verschiedene zugrundeliegende Copulastrukturen (N=Normal, F=Frank, C=Clayton, G=Gumbel) und verschiedene Kendalls τ Die erste Zeile in Tabelle 5.1 zeigt die Grenzwerte der traditionellen T 2-Karte, die anschließenden Zeilen enthalten die Resultate fu¨r verschiedene Copulas. Betrach- tet werden verschiedene Wahrscheinlichkeiten fu¨r den Fehler erster Art. Das α von 0.0027 entspricht dem gebra¨uchlichen 3σ-Kontrollniveau bei einer T 2-Karte. Fu¨r τ = 0 sind die Grenzen der T 2-Karte und der Copula-basierten Karten gleich. Die Grenzwerte der adjustierten Karten wachsen mit ansteigendem τ und offensicht- lich mit sinkendem α. Die simulierten Grenzwerte weichen demzufolge umso weiter von den Werten der klassischen T 2-Karte ab, je sta¨rker die Abha¨ngigkeit der beiden Randverteilungen wird. Tabelle 5.2 zeigt die UCL-Werte der E2-Statistik fu¨r unabha¨ngige Variablen, diese Werte sind fu¨r alle Copulas identisch. Anschließend sind die Grenzen fu¨r verschie- dene Copulas gegeben. Wie bei Tabelle 5.1 steigen auch hier die UCL-Werte mit wachsendem τ und sinkendem α. 35 Niveau α = 10% 5% 1% 0.27% E2 (τ = 0) 2.268 2.612 3.311 3.822 E2 (N, τ = 0.2) 2.271 2.624 3.349 3.882 E2 (N, τ = 0.4) 2.288 2.667 3.456 4.036 E2 (N, τ = 0.6) 2.320 2.738 3.605 4.240 E2 (N, τ = 0.8) 2.375 2.835 3.781 4.472 E2 (F, τ = 0.2) 2.282 2.633 3.343 3.863 E2 (F, τ = 0.4) 2.322 2.692 3.427 3.956 E2 (F, τ = 0.6) 2.385 2.781 3.551 4.097 E2 (F, τ = 0.8) 2.449 2.886 3.711 4.290 E2 (C, τ = 0.2) 2.276 2.654 3.465 4.098 E2 (C, τ = 0.4) 2.312 2.727 3.613 4.290 E2 (C, τ = 0.6) 2.367 2.796 3.694 4.375 E2 (C, τ = 0.8) 2.424 2.870 3.778 4.460 E2 (G, τ = 0.2) 2.281 2.660 3.470 4.093 E2 (G, τ = 0.4) 2.318 2.742 3.638 4.310 E2 (G, τ = 0.6) 2.376 2.836 3.783 4.482 E2 (G, τ = 0.8) 2.424 2.910 3.905 4.634 Tabelle 5.2: Simulierte Grenzwerte der E2-Karte fu¨r verschiedene Copulas (N=Normal, F=Frank, C=Clayton, G=Gumbel) und Kendalls τ 5.2.2 Verhalten der Laufla¨nge bei Lageverschiebung Die Gu¨te der erzeugten Karten wird mit Hilfe simulierter ARL und SDRL (siehe Abschnitt 4.3) fu¨r die Grenzwerte der Tabellen 5.1 und 5.2 verglichen. Um Verschiebungen bezu¨glich der Mittelwerte aufzudecken, werden zwei verschie- dene Szenarien betrachtet. Bei Szenario (I) wird der Lageparameter µ1 (nur) einer Randverteilung verschoben. Beru¨cksichtigt man die Abha¨ngigkeit der beiden Ra¨nder, ist auch eine A¨nderung von µ2 sinnvoll. Diese kann direkt aus der Verschiebung von µ1 abgeleitet werden. Perfekt positiv linear abha¨ngige Daten liegen auf einer Geraden mit der Steigung ρ = 1. Damit gilt auch µ∗2 = µ∗1. Allgemein streuen abha¨ngige Daten um eine Gerade mit der Steigung ρ. Fu¨r eine realita¨tsnahe Verschiebung des Datenschwerpunktes sollte der Punkt (µ1, µ2) also entlang dieser Geraden verschoben werden. Genutzt wird dazu der in Tabelle 3.2 dargestellte Zusammenhang von ρ und τ . Danach ist µ∗2 = ρ · µ∗1 = sin(pi2 τ) · µ∗1. Abbildung 5.1 zeigt beide Varianten, den Mittelwert zu verschieben. Dabei ist µ1 beide Male gleich weit vom Sollwert entfernt. 36 Abbildung 5.1: Veranschaulichung von Szenario (I) und (II) im Vergleich zur In-Kontrolle- Lage des Prozesses Beide Untersuchungen verlaufen wie im Flussdiagramm aus Abbildung 5.2 beschrie- ben: Zuna¨chst wird ein N-dimensionaler Nullenvektor K erzeugt, der im Folgenden mit simulierten Laufla¨ngen gefu¨llt wird. Anschließend wird die Copula festgelegt: Der Copulaparameter θ entspricht einem festen Kendalls τ , die Ra¨nder sind stan- dardnormalverteilt (Xi ∼ ◆(µi = 0, 1), i = 1, 2), es gilt: H0 : H(X1, X2) = C(F (X1), F (X2), θ) Zur Simulation der ARL und SDRL wird die Prozesslage ”ku¨nstlich“ verschoben, entweder durch (I) A¨nderung von µ1 zu µ∗1 in der ersten Randverteilung oder durch (II) Wie (I), gleichzeitige A¨nderung von µ2 auf µ∗2 = sin(pi2 τ) ·µ∗1 im zweiten Rand. Die so konstruierte Verteilung wird mit H∗(X1, X2) gekennzeichnet. Fu¨r die neuen Verteilungen werden N Laufla¨ngen simuliert. Die Za¨hlvariable j = 1, . . . , N gibt an, die wievielte RL gerade betrachtet wird. Fu¨r jede Laufla¨nge wird folgende Schleife durchlaufen: 37 Abbildung 5.2: Flussdiagramm: Simulationsstudie zur Lageverschiebung des Prozesses 38 Erst werden m Zufallvektoren (Y1, ..., Ym) aus der Verteilung des kontrolliert lau- fenden Prozesses H(X1, X2) generiert und daraus Sm beziehungsweise s∗m und Y m berechnet. Diese Scha¨tzer werden zur Berechnung der Teststatistik beno¨tigt und bis zum Abbruch der aktuellen j−ten Laufla¨ngensimulation beibehalten. In einer zweiten Schleife werden solange Zufallsvektoren (Messwerte) aus der Ver- teilung H∗(X1, X2) erzeugt, bis die daraus abgeleitete Teststatistik gro¨ßer als die zugeho¨rige Kontrollgrenze wird. Als Teststatistik kann entweder T 2(Xi) nach For- mel (4.2) verwendet werden oder E2(Xi) laut Formel (5.1). Fu¨r jeden generierten Messwert wird der Eintrag von Kj um eins erho¨ht. Nach dem Abbruch der Schleife entspricht Kj der j-ten simulierten Laufla¨nge des Prozesses. Wurden alle j betrachtet, also N Laufla¨ngen simuliert, wird der Laufla¨ngenvektor K ausgegeben und die Simulation beendet. Die ARL entspricht dann K und die SDRL ist √ Var(K1, . . . ,KN ). In der folgen- den Simulationsstudie erfolgen die A¨nderungen nach Szenario (I) und (II) schritt- weise in 0.1-Intervallen von µ1. Die Abbildungen 5.3 und 5.4 zeigen die Ergebnisse der Simulationsstudie in Form von ARL- und die SDRL-Kurven fu¨r die Karten aus Abschnitt 5.1 (α =0.05, m=30, B=100, N=100.000). Grafik 5.3 visualisiert dabei die Ergebnisse fu¨r die erste be- schriebene Mo¨glichkeit, wie ein Prozess außer Kontrolle geraten kann (Szenario I), Abbildung 5.4 zeigt die Kurven fu¨r das zweite beschriebene Szenario. Die ARL wird (bei beiden Szenarien) durch die zugrundeliegende Datenbasis be- einflusst. Die ARL von Hotellings T 2-Karte ist bei der Anwendung bivariat normal- verteilter Daten unabha¨ngig vom gewa¨hlten τ (jeweils oberes linkes Bild). Das ist durch die Konstruktion der T 2-Statistik begru¨ndet. Weiterhin gilt, dass die Ergeb- nisse fu¨r τ = 0 fu¨r alle Karten gleich ausfallen, da hier Unabha¨ngigkeit zwischen den Variablen vorliegt. Fu¨r beide Karten und Szenarien gilt, dass die ARL umso schneller abfa¨llt, je gro¨ßer die Abha¨ngigkeit zwischen den Ra¨ndern wird, bei den Abbildungen wurde 39 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 5 10 15 20 T2 Abweichung von µ1 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L Normal Frank Clayton Gumbel 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 5 10 20 T2 Abweichung von µ1 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL Normal Frank Clayton Gumbel 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 5 10 15 20 T²adj Abweichung von µ1 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L Normal Frank Clayton Gumbel 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 5 10 20 T²adj Abweichung von µ1 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL Normal Frank Clayton Gumbel 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 5 10 15 20 E2 Abweichung von µ1 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L Normal Frank Clayton Gumbel 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 5 10 20 E2 Abweichung von µ1 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL Normal Frank Clayton Gumbel Abbildung 5.3: ARL und SDRL fu¨r verschiedende Kontrollkarten (klassische und adjustierte Hotellings T 2-Karten (T 2 und T 2adj) sowie die Euklidische Karte (E2)); τ = 0.6, Szenario (I) 40 −3 −2 −1 0 1 2 3 0 5 10 15 20 T2 Abweichung von µ1 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L Normal Frank Clayton Gumbel −3 −2 −1 0 1 2 3 0 5 10 20 T2 Abweichung von µ1 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL Normal Frank Clayton Gumbel −3 −2 −1 0 1 2 3 0 5 10 15 20 T²adj Abweichung von µ1 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L Normal Frank Clayton Gumbel −3 −2 −1 0 1 2 3 0 5 10 20 T²adj Abweichung von µ1 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL Normal Frank Clayton Gumbel −3 −2 −1 0 1 2 3 0 5 10 15 20 E2 Abweichung von µ1 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L Normal Frank Clayton Gumbel −3 −2 −1 0 1 2 3 0 5 10 20 E2 Abweichung von µ1 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL Normal Frank Clayton Gumbel Abbildung 5.4: ARL und SDRL fu¨r verschiedende Kontrollkarten, τ = 0.6, Szenario (II) 41 daher eine mittlere Abha¨ngigkeit zwischen den Daten gewa¨hlt (τ = 0.6). Fu¨r die klassische T 2-Karte sind die Verla¨ufe der ARL nicht zufriedenstellend: Im In-Kontrolle-Fall erreicht die ARL fu¨r α = 0.05 nur fu¨r normalverteilte Daten den theoretisch erwarteten Wert 20 und liegt sonst darunter. In der Praxis ga¨be es also zu viele Ablehnungen der Karte und damit Prozessunterbrechungen. Diesen Nachteil zeigen die adjustierte T 2-Karte und die E2-Karte nicht. Fu¨r die Clayton- und Gumbelcopula zeigt die ARL der (adjustierten) T 2-Karte mit sta¨rker werdender Abha¨ngigkeit außerdem eine wachsende Abweichung von der Symmetrie um den Sollwert, wie sie bei unabha¨ngigen oder punktsymmetrisch an- geordneten Daten auftritt. Das ARL-Verhalten der E2-Statistik ist dagegen symme- trisch um den Sollwert. Fu¨r die T 2adj-Karte fa¨llt die ARL fu¨r Abweichung vom Mittelwert in Szenario (I) schneller ab als bei der E2-Karte. Das ist damit zu erkla¨ren, dass die T 2-Statistik Absta¨nde zum gemeinsamen Schwerpunkt der Verteilung unter Beru¨cksichtigung der gemeinsamen Kovarianzstruktur misst. Bei der E2-Karte werden dagegen beide Merkmale unabha¨ngig voneinander standardisiert und anschließend die Summe der einzelnen Absta¨nde betrachtet. Die ”Ha¨lfte der Abstandswerte“ (also die eines der Merkmale) entspricht bei Szenario (I) den Anforderungen unter H0. Daher sinkt hier die ARL nicht so schnell wie bei der T 2-Statistik. Fu¨r Szenario (I) ist also die adjustierte Hotellings T 2-Karte geeignet. Bei Szenario (II) sinkt die ARL fu¨r die T 2adj-Karte langsamer als fu¨r die E2- Karte. Hier erkennt die E2-Statistik die Abweichungen beider Mittelwerte separat und u¨bertrifft damit die T 2-Statistik. Daher ist die E2-Karte hier zu bevorzugen. Das Verhalten der Standardabweichung der ARL a¨hnelt dem der ARL, die SDRL liefert also keinen Grund, die oben empfohlene Kartenwahl zu revidieren. 5.3 Anwendungen 5.3.1 Beispiel I: Ultraschall-Durchflussmesser Eine mo¨gliche Anwendung der Karten stammt aus dem Bereich der Messtechnik. Ultraschall-Durchflussmesser erfassen die Geschwindigkeit von Flu¨ssigkeiten, Ga- 42 sen oder Da¨mpfen mit Hilfe akustischer Wellen. Die Messmethode ist gro¨ßtenteils unabha¨ngig von den Eigenschaften der verwendeten Durchflussmedien (elektrische Leitfa¨higkeit, Dichte, Temperatur und Viskosita¨t). Sie deckt einen großen Bereich ab und ist einfach zu warten. Dadurch ist sie in der Praxis beliebt. Die Deutsche Indus- trienorm 1319-1 (1995) beinhaltet Anforderungen an Ultraschall-Durchflussmesser; weiterfu¨hrende Informationen bietet Hofmann (2000). Der Bereich Petrochemie, also die Herstellung chemischer Produkte aus Erdgas und geeigneten Teilen des Erdo¨ls, stellt mit Temperaturen bis u¨ber 500◦C oder Dru¨cken bis 1500 bar hohe Anforderungen an die Messgera¨te. Im Folgenden wird der Durchfluss von Benzol betrachtet. Diese flu¨ssige Kohlenwasserstoffverbindung ist die Grundlage einiger Industriechemikalien (etwa Ethylbenzol). Im Bereich der Hydrologie gibt es Copulamodelle von Flu¨ssigkeiten. Salvadori und De Michele (2007) erla¨utert beispielsweise, wie Pegelsta¨nde eines Flusses an verschiedenen Erfassungspunkten zusammenha¨ngen. Diese Idee wird analog auf das vorliegende Problem u¨bertragen. Fu¨r eichpflichtige Bereiche in der Produktion ist es inzwischen Standard, dass der Massestrom durch mehrere Sensoren erhoben wird. Diese sogenannte Redundanz sichert zuverla¨ssige Ergebnisse auch nach Ausfall eines Messkanals und in extremer Umgebung. Unter H0 ist ein konstanter Massestrom des Benzols gewu¨nscht. Betrachtet werden im Folgenden die Zufallsvariablen X1 : Messwert des ersten Durchflussmessers und X2 : Messwert des zweiten Durchflussmessers. X1 und X2 sind einzeln durch Normalverteilungen modellierbar. Erwartungswert ist der Sollwert des Benzolstroms. Die Variation der Ergebnisse zwischen den Gera¨ten ist bei gro¨ßeren Messwerten tendenziell ho¨her als bei kleineren. Die Messunsicherheit nimmt mit wachsenden Merkmalswerten zu. Die gemeinsame Verteilung von X1 und X2 wird daher durch eine Claytoncopula mit hohem Abha¨ngigkeitsgrad (τ = 0.8) und normalverteilten Ra¨ndern modelliert. Der τ -Wert muss in der praktischen Anwendung auf die jeweils verwendeten Gera¨te abgestimmt werden. 43 Nachfolgend werden 200 simulierte Messwerte (x1, x2) des statistisch kontrollier- ten Prozesses genutzt. Ihnen werden mit Hilfe einer CML-Scha¨tzung (siehe Abschnitt 3.6) Copulas angepasst. Der Maximum-Likelihood-Wert der Claytoncopula liegt mit 306.06 fu¨r θ = 8.269 etwas u¨ber dem fu¨r die Normalcopula (297.88 fu¨r ρ = 0.98), so dass die Claytoncopula verwendet wird. Abbildung 5.5 zeigt die normierten Ur- sprungsdaten sowie die Konturplots der angepassten Verteilungen. −3 −2 −1 0 1 2 −3 −2 −1 0 1 2 X1 X 2 Ursprungsdaten X1 X 2 −3 −2 −1 0 1 2 −3 −2 −1 0 1 2 Anpassung mit Gaußcopula X1 X 2 −3 −2 −1 0 1 2 −3 −2 −1 0 1 2 Anpassung mit Claytoncopula Abbildung 5.5: Ursprungsdaten und Konturlinien der angepassten Verteilungen Weil jede normalverteilte Variable linear in eine standardnormalverteilte Variable umgeformt werden kann, werden die Kontrollgrenzen aus Abschnitt 5.2 verwendet. Das gescha¨tzte Kendalls τ betra¨gt etwa 0.79, so dass die UCL-Werte fu¨r τ = 0.8 ver- wendet werden. Die ersten 30 Datenpunkte werden zur Bestimmung der Werte Y m, Sm und s∗m genutzt. Daraus wird die Teststatistik fu¨r die anderen 170 Datenpunkte bestimmt. Szenario I und II aus Kapitel 5.2 zeigen, wie der Prozess außer Kontrolle geraten kann. Sie ko¨nnen wie folgt gedeutet werden: (I) Ein Messgera¨t ist außer Kontrolle, zum Beispiel bescha¨digt. (II) Der zugrundeliegende Prozess ist außer Kontrolle, das Benzol stro¨mt zu schnell oder zu langsam. Fu¨r Szenario I wird eine Unterstichprobe aus Zufallszahlen konstruiert, bei der einer der Erwartungswerte der Randverteilungen von 0 auf 2 wechselt; der ande- re Erwartungswert bleibt konstant null. Fu¨r Szenario II werden Daten simuliert, 44 bei welcher beide Erwartungswerte der Ra¨nder passend gea¨ndert werden. Die erste Randverteilung streut nun um 2, die zweite um 1.902. Abbildung 5.6 stellt jeweils 15 Datenpunkte aus Szenario I (rot) und Szenario II (gru¨n) vergleichend zum In-Kontrolle-Datensatz dar. Das linke Bild zeigt, wie sich −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 Datensatz X1 X 2 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 in KontrolleLernstichprobe Szenario I Szenario II −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 Karten : T²adj(N) E²(N) X1 X 2 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 X 2 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 T² = T²adj(N) E²(N) −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 Karten : T²adj(C) E²(C) X1 X 2 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 T²adj(C) E²(C) Abbildung 5.6: Datensatz mit Außer-Kontrolle-Werten fu¨r verschiedene Szenarien der Mit- telwerta¨nderung (links) und durch die verschiedenen Karten als außer Kon- trolle eingeordnete Punkte bei Unterstellung einer Normal- (Mitte) sowie Claytoncopula (rechts) die simulierten Daten in die Ursprungswerte einfu¨gen. Diese Datenpunkte werden genutzt, um die Karte zu testen. Das mittlere und rechte Bild visualisieren, welche Datenpunkte bei Anwendung der verschiedenen Karten Teststatistiken außerhalb der Kontrollgrenzen (Niveau α = 0.05) erzeugen. Das arithmetische Mittel der Lernstichprobe liegt bei (−0.0356,−0.0805). Die E2- Karte erkennt hauptsa¨chlich weit von diesem gescha¨tzten Erwartungswert gelegene Datenpunkte, wa¨hrend die T 2-Statistik Werte aufspu¨rt, die weit von der gescha¨tzten Ellipse um den Mittelwert entfernt liegen. Wie schon in Abschnitt 5.2 beschrieben, ist die E2-Karte fu¨r Szenario II geeigneter, die T 2-Karte zeigt bessere Ergebnisse fu¨r Szenario I. Fu¨gt man die konstruierten Außer-Kontrolle-Daten ans Ende der 170 verwendeten Messpunkte, ergeben sich die Karten aus den Abbildungen 5.7 und 5.8. Die Bilder zeigen die beschriebenen Kontrollkarten fu¨r beide Szenarien der Mittelwerta¨nderung zum Niveau α = 0.05. Abbildung 5.7 betrachtet fu¨r Szenario I das Verhalten der T 2- und der T 2adj(C)- Karte im linken Bild und das der E2-Karte im rechten Bild. Die vertikalen Linien 45 (schwarz gepunktet) zeigen den Punkt an, zu dem der Prozess außer Kontrolle gera¨t, also den 171. Datenpunkt. 0 50 100 150 0 5 10 15 20 25 30 35 T²−Karte Messung T² UCL T2 UCL T²adj(C) 0 50 100 150 0 1 2 3 4 E²−Karte Messung E² UCL E²(N) UCL E²(C) Abbildung 5.7: Anwendung der Kontrollkarten auf Szenario I Die Grenzwerte fu¨r eine unterstellte gemeinsame Normalverteilung der Variablen sind fu¨r beide Teststatistiken kleiner als bei einer unterstellten Claytoncopula. Die- ser Effekt ist bei der T 2-Statistik deutlicher ausgepra¨gt. Hier liegen 24 Werte fu¨r die traditionelle T 2-Karte oberhalb der Grenzen, darunter alle 15 Außer-Kontrolle- Werte. 0 50 100 150 0 5 10 15 20 25 30 35 T²−Karte Messung T² UCL T2 UCL T²adj(C) 0 50 100 150 0 1 2 3 4 E²−Karte Messung E² UCL E²(N) UCL E²(C) Abbildung 5.8: Anwendung der Kontrollkarten auf Szenario II Fu¨r die T 2adj(C) liegen nur 20 Werte u¨ber der oberen Kontrollgrenze, darunter die 15 anders verteilten. Die Trefferquote ist bei der adjustierten Karte also besser. Die 46 E2-Statistik entdeckt keinen Wechsel fu¨r Szenario I. Fu¨r beide Grenzwerte werden vier Werte als Ausreißer markiert, davon stammt keiner aus der Außer-Kontrolle- Stichprobe. Abbildung 5.8 bildet Szenario II ab. Auch hier sind fu¨r beide Teststatistiken die Grenzwerte bei unterstellter Normalverteilung kleiner als die der Claytoncopula und wiederum ist der Unterschied bei der T 2-Statistik deutlicher als bei der E2-Statistik. Bei der klassischen T 2-Karte liegen 14 Werte u¨ber der Kontrollgrenze, vier davon stammen aus der abweichenden Grundgesamtheit. Fu¨r T 2adj(C) sind von sieben Da- tenpunkten oberhalb der Grenzen zwei aus der Außer-Kontrolle-Stichprobe. Bei der E2-Statistik liegen fu¨r beide Mo¨glichkeiten 15 Werte außerhalb der Grenzen. Elf Punkte davon sind Außer-Kontrolle-Werte. Wechsel in nur einer Randverteilung wurden mit hoher Wahrscheinlichkeit durch die (adjustierte) T 2-Karte erkannt, A¨nderungen in beiden Ra¨ndern sind schwerer nachzuweisen, da die Außer-Kontrolle-Werte sta¨rker mit den In-Kontrolle-Daten u¨berlappen (siehe auch Abbildung 5.6). Hier war die E2-Karte besser geeignet. 5.3.2 Beispiel II: Inkrementelles Umformen Der vorliegende Fall betrachtet Zylinder, die per ISF (”Incremental Sheet Forming - inkrementelles Umformen“) gefertigt wurden. Diese Fertigungstechnik ist den kon- ventionellen Umformtechniken u¨berlegen. Sie liefert nahtlose Zylinder, die leicht zu reinigen sind. Eingesetzt werden sie beispielsweise in der Baubranche, bei Landma- schinen oder in der Lebensmittel- und Pharmaindustrie. Die Daten wurden im Rahmen des Sonderforschungsbereichs 823 ”Statistical mo- delling of nonlinear dynamic processes“ der Technischen Universita¨t Dortmund, Pro- jekt B2 ”Charakterisierung des dynamischen Prozessverhaltens bei der inkremen- tellen Blechumformung“ erhoben und sind bei Melsheimer et al. (2011) detailliert beschrieben. Die betrachteten Zylinder haben ein langes, schmales Endstu¨ck. Durch kleins- te Materialunterschiede oder minimale Unregelma¨ßigkeiten im Umformprozess kann das Metall im Bereich des Endstu¨ckes reißen oder Falten schlagen. Der interessieren- de Parameter ist also die Blechdicke des Zylinders im Bereich der Umformung. Die 47 Dicke im nichtbearbeiteten Teil ist nahezu konstant und braucht nicht u¨berwacht werden. Insgesamt haben die Blechscheiben einen Radius von etwa 63mm, die her- ausgedru¨ckte Spitze erreicht eine Ho¨he von 31.5mm bei einem Radius von etwa 9mm (siehe Abbildung 5.9). ●●● ●●●● ●● ● ● ● ●● ● ●● ● ●●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●●● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ●● ●● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ●● ● ● ●● ● ● ● ● ● ●● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ●●● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ●●● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ●● ● ●● ● ● ● ● ●● ● ●● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ●● ● ●● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ●● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●●● ● ● ●●● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ●●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●●●●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ●● ●●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ●●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●●● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●●●● ●● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ●●● ● ● ●●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ●●●● ● ● ● ● ● ● ●●● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●●● ● ● ● ● ● ● ● ● ● ●● ● ●●● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ●●● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ●●●●●●●● ● ●● ●● ●● ●● ● ● ● ●● ● ●● ● ● ●●● ● ● ● ● ● ● ●●●● ●●● ● ●● ● ● ● ● ● ● ● ●● ● ●● ● ●●● ● ● ● ●● ● ● ● ● ●● ● ● ● ●●● ● ● ● ●● ● ● ●● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ●●●●● ● ● ● ● ●● ● ● ● ● ● ● ●●●● ● ●● ● ● ● ● ● ● ● ● ● ●●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ●● ● ● ●● ● ● ● ● ●● ● ●● ●● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ●●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ●● ● ●●● ● ● ● ● ● ● ● ●●●●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●●● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ●● ● ●● ●● ● ● ● ● ● ● ●● ●●●●●●● ● ● ● ●● ● ● ● ●● ● ●● ● ● ● ● ●● ●●● ●● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●●● ● ●●●●● ●● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ●● ● ●● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●●● ● ●● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●●●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ●●●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●●●● ● ● ●●● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ●● ●● ● ● ● ● ●● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●●● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ●● ● ● ● ● ● ● ● ●● ●● ● ● ●●● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●●● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ●●● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ●●●●●● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ●●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ●●●● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ●●● ● ● ●● ● ●●● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ●● ● ● ● ● ●● ● ●● ● ● ● ●● ● ● ● ●●● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ●● ●● ● ● ●● ● ● ● ● ●● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ●● ● ●● ● ● ● ● ● ● ● ● ●● ● ●●● ●● ●● ● ● ● ● ●●●● ● ● ●● ●●● ●●● ●● ● ●● ●● ● ● ●● ● ● ● ● ● ●●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ●● ●●● ●● ● ● ● ● ●●● ● ● ● ● ●●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ●●● ● ● ● ● ● ●● ●●● ● ● ● ● ● ●● ● ● ●●● ● ● ● ●● ● ●● ● ● ● ● ●● ● ●● ● ● ●● ● ●● ● ●● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●●●● ● ●●● ● ● ●●● ●● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ●● ● ● ● ●● ● ●● ● ●● ● ● ● ●●● ●●● ● ●● ● ● ● ● ●● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ●●● ●● ●● ● ●●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ●●● ● ● ● ● ●● ● ● ● ●● ● ●● ● ●● ●●● ●● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ●●● ● ● ●● ●● ●● ● ●● ●●● ●●● ●● ● ● ● ● ●● ● ● ●● ● ● ● ●● ● ●● ● ●● ●● ● ●●● ●●●● ● ● ● ●● ●●● ●●● ● ● ● ● ● ● ● ● ● ● ● ●● ●●● ● ● ●● ● ●● ●● ●● ● ●●●● ● ● ●● ● ●● ● ● ● ● ●● ● ●●● ● ● ● ● ● ● ● ● ●● ●● ● ●● ● ●● ● ● ● ●● ●● ●● ●● ● ●● ●● ●● ●● ● ●●● ●● ●● ● ● ● ● ● ● ● ●● ● ● ● ●●● ●●● ●● ● ● ● ● ● ●● ● ● ●●●● ● ● ●● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●●●● ●● ● ● ●● ●● ● ● ● ● ●●● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ●● ●● ●● ●●●● ● ● ● ●● ●● ● ●●● ● ● ● ●● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ●● ●● ●● ●● ● ● ●● ●● ● ● ● ●●●●● ● ● ● ● ●● ●● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ●● ●● ● ●●●●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ●● ●● ● ●● ●●●●●●●●●●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ●●●●●●● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●●●●●●●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●●● ●● ●● ●● ●● ●●●● ● ● ●●●●●● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ●● ● ● ● ●●●●● ●● ●●●●● ● ● ● ●● ● ●● ● ●●●● ●● ●●●●●●● ● ●● ● ●●●● ●●●●●● ● ● ● ●● ● ● ●● ● ● ●●●●●●● ●●● ● ●●● ● ●●● ● ●●●●●●●●● ● ● ● ● ●● ● ● ●●● ●●●●●● ● ●●●●●● ● ●●●●●●●● ●● ● ● ● ● ●●● ● ●●●●●●● ●●●●●● ●●●●●●●●●●●●●● ● ● ● ●● ●● ●●●● ● ●●●●●●●●●●●●● ● ● ● ●●●●●●● ●● ● ● ● ●● ●● ●●●●●●●●●●●●●●● ●● ● ● ● ● ● ● ● ● ● ● ●●● ●●●●●●●● ●●●● ●● ●● ●● ● ●● ● ●● ●●●●●●●●●●●●● ● ●● ●●●●●●●● ●●● ●● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●●● ●● ●● ● ● ● ● ● ● ●●● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ●● ● ● ●● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ●● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ●●● ● ●● ● ● ● ● ● ● ● ● ● ● ●●● ● ●● ● ● ●●● ● ● ● ● ● ●● ● ●● ●● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ●●● ●● ●● ●● ●● ● ●● ● ● ● ●● ●● ● ● ● ●● ● ● ●●●●●● ● ●●● ●●● ● ● ● ● ●● ● ● ●● ●● ●● ● ● ●●● ● ●●● ●●●● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ●● ● ●● ● ●●●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● −60 −40 −20 0 20 40 60 −6 0 −4 0 −2 0 0 20 40 60 alle Messwerte X−Koordinate Y− Ko or di na te (0.253,0.374] (0.374,0.495] (0.495,0.616] (0.616,0.737] (0.737,0.858] (0.858,0.98] (0.98,1.1] (1.1,1.22] (1.22,1.34] ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ●● ●●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ●● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ●● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● −5 0 5 −5 0 5 interessierende Messwerte X−Koordinate Y− Ko or di na te Abbildung 5.9: Blechdicke in mm fu¨r alle Messpunkte (links) und fu¨r den untersuchten Aus- schnitt (rechts) Zur Messung der Blechdicke wurde der analysierte Bereich in horizontale Ab- schnitte mit a¨quidistanter Ho¨he (sogenannte ”Ba¨nder“) unterteilt. Als optimal zur Erkennung von Außer-Kontrolle-Daten erwiesen sich Absta¨nde von 3.6mm. Zur Da- tenerfassung werden die Messwerte der Blechdicken des ersten Bandes von links nach rechts sortiert. Orientierung bietet die X-Koordinate. Fu¨r das zweite Band werden die Werte dann von rechts nach links angeordnet und so weiter. Der interessierende Bereich wird also alternierend abgetastet. Die Folge dieser Werte wird analysiert. Die logarithmierten Werte der Blechdicke in Millimeter ko¨nnen durch eine Normal- verteilung beschrieben werden, wie Abbildung 5.10 zeigt. Auch formale Tests auf Normalverteilung lehnen die Normalverteilungsannahme nicht ab. Im Folgenden werden die Daten der rechten Grafik aus Abbildung 5.9 analysiert. Das Beispiel ist eine Ex-Post-Studie; das heißt, erst nach Fertigstellung des Zylin- ders werden alle relevanten Werte zusammenha¨ngend erhoben. Daher ko¨nnen alle verfu¨gbaren Daten verwendet werden, um die zugrundeliegende Datenstruktur und die erforderlichen Werte von Y m, Sm und s∗m zu berechnen. 48 Unter H0 zeigt die Blechdicke keine ”Auffa¨lligkeiten“. Dazu za¨hlen beispielsweise Risse, Einschlu¨sse im Material, zu dicke oder zu du¨nne Bereiche. Diese ko¨nnen durch die U¨berwachung ra¨umlich benachbarter Blechdickenmessungen gefunden werden. Histogramm log(Bleckdicke in mm) ab s. H äu fig ke it −1.0 −0.5 0.0 0 50 10 0 15 0 −1.0 −0.5 0.0 −1 .0 −0 .5 0. 0 Ursprungsdaten X1 X 2 Anpassung mit Normalcopula X1 X 2 −1.0 −0.5 0.0 −1 .0 −0 .5 0. 0 Anpassung mit Gumbelcopula X1 X 2 −1.0 −0.5 0.0 −1 .0 −0 .5 0. 0 Abbildung 5.10: Histogramm der logarithmierten Messwerte (oben links), Ausgangsdaten (oben rechts) und Ho¨henlinien der angepassten gemeinsamen Verteilungen (unten) U¨berwacht werden daher die Paare (X1,X2) der Zufallsvariablen X1 : erste Blechdickenmessung sowie X2 : Nachbarmessung zu X1 laut des erstellten Bandes. Durch Verwendung der logarithmierten Messungen sind X1 und X2 normalverteilt. Die benachbarten Dichtemessungen sind abha¨ngig. 49 Abbildung 5.10 zeigt die Ursprungsdaten und die Ho¨henlinien der per CML- Methode (siehe Abschnitt 3.6) angepassten Copulas. Der ML-Wert fu¨r die Gumbel- copula betra¨gt ungefa¨hr 915.5 fu¨r den Parameter θ = 2.76 und fu¨r die Normalcopula etwa 816.5 fu¨r ρ = 0.84. Daher wird die Gumbelcopula bevorzugt. Da jede normalverteilte Zufallsvariable leicht in eine standardnormalverteilte Zu- fallsvariable umgewandelt werden kann, wird das Verfahren aus Abschnitt 5.2 ge- nutzt, um passende Grenzwerte zu erstellen. Das gescha¨tzte Kendalls τ betra¨gt un- gefa¨hr 0.637. Die entsprechenden UCL-Werte fu¨r einige Niveaus α zeigt Tabelle 5.3. Niveau α = 10% 5% 1% 0.27% T 2 4.611 6.001 9.230 11.860 T 2(G) 4.643 6.299 10.801 15.227 E2(N) 2.145 2.449 3.040 3.442 E2(G) 2.269 2.690 3.524 4.099 Tabelle 5.3: Simulierte obere Kontrollgrenzen fu¨r n= 2974, τ = 0.637 Die zugeho¨rigen Karten sind in Abbildung 5.11 dargestellt. Bei Anwendung der tra- ditionellen T 2-Statistik liegen 62 der knapp 3000 Werte außerhalb, bei der T 2(G)- Statistik sind es 52 Werte. Die E2-Karte liefert unter vorausgesetzter bivariater Normalverteilung 112 Werte oberhalb der Grenze, bei unterstellter Gumbelcopula 80 Werte. Sowohl Szenario I als auch II aus Abschnitt 5.2 sind in diesem Prozess vorstellbar: (I) Messung 1 und 2 unterscheiden sich stark. Das kann auf lokale Beulen, Mate- rialfehler, Microrisse oder kleine Wellen hindeuten. (II) Messung 1 und 2 sind a¨hnlich, aber ungewo¨hnlich klein oder groß und damit Anzeichen fu¨r sehr dicke oder du¨nne Regionen des Blechs. Wo sich die außenliegenden Messwerte im Vergleich zu den anderen Messwerten beziehungsweise im umgeformten Blech befinden, zeigt Abbildung 5.12. Punkte außerhalb der T 2-Grenzen liegen ohne erkennbare Muster u¨ber das be- trachteten Gebiet verstreut (obere Grafik). Die Außer-Kontrolle-Werte der E2-Sta- tistik konzentrieren sich dagegen auf zwei Bereiche (untere Grafik). 50 0 500 1000 1500 0 2 4 6 8 10 12 T²−Karte Messpaar T² UCL T2 UCL T²adj(G) 0 500 1000 1500 0 1 2 3 E²−Karte Messpaar E² UCL E²(N) UCL E²(G) Abbildung 5.11: Kontrollkarten fu¨r die Messungen der Wanddicke, basierend auf der T 2- (oben) und der E2-Statistik (unten) Bekanntermaßen reagiert die T 2-Karte sensibler auf Szenario I, die E2-Karte erkennt eher Wechsel, wie sie Szenario II beschreibt. Ein Vergleich dieser Grafik mit der mittleren Darstellung aus Abbildung 5.9 er- laubt eine gute Interpretation der Ergebnisse der E2-Statistik: Der rote Kreis aus Abbildung 5.9 markiert Regionen, wo das Blech besonders du¨nn gedru¨ckt wurde. Insbesondere im linken unteren Bereich ist eine sehr du¨nne Region zu finden. Dieser Bereich wurde auch durch die E2-Karte gefunden. Das Blech wird instabil und kann leicht reißen, wenn es zu du¨nn wird. Daher sollte eine Mindestblechdicke eingehal- ten werden. Sehr dicke Bereiche befinden sich dagegen in der Kreismitte, wo die 51 −1.0 −0.5 0.0 −1 .0 −0 .5 0. 0 Ausreißer (T²) X1 X 2 ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● −1 .0 −0 .5 0. 0 −1 .0 −0 .5 0. 0 −1 .0 −0 .5 0. 0 ● ● T2 T²adj(G) −5 0 5 −5 0 5 Position der Ausreißer (T²) X−Koordinate Y− Ko or di na te ● ●● ● ●● ● ● ● ● ● ●●● ●● ● ● ● ●● ● ●● ● ●●● ● ● ● ● ●● ●●●● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ●● ● ● ● −5 0 5 −5 0 5 −5 0 5 −1.0 −0.5 0.0 −1 .0 −0 .5 0. 0 Ausreißer (E²) X1 X 2 ● ● ●● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ●● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●●●● ●●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● −1 .0 −0 .5 0. 0 −1 .0 −0 .5 0. 0 −1 .0 −0 .5 0. 0 ● ● E²(N) E²(G) −5 0 5 −5 0 5 Position der Ausreißer (E²) X−Koordinate Y− Ko or di na te ●●●●● ●●●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ●●● ● ●● ● ● ● ●● ●● ●● ● ● ● ●● ● ● ● ● ● ● ●● ● ●● ●● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ●● ● ●●● ●● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● −5 0 5 −5 0 5 −5 0 5 Abbildung 5.12: Kritische Werte, gekennzeichnet in der Datenwolke (links) und in der Blech- platte (rechts) Platte im Dru¨ckprozess durch den Dorn erfasst wurde. Eine Minimierung dieser Region wu¨rde mehr Material fu¨r die restliche Zylinderspitze bedeuten, die damit tendenziell dicker wu¨rde. Zu dicke Bereiche sollten also auch vermieden werden. Die durch die T 2-Statistik als kritische Werte gefundenen Datenpunkte sind inhaltlich gut so offensichtlich nachvollziehbar. Dass es sich um ra¨umlich meist weiter gestreute Einzelpunkte handelt, passt allerdings gut zu der obigen Interpretation von lokalen Beulen, Microrissen und a¨hnlichen Pha¨nomenen. 52 5.4 U¨berwachung der Prozessstreuung Die bisherigen Abschnitte untersuchen Lagea¨nderungen. Die T 2-Karte zeigt aber auch wachsende Prozessstreuung an. Ob Lage- oder Streuungsa¨nderungen im Prozess den Alarm ausgelo¨st haben, kann dabei nicht unterschieden werden. Eine Simulationsstudie mit verschiedenen Copulamodellen zeigt das Verhalten der T 2-Statistik mit sinkender beziehungsweise wachsender Streuung in den Rand- verteilungen. Es werden Normal-, Clayton- und Gumbelcopula fu¨r verschiedene Zusammenhangsmaße τ betrachtet. Die Copulas verknu¨pfen jeweils zwei ◆(0, 1)- Verteilungen. Untersucht wurde, wie sich ARL- und SDRL-Werte vera¨ndern, wenn die Standardabweichung einer Randverteilung zwischen 0.5 und 1.5 variiert. Nach dem in Abschnitt 5.2 beschriebenen Verfahren wurden je 10000 ARL- und SDRL-Werte simuliert und in Abbildung 5.13 zusammengestellt. Bei unterstellter Normalverteilung realisiert sich die ARL bei einem Wert von 20 unter der Nullhypothese (fu¨r α = 0.05) fu¨r alle getesteten τ . Bei der Clayton- und Gumbelcopula erreicht die ARL den gewu¨nschten Wert nur fu¨r τ = 0. Anschließend sinkt die ARL unter H0 mit wachsendem τ . Dieser Effekt ist von den Untersuchungen zur Lageverschiebungen bekannt, die Erkla¨rung ist hier die selbe. Fu¨r Claytonco- pulas ist der Effekt der ARL-Absenkung sta¨rker ausgepra¨gt als fu¨r Gumbelcopulas. Dieses Pha¨nomen ist durch die Form beider Funktionen begru¨ndet. Die Teststatistik T 2 erkennt eine Vergro¨ßerung der Streuung, die ARL- und SDRL- Werte rechts des Sollwertes sinken monoton. In der Praxis tritt eine wachsende Streuung bei den gemessenen Merkmalen beispielsweise auf, wenn sich bei einer Maschine im Laufe des Fertigungsprozesses Schrauben an den Gelenken durch Be- wegung lockern. Auch die Abnutzung von Schleifelementen, Bohrern oder sonstigen Verschleißteilen an der Maschine ko¨nnen diesen Effekt bewirken. Dadurch werden die angestrebten Sollwerte nicht mehr pra¨zise erreicht und die gefertigten Produkte weichen qualitativ sta¨rker voneinander ab. Ein Anschlagen der Karte weist dann dar- auf hin, Verschleißteile auszutauschen oder die entsprechenden Maschinenbereiche zu warten. Eine geringe Streuung um den Sollwert ist in der Regel gewu¨nscht, um ein gesetz- tes Qualita¨tsziel mo¨glichst gut zu erreichen. Schwa¨chere Streuung ist interessant, 53 −0.4 0.0 0.2 0.4 0 10 30 50 ARL: Normalcopula Abweichung von σ1 = 1 AR L τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.8 0 10 30 50 AR L 0 10 30 50 AR L 0 10 30 50 AR L −0.4 0.0 0.2 0.4 0 20 40 60 SDRL: Normalcopula Abweichung von σ1 = 1 SD RL τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.8 0 20 40 60 SD RL 0 20 40 60 SD RL 0 20 40 60 SD RL −0.4 0.0 0.2 0.4 0 10 20 30 40 ARL: Claytoncopula Abweichung von σ1 = 1 AR L τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.8 0 10 20 30 40 AR L 0 10 20 30 40 AR L 0 10 20 30 40 AR L −0.4 0.0 0.2 0.4 0 20 40 60 SDRL: Claytoncopula Abweichung von σ1 = 1 SD RL τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.8 0 20 40 60 SD RL 0 20 40 60 SD RL 0 20 40 60 SD RL −0.4 0.0 0.2 0.4 0 10 20 30 40 ARL: Gumbelcopula Abweichung von σ1 = 1 AR L τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.8 0 10 20 30 40 AR L 0 10 20 30 40 AR L 0 10 20 30 40 AR L −0.4 0.0 0.2 0.4 0 20 40 60 SDRL: Gumbelcopula Abweichung von σ1 = 1 SD RL τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.8 0 20 40 60 SD RL 0 20 40 60 SD RL 0 20 40 60 SD RL Abbildung 5.13: ARL und SDRL der T 2-Statistik bei Abweichungen in der Streuung einer Randverteilung bei Verwendung verschiedener Copulas und einzeln normal- verteilten Ra¨ndern 54 wenn der Prozess vera¨ndert wurde. So kann zum Beispiel untersucht werden, ob ei- ne bestimmte Maschineneinstellung den Prozess besser kontrollierbar macht. Dieser Fall interessiert also hauptsa¨chlich, um eine Qualita¨tsverbesserung nachzuweisen. Die vorliegende Teststatistik erkennt eine sinkende Datenstreuung kaum. Je gro¨ßer die Abha¨ngigkeit zwischen zwei Merkmalen ist, umso eher fu¨hrt das Absinken von σ1 zu einer fallenden ARL. Fu¨r alle Werte gilt allerdings zuna¨chst, dass die ARL ansteigt. Fu¨r den Bereich der Qualita¨tssicherung ist dieser Effekt durchaus positiv zu bewerten, da eine sinkende Varianz in der Regel keine Minderung der Qualita¨t impliziert. Hier ist der Fall wachsender Streuung interessanter. Wie bei der U¨berwachung der Lage ist es mo¨glich, durch Monte-Carlo-Simulation adjustierte Karten zu erstellen. Die Grenzwertberechnung erfolgt analog zu der in Abschnitt 5.2 beschriebenen. Die adjustierten T 2-Karten aus Kapitel 5.1.1 halten auch in diesem Fall unter H0 das Niveau ein. Das ARL-Verhalten a¨hnelt dann dem aus Abbildung 5.13 fu¨r die Normalcopula. 55 6 Variante II: Zusammenhangskontrolle 6.1 Entwicklung eines geeigneten Testverfahrens 6.1.1 T 2-Karte fu¨r Abha¨ngigkeitsa¨nderungen Abwandlungen der klassischen T 2-Karte erkennen Abweichungen in den Lage- und Streuungsparametern der Randverteilung gut. Nun soll eine Teststatistik gefunden werden, die auf A¨nderungen in der Abha¨ngigkeitsstruktur zweier Messgro¨ßen rea- giert. Zuna¨chst wird die T 2-Karte aus Abschnitt 4.5 auf die vorliegende Problemstel- lung angewandt. Kapitel 5 zeigt, dass die Teststatistik unter Anwendung modifi- zierter Grenzwerte Prozessabweichungen aufspu¨rt. Um eine geeignete Kontrollkarte zur U¨berwachung der Prozessstruktur zu finden, wird zuna¨chst das Verhalten der T 2-Karte bei Struktura¨nderungen untersucht. Abbildung 6.1 zeigt, wie sich A¨nderungen in der Zusammenhangsstruktur von Datenpunkten aus verschiedenen Copulastrukturen auf Hotellings T 2-Karte auswir- ken. Die Zusammenhangsstruktur wird zur besseren Vergleichbarkeit durch Kendalls τ ausgedru¨ckt. Es wurden analog zur Beschreibung in Abschnitt 5.2 jeweils 10000 ARL- und SDRL-Werte simuliert. Ein Abschwa¨chen des Zusammenhangs wird erkannt, eine Zunahme der Zusam- menha¨nge la¨sst die ARL-Werte dagegen sogar ansteigen. Das ist dadurch zu er- kla¨ren, dass sich ein abschwa¨chender Zusammenhang in weiter streuenden Punkten zeigt, deren Abstand zum Mittelpunkt tendenziell wa¨chst und daher die (einseiti- gen) Grenzwerte relativ schnell u¨berschreitet. Andererseits bewirkt ein Ansteigen der Abha¨ngigkeit, dass die Datenpunkte tendenziell konzentrierter um die gemein- same Schwerpunktachse auftreten. Die Distanz zum Mittelpunkt sinkt also und die Grenzwerte werden seltener u¨berschritten, folglich steigt die ARL. Die T 2-Statistik misst die standardisierte Abweichung eines Punktes von dem 57 −0.10 −0.05 0.00 0.05 0.10 0 10 20 30 ARL: Normalcopula Abweichung von τ0 AR L τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.80 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L −0.10 −0.05 0.00 0.05 0.10 0 10 20 30 40 SDRL: Normalcopula Abweichung von τ0 SD RL τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.80 10 20 30 40 SD RL 0 10 20 30 40 SD RL 0 10 20 30 40 SD RL −0.10 −0.05 0.00 0.05 0.10 0 5 10 15 20 ARL: Claytoncopula Abweichung von τ0 AR L τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.80 5 10 15 20 AR L 0 5 10 15 20 AR L 0 5 10 15 20 AR L −0.10 −0.05 0.00 0.05 0.10 0 5 10 20 SDRL: Claytoncopula Abweichung von τ0 SD RL τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.80 5 10 20 SD RL 0 5 10 20 SD RL 0 5 10 20 SD RL −0.10 −0.05 0.00 0.05 0.10 0 10 20 30 40 ARL: Gumbelcopula Abweichung von τ0 AR L τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.80 10 20 30 40 AR L 0 10 20 30 40 AR L 0 10 20 30 40 AR L −0.10 −0.05 0.00 0.05 0.10 0 10 30 50 SDRL Gumbelcopula Abweichung von τ0 SD RL τ0 = 0.2 τ0 = 0.4 τ0 = 0.6 τ0 = 0.80 10 30 50 SD RL 0 10 30 50 SD RL 0 10 30 50 SD RL Abbildung 6.1: ARL und SDRL der T 2-Statistik bei Abweichungen in der Abha¨ngigkeits- sta¨rke unter Zugrundelegung verschiedener Copulas bei einzeln standardnor- malverteilten Messdaten X1 und X2 58 Wahrscheinlichkeitsschwerpunkt einer multivariaten Normalverteilung. Es handelt sich demzufolge um ein ideales Abstandsmaß fu¨r die punktsymmetrische Normal- verteilung. Die betrachteten Copulas sind hingegen achsensymmetrisch. Auf dieser Grundlage soll eine Teststatistik zum Erkennen von Strukturbru¨chen (also A¨nde- rungen der Abha¨ngigkeitsstruktur) entwickelt werden. A¨hnliche Testverfahren sind so konstruiert, dass beispielsweise Datenpunkte aus der Verteilung unter H0 simuliert und mit der erhobenen Stichprobe verglichen wer- den. Fu¨gen sich diese Stichprobenwerte ”plausibel“ in die erzeugten Daten ein, geht man davon aus, dass beide derselben Grundgesamtheit entstammen. Tests zu Strukturbru¨chen auf Basis von Copulamodellen wurden beispielsweise Kra¨mer und van Kampen (2011), Wied et al. (2012), Wied und Galeano (2012) sowie Brodski et al. (2012) vero¨ffentlicht. 6.1.2 Beschreibung der Teststatistik Begru¨ndet auf den bisherigen U¨berlegungen wird nun ein Testverfahren zur U¨ber- wachung von Struktura¨nderungen entwickelt. Bei der T 2-Statistik werden die Eu- klidischen Distanzen der Datenpunkte zum Datenschwerpunkt unter H0 auf Plau- sibilita¨t gepru¨ft. Um die Achsensymmetrie der verwendeten Copulas auszunutzen, verwendet das vorgestellte Verfahren ein Distanzmaß, das den ku¨rzesten Abstand zwischen Punkt und Achse misst. Gering voneinander abha¨ngende Daten bedingen eher große Abweichungen von der betrachteten Achse, stark abha¨ngige Daten zeigen meist kleinere Abweichungen. In diesem Fall entspricht die betrachtete Achse der Winkelhalbierenden des Einheitsquadrates, die Datenpunkte mu¨ssen dazu passend auf den Wertebereich [0, 1]2 normiert sein beziehungsweise aus einer Copulastruktur stammen. Je nach betrachteter Copula streuen die Datenpunkte unterschiedlich um die Winkelhalbierende. Diese Besonderheit wird bei den vorgestellten Testverfahren beru¨cksichtigt. Abbildung 6.2 veranschaulicht die vorgestellte Testidee. Anstelle ei- nes fixen Abschnittes (linke Grafik), wird ein interessierender Bereich mit relativ hoher Datendichte betrachtet. Die mittlere Grafik zeigt die Idee, einen an der Win- kelhalbierenden ausgerichteten Streifen zu betrachten. Der Vollsta¨ndigkeit halber ist in der rechten Abbildung die spa¨ter definierte Teststatistik dargestellt. Diese konzen- triert sich auf den ”aussagekra¨ftigsten“ Abschnitt zwischen den grau gestrichelten 59 Linien. Die an der Winkelhalbierenden gespiegelten Datenpunkte in diesem Bereich werden fu¨r Aussagen u¨ber A¨nderungen der Struktur verwendet. Abbildung 6.2: Motivation der Teststatistik Das vorgestellte Verfahren ist zweistufig. Zuerst werden einige Distanzen be- stimmt, etwa die Entfernung des Punktes zur Winkelhalbierenden oder ein spezieller Abstand zum Koordinatenursprung, der sich wiederum an der Winkelhalbierenden orientiert. Anschließend werden die umgeformten Daten entsprechend der zugrun- deliegenden Copula als zu H0 passend, zu weit streuend oder zu konzentriert klas- sifiziert. Zeigt die Stichprobe also Unregelma¨ßigkeiten in der Abha¨ngigkeitsstruktur der Daten, fu¨hren sowohl eine Versta¨rkung als auch eine Abschwa¨chung des Zusam- menhangs zur Alarmauslo¨sung. Wie die Karte genau arbeitet, wird im Folgenden beschrieben. Schritt 1: Datentransformation Zuna¨chst wird der orthogonale Abstand eines zweidimensionalen Zufallsvektors U := (U1, U2), also eines Punktes im I2 zur Symmetrieachse bestimmt. Die folgenden U¨berlegungen gelten fu¨r beliebige Copulas. Beim Punkt U handelt es sich um einen Vektor der Verteilungsfunktionen an den Stellen der Eintra¨ge einer zugrundeliegen- den Ausgangsvariablen X := (X1, X2), demzufolge ist U = (F1(X1), F2(X2)). An- stelle der gemeinsamen Verteilungsfunktion wird nur der Zusammenhang der Mess- werte beru¨cksichtigt, ausgedru¨ckt durch die zugrundeliegende Copula. Abbildung 60 6.3 zeigt ein Beispiel mit normalverteilten Ra¨ndern (◆(0, 1) und ◆(8, 1)), deren gemeinsame Struktur einer Claytoncopula folgt. Die unterschiedlichen Normalver- teilungen als Ra¨nder zeigen erneut, dass die Copulastruktur davon unberu¨hrt bleibt. Die Abha¨ngigkeit betra¨gt im ersten Fall τ = 0 und im zweiten τ ≈ 0.79. −3 −2 −1 0 1 2 3 5 6 7 8 9 10 unabhängige Daten X1 X 2 0.0 0.2 0.4 0.6 0.8 1.0 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 unabhängige Daten − Copula U1 U 2 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 −3 −2 −1 0 1 2 3 5 6 7 8 9 10 11 'Claytondaten' X1 X 2 0.0 0.2 0.4 0.6 0.8 1.0 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 Claytoncopula U1 U 2 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 Abbildung 6.3: Streu- und Copula-Diagramme fu¨r einzeln normalverteilte Daten X1 und X2 (einmal unabha¨ngig, einmal auf Basis einer Claytoncopulastruktur) Die Karte betrachtet den orthogonalen Abstand eines Punktes (U1, U2) von der Winkelhalbierenden U∗2 = U∗1 . Der Punkt auf der Winkelhalbierenden, den die dazu orthogonale Gerade durch (U1, U2) schneidet, liegt bei (U2 + U1 2 , U2 + U1 2 ) . 61 Der orthogonale Abstand zwischen diesem Schnittpunkt und (U1, U2) ist dann r := r(U1, U2) := [ (U1 + U2 2 − U1 )2 + (U1 + U2 2 − U2 )2 ] 1 2 (6.1) mit r ∈ [0, 1√ 2 ]. Berechnet wird außerdem e. Diese Variable gibt die auf den Wertebereich [0, √ 2] normierte Euklidische Distanz des errechneten Lotes von (U1, U2) zum Koordina- tenursprung an. Es gilt: e := e(U1, U2) := U1 + U2√ 2 (6.2) Abbildung 6.4 verdeutlicht den Zusammenhang der Maße r nach Formel (6.1) und e nach Formel (6.2). Die Verteilung von r ha¨ngt von der verwendeten Copula ab. Fu¨r feste Copulas und τ0 ko¨nnen die Quantile von r in Abha¨ngigkeit von e ausgedru¨ckt werden. Abbildung 6.4: Die Abstandsmaße r und e zum Punkt U = (U1, U2) Schritt 2: Anwendung Um sowohl Abha¨ngigkeitsversta¨rkungen als auch nachlassende Zusammenha¨nge der Merkmale erfassen zu ko¨nnen, werden das erste (lcl) und das dritte (ucl) Quartil der Statistik r in Abha¨ngigkeit von e betrachtet. Dadurch ergeben sich ”Wahrschein- lichkeitsba¨nder“, in denen sich die transformierte Beobachtung (r(U1, U2), e(U1, U2)) mit einer Wahrscheinlichkeit von 0.5 realisiert. Zur Aussage, ob eine Stichprobe der 62 unter H0 erwarteten Copulastruktur entstammt, wird die Summe der Zufallsvaria- blen Ri :=        0 falls ri ≤ lcl(ei) 1 falls lcl(ei) < ri ≤ ucl(ei) 2 falls ri > ucl(ei) (6.3) gebildet. Gleichung (6.3) wird durch Abbildung 6.5 im (um 45◦) gekippten Ein- heitswu¨rfel veranschaulicht. Abbildung 6.5: Gleichung (6.3), veranschaulicht im gekippten Einheitswu¨rfel (um 45◦) Die einzelnen Ri verhalten sich unter H0 unabha¨ngig identisch binomialverteilt nach ❇(2, 0.5). Sie beschreiben die Tatsache, dass (fu¨r unendlich große Stichproben) ein Viertel der Werte oberhalb und ein Viertel der Werte unterhalb des Wahrschein- lichkeitsbandes liegen. Die Summe Rn = n ∑ i=1 Ri (6.4) verha¨lt sich wiederum binomialverteilt (❇(2n, 0.5)). Fu¨r die entsprechende Vertei- lungsfunktion gilt also FRn(x) = P(Rn ≤ x) = x ∑ k=0 (2n k ) 0.5k(1− 0.5)2n−k, wobei k die Anzahl der insgesamt 2n betrachteten Objekte ist, die mit Wahrschein- lichkeit 0.5 realisiert werden. Prinzipiell ist dieser Test auch einseitig durchfu¨hrbar. Die Rn-Werte ko¨nnen direkt in eine Kontrollkarte abgetragen werden, welche die 63 entsprechenden Quantile der Binomialverteilung als Grenzwerte nutzt. Damit gilt LCL(Rn) = P(Rn ≤ x)α/2 und UCL(Rn) = P(Rn ≤ x)1−α/2. Zusammenfassung der Testroutine Der Test erfolgt zweistufig. Gegeben sei eine Stichprobe aus Zufallszahlen Xi = (Xi1, Xi2) mit i = 1, . . . , n. Fu¨r die einzelnen Stichprobenpunkte werden in Stufe 1 zuna¨chst die Xi umgeformt zu Ui = (Ui1, Ui2) und daraus wird nach den Formeln (6.1) und (6.2) r(Ui1, Ui2) sowie e(Ui1, Ui2) berechnet. Schritt 1 ist wichtig, um die Abweichung in beide Richtungen nachweisen zu ko¨nnen. Das wird durch die Spie- gelung an der Winkelhalbierenden erreicht. Dadurch werden sowohl Abweichungen nach unten als auch nach oben in der Abha¨ngigkeitsstruktur der Daten sichtbar. Im zweiten Schritt werden die Ri nach Formel (6.3) berechnet und summiert (Formel (6.4)). Eine Kurzfassung beider Schritte liefert Tabelle B.1 im Anhang. 6.1.3 ”Entwicklungsgeschichte“ des vorgestellten Tests Das vorgestellte Testverfahren ist das Ergebnis einer mehrstufigen Entwicklung. Ziel war es, einen Test zu konstruieren, der auf Grundlage einer relativ kleinen Stichprobe Vera¨nderungen in der Abha¨ngigkeitsstruktur zweier Merkmale findet. Mo¨glich wa¨re, nur einen abgeschlossenen (rechteckigen) Teilbereich des Einheits- quadrates zu betrachten. Die Messwerte aus diesem Bereich mu¨ssten dann bestimm- ten Anforderungen genu¨gen. Dadurch bleiben viele Informationen ungenutzt. Bei großen Datenmengen ist das weniger wichtig, da trotzdem noch ”genu¨gend viele“ Werte fu¨r genaue Aussagen verfu¨gbar sind. Die hier beno¨tigte Stichprobe soll aber nicht zu groß werden. Daher betrachtet die entwickelte Teststatistik den gesamten Datenraum. Erst wurde das Abstandsmaß r entwickelt und verwendet. Die Abha¨ngigkeit des Abstandes von der Distanz des Lotes eines Punktes zum Koordinatenursprung e 64 blieb unberu¨cksichtigt. Diese Idee hat den großen Nachteil, dass alle ”Eckwerte“ - also Werte mit kleinem und großen e-Wert - nach Konstruktion einer Copula nur kleinere r-Werte erreichen ko¨nnen als Daten mit mittleren e-Werten. Die Test- entscheidung basiert also hauptsa¨chlich auf den mittleren Datenpunkten. Zuna¨chst wurde beru¨cksichtigt, auf welcher Seite der Winkelhalbierenden der Datenpunkt liegt. Die Werte rechts der Geraden erhielten ein negatives Vorzeichen. Das sollte helfen, alle Informationen der Messwerte zu nutzen. Als mo¨gliche Teststatistiken wurden zuna¨chst das arithmetische Mittel und die Summe der r-Werte in Betracht gezogen. Unter H0 mu¨ssten diese etwa null betragen. Durch die Achsensymmetrie der betrachteten Copulas sind Vera¨nderungen in der Struktur so nicht nachzuwei- sen. Struktura¨nderungen zeigen sich in enger oder weiter um die Winkelhalbierende streuenden Messwerten, deren Erwartungswert wieder null betra¨gt. Alternative Teststatistiken sind das Maximum oder Minimum aller r-Werte oder die Anzahl der Werte, die u¨ber oder unter einer bestimmten Grenze liegen. Hier- bei sind zwei Grenzwerte no¨tig; gewa¨hlt wurde das ±(1− α2 )-Quantil der Verteilung. Nachweisbar ist damit ein schwa¨cher werdender Zusammenhang zwischen den Mess- werten. Die Abnahme der ARL-Werte mit zunehmender Abweichung von H0 erfolgt relativ langsam, so dass die Karte keinen praktischen Nutzen verspricht. Als zweiter Schritt wurde der Absolutwert von r betrachtet. Damit werden das arithmetische Mittel oder die Summe der r sinnvolle Teststatistiken. Wa¨hlt man als Grenzwerte das α2 und das (1 − α2 )-Quantil der Verteilung der Teststatistik, ist sowohl ein versta¨rkter als auch ein abgeschwa¨chter Zusammenhang nachweisbar. Die Gu¨te der Karte, gemessen an der ARL des Außer-Kontrolle-Prozesses, ist dabei nicht zufriedenstellend. Weiterhin beeinflusst nur der Bereich der mittleren e-Werte die Testentscheidung. In einem dritten Versuch wurde der e-Wert mit aufgenommen und die Abha¨ngigkeit zwischen r und e modelliert. Der Mittelwert oder die Summe der r-Werte als Teststatistik erweisen sich als ungeeignet, da der zugeho¨rige e-Wert nicht beachtet wird. Versuche, e hier mit einzubeziehen, schlugen fehl. Eine Idee war beispielsweise, den absoluten Abstand des realisierten e-Wertes zur Intervallmitte ( 1√ 2 ) zu nutzen. Bis dahin steigen die 65 mo¨glichen Auspra¨gungen der r-Werte, anschließend sinken sie. Das arithmetische Mittel der r sollte abha¨ngig vom Mittelwert der ( 1√ 2 − e)-Werte betrachtet werden. Hier kam es teilweise sogar zu wachsenden ARL-Werten außerhalb von H0. Das la¨sst sich folgendermaßen erkla¨ren: Die r ko¨nnen theoretisch bei gleichem Abstand rechts und links von e = 1√ 2 Auspra¨gungen bis zum gleichen Wert erreichen, ehe sie an die ”Grenzen des Einheitsquadrates“ stoßen. Je nach Form der zugrundeliegenden Copula wird der zur Verfu¨gung stehende Platz allerdings unterschiedlich genutzt, wie beispielsweise Abbildung 6.3 zeigt. Schließlich entstand die Idee, die Datenpunkte (r, e) vor Berechnung der Teststa- tistik zu klassieren. Zuna¨chst wurde eine Grenze auf Ho¨he des Erwartungswertes von r in Abha¨ngigkeit von e betrachtet. Unter H0 mu¨sste etwa die Ha¨lfte der Realisationen u¨ber dieser Grenze liegen. Werden es (deutlich) mehr, kann das auf einen abschwa¨chenden Zu- sammenhang der Messwerte hindeuten und umgekehrt. Als Teststatistik bietet sich die Anzahl der r an, die den Erwartungswert u¨bertreffen. Bina¨r kodiert ist die Wahr- scheinlichkeit der einzelnen Messwerte durch eine Bernoulli-Verteilung modellierbar und ein entsprechender Test leicht herzuleiten. Die ARL sinkt fu¨r Außer-Kontrolle- Fa¨lle. Der Test ist geeignet, Struktura¨nderungen nachzuweisen. Allerdings werden die A¨nderungen teilweise erst relativ spa¨t erkannt. Daher wurde schließlich versucht, mehrere Klassen zu bilden. Wie bereits erwa¨hnt, betrachten bestehende Tests meist nur einen Ausschnitt des Einheitsquadrates. Meist wird die linke untere Ecke gewa¨hlt, teilweise auch die obere rechte Ecke.A¨nderungen in der Struktur sollen sich am ehesten in diesen Abschnitten zeigen. In diesen Ecken realisieren sich umso mehr Daten, je sta¨rker der Zusammenhang zwischen den Merk- malen wird. Die beiden anderen Ecken werden dagegen bei nachlassendem Zusam- menhang ”voller“. Betrachtet man das komplette Einheitsquadrat, realisieren sich die Datenpunkte bei starker Abha¨ngigkeit tendenziell dichter an der Winkelhalbie- renden. Bei schwacher Abha¨ngigkeit kommen vermehrt auch Messwerte nahe der Außengrenzen des Einheitsquadrates vor. Es sollten also vor allem Bereiche na- he und fern der Winkelhalbierenden betrachtet werden. Damit ergeben sich zwei Grenzwerte, um die Messungen in die drei Klassen ”nah“, ”mittel“ und ”fern“ ein- zuteilen. Mo¨gliche Einteilungen waren das 13 - und das 23 -Quantil der Verteilung von r 66 in Abha¨ngigkeit von e zu wa¨hlen oder die beschriebene Quartilseinteilung. Die Ent- scheidung zugunsten der Quartile ergab sich aus der einfachen Modellierbarkeit der Datenpunkte unter H0 mit Hilfe einer Binomialverteilung. Spa¨tere Untersuchungen besta¨tigen diese Entscheidung auch inhaltlich. Die so entstehende Karte zeigt ein ada¨quates Gu¨teverhalten. 6.2 Konstruktion der Grenzwerte lcl und ucl 6.2.1 Herleitung der beno¨tigten Wahrscheinlichkeiten Der Prozess unter Kontrolle folge einer bestimmten Copulastruktur. Gegeben sei der Zufallsvektor U := (U1, U2) mit gleichverteilten Eintra¨gen auf dem Intervall [0, 1] (Uk ∼ ●[0, 1], k = 1, 2) sowie die transformierten Punkte e und r nach den Formeln (6.1) und (6.2). Es bezeichne (u1, u2) eine (beliebige) Realisation von (U1, U2) mit r = r(u1, u2) und e = e(u1, u2). Durch die Beschra¨nkung auf achsensymmetrische Copulamodelle a¨ndert eine Vertauschung von u1 und u2 die Werte von (r, e) nicht, daher gelte ohne Beschra¨nkung der Allgemeinheit u1 ≥ u2. Die bedingte Wahrscheinlichkeit P(r ≤ r∗|e∗1 ≤ e ≤ e∗2) wird mit zuna¨chst belie- bigen, aber festen Punkten r∗ ∈ [0, 1√ 2 ] und e∗1, e∗2 ∈ [0, √ 2], verwendet. Dieser Wert wird mit Hilfe der Wahrscheinlichkeit P(e∗1 ≤ e ≤ e∗2) = P(e ≤ e∗2)− P(e ≤ e∗1) (6.5) ermittelt. Außerdem wird die Wahrscheinlichkeit dafu¨r beno¨tigt, dass e sich inner- halb eines Intervalls e∗1 und e∗2 realisiert, also P(r ≤ r∗, e∗1 ≤ e ≤ e∗2). Dieses Intervall wird in Grafik 6.6 (links) verdeutlicht. Es gilt P(r ≤ r∗, e∗1 ≤ e ≤ e∗2) = P(r ≤ r∗, e ≤ e∗2)− P(r ≤ r∗, e ≤ e∗1). (6.6) 67 Die Wahrscheinlichkeit P(r ≤ r∗, e ≤ e∗) Das Dreieck B enthalte alle Punkte (v1, v2) ∈ [0, 1]2 innerhalb einer Fla¨che mit den Eckpunkten {(0, u1−u2), (0, u1+u2), (u1, u2)}, wie die rechte Grafik aus Abbildung 6.6 zeigt. Dann ist P(r ≤ r∗, e ≤ e∗) = P(e ≤ e∗)− 2 P(B). (6.7) Abbildung 6.6: Veranschaulichung von P(r ≤ r∗, e∗1 ≤ e ≤ e∗2) (links) und des Dreiecks B zur Berechnung von P(r ≤ r∗, e ≤ e∗) (rechts) Fu¨r die Wahrscheinlichkeit P(e ≤ e∗) gilt unter Verwendung von c(τ1, τ2) als Dichte der Copula an der Stelle (τ1, τ2): P(e ≤ e∗) = P (u1 + u2√ 2 ≤ e∗) ) = ∫ ∫ τ1+τ2≤ √ 2e∗ c(τ1, τ2)dτ1dτ2 Dabei liegt √ 2e∗ im Intervall [0, 2]. Rechnet man ab der Ha¨lfte des Intervalls (das entspricht der Mitte der Winkelhalbierenden) mit der Gegenwahrscheinlichkeit, so gilt 68 P(u1 + u2 ≤ √ 2e∗) =                    0 falls √ 2e∗ < 0 ∫ √ 2e∗ 0 ∫ √ 2e∗−τ2 0 c(τ1, τ2)dτ1dτ2 falls 0 ≤ e∗ < 1√2 1− ∫ 1√ 2e∗−1 ∫ 1√ 2e∗−τ2 c(τ1, τ2)dτ1dτ2 falls 1√ 2 ≤ e∗ < √ 2 1 falls e∗ ≥ √ 2 Daraus folgt mit dem Zusammenhang √ 2e∗ = u1 + u2: P(e ≤ e∗) =                    0 falls e∗ < 0 ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1, τ2)dτ1dτ2 falls 0 ≤ e∗ < 1√2 1− ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1, τ2)dτ1dτ2 falls 1√ 2 ≤ e∗ < √ 2 1 falls e∗ ≥ √ 2 Und fu¨r die Dreiecksfla¨che B gilt: P(B) =                                                  0 falls e∗ ≤ 0 oder r∗ ≤ 0 oder e∗ ≤ r∗ ∫ u2 0 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 falls 0 ≤ e∗ 1√ 2 , 0 ≤ r∗ ≤ e∗, e∗ + r∗ < √ 2 ∫ u1+u2−1 0 ∫ 1 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 + ∫ u2 u1+u2−1 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 falls 1√ 2 ≤ e∗ < √ 2, 0 ≤ r∗ ≤ e∗, e∗ + r∗ < √ 2 ∫ 1−u1+u2 0 ∫ 1 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 falls e∗ > 0, 0 ≤ r∗ ≤ e∗, e∗ + r∗ ≥ √ 2 Diese vier Mo¨glichkeiten fu¨r P(B) sind durch geometrische U¨berlegungen gut er- kla¨rbar, wie Abbildung 6.7 zeigt. Im ersten Fall liegt der Punkt (u1, u2) auf der linken oder unteren Grenze des Einheitsquadrates oder sogar schon links außerhalb oder darunter. Damit ist B leer 69 und P(B) = 0. Bei der zweiten Variante liegt (u1, u2) im Einheitsquadrat unterhalb der Linie u1 + u2 = 1, also der Lotrechten zur Winkelhalbierenden durch die obere linke und die untere rechte Ecke des Einheitsquadrates. Als dritte Mo¨glichkeit kann sich der Punkt oberhalb dieser Linie, aber innerhalb des Quadrates realisieren. Durch die Beschra¨nkung des Einheitsquadrates wird die interessierende Fla¨che B viereckig. Daher wird zuna¨chst der Streifen bis zum a¨ußeren Rand des I2 berechnet (erster Summand - in der Grafik ”B1“) und anschließend das fehlende Dreieck (zweiter Summand - in der Grafik ”B2“). Zuletzt wird die Mo¨glichkeit betrachtet, dass der Punkt (u1, u2) rechts außerhalb oder auf der oberen Grenze des Einheitsquadrates liegt, B allerdings trotzdem Punk- te innerhalb des Einheitsquadrates entha¨lt (angeschnittene Ecken). Hier muss (wie bei Fall 3) die Beschra¨nkung des Einheitsquadrates bei den Grenzen beru¨cksichtigt werden. Abbildung 6.7: Veranschaulichung der verschiedenen Mo¨glichkeiten fu¨r P(B) 70 Die Wahrscheinlichkeiten P(e ≤ e∗) und P(B) ko¨nnen durch Zusatzinformationen vereinfacht werden. Die Zufallsvariable (U1, U2) hat laut Konstruktionsvorschrift (siehe Abschnitt 6.1.2, Schritt 1) nur Realisierungen innerhalb oder auf den Grenzen des Einheitsquadrates. Weiterhin sei gefordert, dass die untere Intervallgrenze e∗1 kleiner als die obere e∗2 ist, also dass 0 ≤ e∗1 < e∗2 ≤ √ 2. Weiter gilt: r∗ ≤              e∗1 falls e∗2 ≤ 1√2 min(e∗1, 1− e∗2) falls e∗1 ≤ 1√2 und e ∗ 2 ≥ 1√2 1− e∗2 falls e∗1 ≥ 1√2 Hieraus folgt P(e ≤ e∗) =            ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1, τ2)dτ1dτ2 falls 0 ≤ e∗ < 1√2 1− ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1, τ2)dτ1dτ2 falls 1√ 2 ≤ e∗ < √ 2 1 falls e∗ = √ 2 (6.8) und P(B) =                    ∫ u2 0 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 falls 0 ≤ e ∗ < 1√ 2 ∫ u1+u2−1 0 ∫ 1 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 + ∫ u2 u1+u2−1 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 falls 1√ 2 ≤ e∗ < √ 2 0 falls e∗ = √ 2 (6.9) Die Punkte (u1, u2) und (u3, u4) seien Eckpunkte des interessierenden Quadrates. Beide Punkte ha¨ngen von e∗1 und e∗2 sowie von r∗ ab, wie Abbildung 6.8 zeigt. Dann liefert die Anwendung der Formeln (6.8), (6.9) und (6.7) auf Gleichung (6.6) die gesuchte Wahrscheinlichkeit P(r ≤ r∗, e∗1 ≤ e ≤ e∗2). Eine Aufstellung fu¨r die verschiedenen Mo¨glichkeiten der Grenzen e∗1 und e∗2 zeigt Anhang A.1.1. Betrachtet 71 werden die folgenden Fa¨lle: • e∗2 < 1√2 • e∗1 < 1√2 und 1√ 2 ≤ e∗2 < √ 2 • 1√ 2 ≤ e∗1 < e∗2 < √ 2 • 1√ 2 ≤ e∗1 < √ 2 und e∗2 = √ 2 Abbildung 6.8: Skizze der Punkte (u1, u2) und (u3, u4) Auch der Fall e∗1 ≤ 1√2 und e ∗ 2 = √ 2 wa¨re denkbar, da er fu¨r die Konstruktion der Grenzwerte aber nicht verwendet wird, ist er nicht aufgefu¨hrt. Die Wahrscheinlichkeit P(e∗1 ≤ e ≤ e∗2) Die Wahrscheinlichkeit P(e∗1 ≤ e ≤ e∗2) ergibt sich durch Einsetzen von Formel (6.8) in Gleichung (6.5). Die mo¨glichen Auspra¨gungen sind im Anhang A.1.2 zu finden. Die Wahrscheinlichkeit P(r ≤ r∗|e∗1 ≤ e ≤ e∗2) Die bedingte Wahrscheinlichkeit P(r ≤ r∗|e∗1 ≤ e ≤ e∗2) = P(r ≤ r∗, e∗1 ≤ e ≤ e∗2) P(e∗1 ≤ e ≤ e∗2) ergibt sich als Quotient der Formeln aus dem Anhang A.1.1 und A.1.2. 72 Alternativ bewirkt das Einsetzen von Formel (6.7) in (6.6) die Gleichung P(r ≤ r∗, e∗1 ≤ e ≤ e∗2) = P(e ≤ e∗2)− 2 P(B2)− [P(e ≤ e∗1)− 2 P(B1)], wobei B1 das zu e∗1 geho¨rige Dreieck bezeichnet und B2 das zu e∗2 geho¨rende. Der obige Ausdruck dividiert durch [P(e ≤ e∗2)− P(e ≤ e∗1)] (siehe Formel (6.5)) ergibt die gesuchte bedingte Wahrscheinlichkeit. Damit gilt: P(r ≤ r∗|e∗1 ≤ e ≤ e∗2) = 1− 2P(B2)− 2P(B1) P(e ≤ e∗2)− P(e ≤ e∗1) (6.10) Die entsprechende Fallunterscheidung ist im Anhang A.1.3 angegeben. 6.2.2 Bestimmung der Wahrscheinlichkeitsba¨nder Als Grenzwerte (lcl(e), ucl(e)) werden die Quartile der Statistik r in Abha¨ngigkeit von e genutzt. Wie die Einzelwahrscheinlichkeiten aus Abschnitt 6.2.1 ha¨ngen auch die Grenzen von der unterstellten Copulastruktur der Daten ab . Je nach Copula sind die Grenzwerte geschlossen darstellbar oder mu¨ssen numerisch berechnet wer- den. Allgemein sind folgende Gleichungen zu erfu¨llen: lcl = argmax (P(r ≤ r∗|e∗1 ≤ e < e∗2) = 0.25) r∗ ucl = argmax (P(r ≤ r∗|e∗1 ≤ e < e∗2) = 0.75) r∗ (6.11) In der Anwendung werden die Grenzen so bestimmt, dass die Winkelhalbierende des Einheitsquadrates zuna¨chst in gleichma¨ßige Abschnitte der La¨nge 2ε eingeteilt wird. Formel (6.11) wird dann auf alle Intervalle angewendet. Insgesamt gibt es K := √ 2 (2ε) Intervalle mit den Grenzen (e∗1 = 2kε, e∗2 = 2(k + 1)ε). Damit stehen fu¨r alle Wertepaare (ri, ei), i = 1, . . . , n, einer Stichprobe Referenz- werte zur Verfu¨gung, indem ei in das ⌊ ei2ε+1⌋-te Intervall eingeordnet wird, wobei ⌊.⌋ fu¨r die Abrundungsfunktion oder Gaußklammer steht, also die na¨chstkleinere ganze Zahl des innenliegenden Wertes verwendet wird. Die Grenzwerte lcl(ei) und ucl(ei) ko¨nnen dann entsprechend Formel (6.3) mit ri verglichen werden. 73 6.2.3 Beispiel Produktcopula Die Produktcopula bildet unabha¨ngige Daten ab (siehe Abschnitt 3.4). Mit der For- mel (3.1) ergibt sich die Dichte c(u1, u2) = 1. Die fu¨r Gleichung (6.10) no¨tigen Wahrscheinlichkeiten P(B1), P(B2), P(e ≤ e∗1) und P(e ≤ e∗2) ergeben sich mit Hilfe der Formeln (6.8) und (6.9) fu¨r p = 1, 2 als P(e ≤ e∗p) =            0.5(u1 + u2)2 falls 0 ≤ e∗p < 1√2 −1 + 2(u1 + u2)− 0.5(u1 + u2)2 falls 1√2 ≤ e ∗ p < √ 2 1 falls e∗p = √ 2 und P(Bp) =            u22 falls 0 ≤ e∗p < 1√2 u22 − 0.5(u1 + u2 − 1)2 falls 1√2 ≤ e ∗ p < √ 2 0 falls e∗p = √ 2 Eine schrittweise Herleitung der Gleichungen ist im Anhang A.1.4 aufgelistet. Einfu¨gen der obigen Wahrscheinlichkeiten in Formel (6.10) ergibt P(r ≤ r∗|e∗1 ≤ e ≤ e∗2) =                                1− 4(u 2 4−u22) (u3+u4)2−(u1+u2)2 falls 0 ≤ e ∗ 1 < e∗2 < 1√2 1− 2u 2 4−2u22−(u3+u4−1)2 −1+2(u3+u4)−0.5(u3+u4)2−0.5(u1+u2)2 falls 0 ≤ e ∗ 1 < 1√2 und 1√ 2 ≤ e∗2 < √ 2 1− 2u 2 4−2u22−(u3+u4−1)2+(u1+u2−1)2 0.5(u1+u2)2−0.5(u3+u4)2+2[(u3+u4)−(u1+u2)] falls 1√ 2 ≤ e∗1 < e∗2 < √ 2 1− −2u 2 2+(u1+u2−1)2 2+0.5(u1+u2)2−2(u1+u2) falls 1√ 2 ≤ e∗1 < √ 2 und e∗2 = √ 2 Die Produktcopula verbindet unabha¨ngige Zufallsvariablen und kommt daher ohne zusa¨tzlichen Parameter zur Abbildung von Abha¨ngigkeiten aus. Die Grenzwerte sind somit fu¨r alle τ identisch und symmetrisch um 1√ 2 . 74 Auf Basis der hergeleiteten Wahrscheinlichkeiten werden die Grenzen lcl und ucl nach Formel (6.10) numerisch bestimmt. Die Intervallla¨nge 2ǫ betrage dabei 0.005. Kleinere Distanzen liefern genauere Ergebnisse. Dies ist vor allem in der Region e = 1√ 2 interessant. Durch die Unabha¨ngigkeit der Daten bei der Produktcopula gilt hier lcl =      1 4e fu¨r e ≤ 1√2 √ 2 4 − 14e fu¨r 1√2 ≤ e ≤ √ 2 und ucl =      3 4e fu¨r e ≤ 1√2 3 √ 2 4 − 34e fu¨r 1√2 ≤ e ≤ √ 2. Dabei handelt es sich um Umrisse von Dreiecken, die 14 beziehungsweise 34 der gesam- ten Fla¨che (ein Dreieck mit den Eckpunkten (0, 0), ( 1√ 2 , 1√ 2 ) und ( √ 2, 0)) erfassen, in denen sich die Werte realisieren ko¨nnen. Die Grenzen sind in Abbildung 6.9 dar- gestellt. 0.0 0.4 0.8 1.2 0. 0 0. 2 0. 4 0. 6 numerisch ermittelte Grenzen e r 0. 0 0. 2 0. 4 0. 6 r ucl lcl 0.0 0.4 0.8 1.2 0. 0 0. 2 0. 4 0. 6 theoretische Grenzen e r 0. 0 0. 2 0. 4 0. 6 r ucl lcl Abbildung 6.9: Kontrollgrenzen beim Verwenden einer Produktcopula Eine analoge Herleitung der Grenzwerte fu¨r die Clayton- oder Gumbelcopula ist nach dieser Herangehensweise nicht mo¨glich, da die Integrale u¨ber beide Copula- dichten nicht geschlossen darstellbar sind. 75 6.3 Effizienz der Kontrollkarte Das Verhalten der Kontrollkarte mit der in Kapitel 6.1 beschriebenen Testroutine wird durch Simulationsstudien gepru¨ft. Die Simulationsstudie behandelt eine Karte mit der Anfangsannahme, dass der Prozess unter Kontrolle und die H0-Verteilung bekannt ist. Der Prozess wird in Echtzeit, also ”online“, u¨berwacht. Die Außer- Kontrolle-Situationen werden durch Verlagerungen des Copulaparameters ausge- dru¨ckt. Diese Verschiebungen werden durch Kendalls τ quantifiziert. Die Kontrollgrenzen werden anhand der unterstellten Prozessverteilung festge- legt, unter H0 also eine bestimmte archimedische Copula. Die Grenzwerte fu¨r un- abha¨ngige Daten (τ = 0) sind fu¨r alle Copulas identisch (siehe Beispiel 6.2.3). Eine U¨berwachung der (nicht vorhandenen) Abha¨ngigkeitsstruktur ist in diesem Fall nicht sinnvoll. Es werden zuna¨chst die Kontrollgrenzen lcl und ucl sowie LCL und UCL herge- leitet, dann zufa¨llig Stichproben verschiedener Prozesssituationen erzeugt und die daraus resultierenden Laufla¨ngen zur Gu¨tebeurteilung des Tests herangezogen. In Kapitel 4.3 wird die ARL als mittlere Laufla¨nge des Prozesses definiert. Das Ver- halten der ARL-Funktion sowie der Verlauf der zugeho¨rigen Standardabweichung SDRL wird in diesem Kapitel durch Monte-Carlo-Simulationen ermittelt. Zusa¨tzlich wird auch die OC-Funktion angegeben. Diese wurde aus den ARL-Werten berechnet (siehe Abschnitt 4.4). 6.3.1 Berechnung von lcl und ucl Die Kontrollgrenzen lcl(e) und ucl(e) werden durch Integration aus der Dichtefunk- tion der zugrunde gelegten Copula bestimmt. Dazu werden die in Kapitel 6.2 herge- leiteten Formeln genutzt. Der Wertebereich E von e wurde dazu in 148 Abschnitte unterschiedlicher La¨nge eingeteilt, die zur Mitte ( 1√ 2 ) kleiner wurden. Abbildung 6.10 zeigt die entsprechenden Grenzwerte fu¨r r unter H0 fu¨r eine Clay- toncopula mit bekanntem Parameter (oben) und fu¨r eine festgelegte Gumbelcopula (unten). Diese Grenzen gelten unter der Nullhypothese, dass die untersuchte neue Stichprobe aus der erwarteten Verteilung stammt. Die Grenzwerte zeigen dabei eine Struktur, die sich entsprechend der Copula er- 76 kla¨ren la¨sst. Ein Vergleich der Grenzwerte mit der Dichtestruktur aus Abbildung 3.1 zeigt einen deutlichen Zusammenhang beider Maße. Das ist durch die alterna- tive Darstellungsmo¨glichkeit der Grenzwerte als Integrale aus der Dichtefunktion erkla¨rbar, siehe Formel (6.11). 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 lcl Claytoncopula e r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r τ = 0.1 τ = 0.2 τ = 0.3 τ = 0.4 τ = 0.5 τ = 0.6 τ = 0.7 τ = 0.8 τ = 0.9 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 ucl Claytoncopula e r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 lcl Gumbelcopula e r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 ucl Gumbelcopula e r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r Abbildung 6.10: Kontrollgrenzen bei Unterstellung einer festgelegten Copulastruktur fu¨r verschiedene τ Bei den Grenzen handelt es sich um Quantilsfunktionen - in dem vorliegenden Fall werden das erste und das dritte Quartil betrachtet. Eine allgemeinere U¨bersicht u¨ber die Quantile von r, abha¨ngig von e fu¨r feste τ liefert Kapitel 6.6. Bei einer 77 Claytoncopula konzentriert sich die Datenmasse im unteren linken Bereich des Ein- heitsquadrates, die Grenzwerte sind hier dementsprechend linksschief beziehungs- weise rechtssteil. Bei den Gumbelcopulas konzentriert sich die Datenmasse eher im oberen rechten Quadranten, die Grenzwerte weisen analog eine linkssteile, rechts- schiefe Struktur auf. Die Graphen der Grenzwerte zeigen einen a¨hnlichen Verlauf. Das la¨sst vermuten, dass eine Approximation der Grenzen durch stetige Funktionen mo¨glich ist. Diese Anpassung und eine Untersuchung, inwieweit die Verwendung an- gena¨herter Grenzwerte die Qualita¨t der Regelkarten beeinflusst, erfolgt in Abschnitt 6.3.3. 6.3.2 Ergebnisse der Laufla¨ngensimulation Die entwickelten Kontrollkarten nutzen die im letzten Abschnitt hergeleiteten Gren- zen in Kombination mit der Teststatistik Ri aus Abschnitt 6.1. Die Laufla¨ngen werden durch Monte-Carlo-Simulationen auf Basis von Zufallsstichproben aus ver- schiedenen Prozesssituationen ermittelt. Neben den ARL- und SDRL-Werten wird die OC-Funktion zur Gu¨tebeurteilung des Tests herangezogen. Fu¨r kontrollierte Prozesse (τ = τ0) ergeben sich Werte fu¨r die ARL entsprechend der Quantile der Binomialverteilung, abha¨ngig von der gewa¨hlten Stichprobengro¨ße. Nachfolgend werden verschiedene Prozesssituationen fu¨r die im letzten Abschnitt festgelegten Regeln betrachtet (unter Kontrolle oder außer Kontrolle). Die verschie- denen Prozesszusta¨nde werden durch Variieren des Copulaparameters beziehungs- weise des zugeho¨rigen τ erzeugt. Ein Intervall von [τ0− 0.1, τ0 +0.1] erweist sich als ausreichend, um Abweichungen von der In-Kontrolle-Situation nachzuweisen. Abweichungen des wahren τ von τ0 werden in 0.02-er Schritten betrachtet, τ0 wurde in 0.1-er Absta¨nden im Bereich von τ0 = 0.1 bis τ0 = 0.9 gewa¨hlt. Ingesamt wurden N = 20.000 Simulationsla¨ufe durchgefu¨hrt, also 20.000 Lauf- la¨ngen simuliert, die auf Einzelstichproben von je n = 30 beru¨cksichtigten Mess- punkten basieren. Diese Zahlen ergaben sich durch Vorabuntersuchungen als Kom- promiss zwischen Rechenzeit und Streuung der Ergebnisse. Vor allem die Erzeugung der Zufallszahlen auf Basis von Copulas erwies sich dabei als rechenaufwendig. Fu¨r alle Stichprobenpunkte wurde zuna¨chst die Teststatistik Ri, i = 1, . . . , 30, mit Hilfe der Grenzen lcl und ucl aus Abschnitt 6.3.1 berechnet. Die kumulierten Ri entsprechen der in Gleichung (6.4) beschriebenen Teststatistik Rn. Zu einem 78 Signifikanzniveau α ≈ 0.02734 ergibt sich als untere Grenze von Rn LCL= 22 und als obere Grenze UCL= 38 (siehe Abschnitt 6.1.2, Schritt 2). Daraus resultiert eine In-Kontrolle-ARL von etwa 36.58. Das unu¨bliche Signifikanzniveau α erkla¨rt sich aus der Vorgabe, das na¨chstmo¨gliche Niveau α ≤ 0.05 zu wa¨hlen, fu¨r das (nach Konstruktion des Tests notwendigerweise ganzzahlige) Grenzwerte existieren. Abbildung 6.11 zeigt die Ergebnisse der Simulation unter Annahme einer Clay- toncopulastruktur in den Daten, einige Datenpunkte sind zusa¨tzlich in Tabelle B.2 in Anhang B aufgelistet. −0.10 −0.05 0.00 0.05 0.10 0 10 20 30 ARL Abweichung von τ AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L −0.10 −0.05 0.00 0.05 0.10 0 10 20 30 SDRL Abweichung von τ SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL −0.10 −0.05 0.00 0.05 0.10 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 OC−Funktion Abweichung von τ O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C τ = 0.1 τ = 0.2 τ = 0.3 τ = 0.4 τ = 0.5 τ = 0.6 τ = 0.7 τ = 0.8 τ = 0.9 Abbildung 6.11: Simulationsergebnisse zur Laufla¨nge bei Unterstellung einer Claytoncopu- lastruktur mit verschiedenen Kendalls τ Die Resultate fu¨r die Gumbelcopula zeigen Abbildung 6.12 und Tabelle B.3 (An- hang B). Die Simulation verdeutlicht, dass der Test fu¨r die untersuchte Fragestellung geeig- net ist. Fu¨r beide Abha¨ngigkeitsstrukturen erreicht die ARL-Funktion ihr Maximum - etwa entsprechend der theoretisch erwarteten ARL - unter der Nullhypothese, also bei U¨bereinstimmung von τ und τ0. Dieser ARL-Wert wird fu¨r alle betrachteten Fa¨lle von τ0 = 0.1 bis τ0 = 0.9 erreicht. Mit wachsendem Abstand vom wahren τ -Wert des Prozesses zu dem τ0 unter Kontrolle verringert sich die ARL. Je deutlicher man also in den Bereich der Al- ternativhypothese kommt, umso fru¨her erkennt der Test, dass die Sollwerte nicht eingehalten wurden. 79 −0.10 −0.05 0.00 0.05 0.10 0 10 20 30 ARL Abweichung von τ AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L −0.10 −0.05 0.00 0.05 0.10 0 5 10 15 20 25 30 35 SDRL Abweichung von τ SD RL 0 5 10 15 20 25 30 35 SD RL 0 5 10 15 20 25 30 35 SD RL 0 5 10 15 20 25 30 35 SD RL 0 5 10 15 20 25 30 35 SD RL 0 5 10 15 20 25 30 35 SD RL 0 5 10 15 20 25 30 35 SD RL 0 5 10 15 20 25 30 35 SD RL 0 5 10 15 20 25 30 35 SD RL −0.10 −0.05 0.00 0.05 0.10 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 OC Abweichung von τ O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C τ = 0.1 τ = 0.2 τ = 0.3 τ = 0.4 τ = 0.5 τ = 0.6 τ = 0.7 τ = 0.8 τ = 0.9 Abbildung 6.12: Simulationsergebnisse zur Laufla¨nge bei Unterstellung einer Gumbelcopula mit verschiedenen Kendalls τ Die Kontrollkarte erkennt sowohl eine Versta¨rkung als auch eine Abschwa¨chung des Zusammenhangs der Datenpunkte. Kendalls τ ist nichtsymmetrisch, siehe auch Abbildung 3.2. Es gilt mit steigenden Abha¨ngigkeiten zwischen den Variablen, dass fu¨r gleichbleibende Zuwa¨chse der τ -Werte kleinere Zuwa¨chse der ρ denselben Zu- sammenhang widerspiegeln. Das heißt, eine Erho¨hung von τ um einen festen Wert bewirkt ein geringeres Wachstum von ρ als eine Erniedrigung von τ um denselben Wert. Dies ko¨nnte erkla¨ren, warum die ARL und die SDRL einen Bogen hin zu den gro¨ßeren τ -Werten (verzo¨gertes Absinken der Werte rechts) zeigen. Dass die ARL mit wachsendem τ0 trotzdem so schnell sinkt, spricht fu¨r die Qualita¨t der Teststa- tistik. Die SDRL zeigt keine Auffa¨lligkeit; sie erscheint in sich konsistent und zur jeweiligen ARL passend. Die Karte ist damit also offenbar geeignet, die Struktur- konstanz der Daten zu u¨berwachen. Obwohl die ARL bei der Claytoncopula rechts von τ0 zuna¨chst schwa¨cher fa¨llt, sind die ARL fu¨r τ0 + 0.1 durchweg geringer als fu¨r τ0 − 0.1: Ansteigende Zusam- menha¨nge werden also - nach einer kurzen U¨bergangszeit - schneller erkannt als ein abschwa¨chender Zusammenhang zwischen Merkmalen. In der Praxis du¨rfte dieser Fall auch der interessantere sein, da beispielsweise in der Finanzo¨konometrie ein versta¨rkter Zusammenhang zwischen Aktienrenditen auf Krisen hinweisen kann. Fu¨r die Gumbelcopula zeigen die Simulationen a¨hnliche Resultate, Abweichungen in der Zusammenhangsstruktur werden sicher erkannt und auch hier sinken die ARL 80 und die SDRL schneller mit wachsendem Zusammenhang zwischen den Datenpunk- ten. Dabei ist ein schnelleres Absinken links von τ0 als rechts davon zu erkennen, die SDRL zeigt also dieselbe Tendenz wie die ARL. Auch die Beobachtung ist durch die unsymmetrischen τ erkla¨rbar. Die OC-Funktion liefert weitere Hinweise zur Gu¨te der Karte: Je steiler sie abfa¨llt, desto besser ist die zugrundeliegende Kontrollkarte. Auffa¨llig sind die durchga¨ngig relativ hohen OC-Werte fu¨r Merkmale, die nur einen schwachen Zusammenhang haben. Fu¨r kleine τ ist es relativ wahrscheinlich, den Prozess irrtu¨mlich als unter Kontrolle anzusehen. Diese Wahrscheinlichkeit liegt fu¨r τ0 ≤ 0.4 bei 90%, wenn die Abweichung ±0.1 betrachtet wird (siehe Tabelle B.2 und B.3). Ein direkter Vergleich mit der ARL zeigt allerdings auch, dass die betrachteten Kontrollkarten fu¨r τ0 = 0.4 und einem wahren τ = 0.3 beziehungsweise τ = 0.5 schon dreimal so ha¨ufig ablehnen wie fu¨r τ = 0.4. Werden dagegen sta¨rker zusammenha¨ngende Daten betrachtet, so fa¨llt die OC- Funktion relativ schnell. Insgesamt zeigt die Simulationsstudie die Fa¨higkeit der Kontrollkarten, Daten anhand ihrer Zusammenhangsstruktur zu u¨berwachen. Fu¨r den praktischen Ge- brauch ist zu erwarten, dass hauptsa¨chlich Daten mit offensichtlichem Zusammen- hang u¨berwacht werden, die also ein vergleichsweise großes Abha¨ngigkeitsmaß τ0 besitzen. Gerade fu¨r diese Fa¨lle ist die vorgestellte Kontrollkarte geeignet. 6.3.3 Approximation der Grenzwerte am Beispiel der Claytoncopula Die verwendeten Integrale des Abschnitts 6.2.2 liefern die exakten Ergebnisse fu¨r ucl(e) und lcl(e) in Abha¨ngigkeit von der zugrundeliegenen Copula. Eine Betrach- tung dieser Grenzwerte la¨sst vermuten, dass sie durch Funktionen angena¨hert wer- den ko¨nnen (siehe beispielsweise Abbildung 6.10). Wa¨hrend bei der Integration stu¨ckweise Grenzwerte fu¨r Intervalle von E berechnet werden, bietet eine gute Ap- proximation den Vorteil stetiger Grenzen - damit ist im besten Fall eine genauere Einscha¨tzung der untersuchten Stichprobe mo¨glich. Ein weiterer Vorteil angepasster Grenzwerte wa¨re die U¨bertragbarkeit auf Zwischenwerte des Zusammenhangsma- ßes τ . So la¨gen in der praktischen Anwendung der Karte fu¨r beliebige τ direkt die 81 entsprechenden Grenzwerte vor. Es werden Funktionen fu¨r die Clayton-Grenzen konstruiert, eine analoge U¨bertra- gung des Vorgehens auf jede andere Copulastruktur ist problemlos mo¨glich. Stu¨ckweise Anpassung mit Hilfe von Polynomen Die Grenzwerte ko¨nnen nicht ausreichend gut durch nur eine stetige Funktion u¨ber den gesamten Wertebereich von e approximiert werden. Eine Aufteilung in drei Teil- abschnitte liefert die besten Resultate. Zur Bestimmung der Abschnitte wird das Maximum der lcl- beziehungsweise ucl- Kurve betrachtet. In einem Intervall von ±0.05 um dieses Maximum wird eine Pa- rabel angepasst, rechts und links davon Polynome dritten Grades. Es wird somit zuna¨chst das e bestimmt, fu¨r das der Grenzwert cl = ucl oder cl = lcl sein Maximum erreicht, also emax := argmax e cl(τ). Sowohl max cl(τ) als auch das dazugeho¨rige emax ha¨ngen nach Konstruktion vom Zusammenhang der urspru¨nglich betrachteten Variablen ab. Die gesuchten Werte lassen sich mit Hilfe der Formeln emax = 0.5326801 + 0.7549989τ + 0.0011910τ2 fu¨r die lcl emax = 0.5161385 + 0.7474091τ + 0.0014055τ2 fu¨r die ucl anna¨hern. Die Gu¨te der Anna¨herung betra¨gt fu¨r die lcl-Funktion etwa 0.94 und fu¨r die ucl-Funktion rund 0.92. Anschließend werden die Grenzwerte cl in drei Abschnitten angepasst: r =            a) βa,1e+ βa,2e2 + βa,3e3 fu¨r e < argmax e cl(τ)− 0.05 b) βb,0 + βb,1e+ βb,2e2 sonst c) βc,0 + βc,1e+ βc,2e2 + βc,3e3 fu¨r e > argmax e cl(τ) + 0.05 Tabelle 6.1 beinhaltet die Modellparameter fu¨r ausgewa¨hlte τ fu¨r den Fall cl = lcl, Abbildung 6.13 zeigt die Approximation der Grenzen mit Hilfe der Funktionen a) 82 bis c) und den Parametern aus Tabelle 6.1. Die Anpassungsgu¨te ist dabei sehr hoch, sie liegt fu¨r alle betrachteten Fa¨lle u¨ber 0.98. Abschnitt a) Abschnitt b) Abschnitt c) τ emax βa,1 βa,2 βa,3 βb,0 βb,1 βb,2 βc,0 βc,1 βc,2 βc,3 0.1 0.61 0.25 -0.07 0.03 -0.99 3.14 -2.16 0.03 0.58 -0.71 0.20 0.2 0.68 0.22 -0.06 0.01 -0.59 1.93 -1.29 -0.19 1.08 -1.09 0.30 0.3 0.76 0.18 -0.03 -0.01 -0.28 0.99 -0.63 -0.38 1.48 -1.37 0.36 0.4 0.83 0.14 0.00 -0.03 -0.20 0.69 -0.41 -0.59 1.90 -1.65 0.43 0.5 0.91 0.10 0.03 -0.04 -0.20 0.61 -0.33 -1.04 2.87 -2.36 0.60 0.6 0.99 0.07 0.02 -0.02 -0.19 0.52 -0.27 -1.47 3.75 -2.96 0.74 0.7 1.06 0.05 0.01 -0.01 -0.25 0.57 -0.27 -3.19 7.59 -5.82 1.45 0.8 1.14 0.03 0.00 0.00 -0.19 0.39 -0.17 -4.64 10.57 -7.87 1.92 0.9 1.21 0.01 0.00 0.00 -0.16 0.29 -0.12 -16.08 35.46 -25.94 6.30 Tabelle 6.1: Parameterscha¨tzer und emax fu¨r verschiedene Zusammenhangsmaße τ bei Un- terstellung einer Claytoncopula fu¨r die untere Kontrollgrenze lcl 0.0 0.4 0.8 1.2 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 lcl e r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 τ = 0.1 τ = 0.2 τ = 0.3 τ = 0.4 τ = 0.5 τ = 0.6 τ = 0.7 τ = 0.8 τ = 0.9 0.0 0.4 0.8 1.2 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 ucl e r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 r 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 Abbildung 6.13: Approximierte Kontrollgrenzen (gestrichelt) verglichen mit den wahren Kontrollgrenzen (grau, durchgehend) Die Parameterscha¨tzer aus Tabelle 6.1 gelten fu¨r die aufgefu¨hrten τ . In einem zwei- ten Schritt soll eine Verallgemeinerung der Formeln auf τ -Zwischenwerte gefunden werden. Es zeigt sich, dass fu¨r die Parameterscha¨tzer kein funktionaler Zusammen- hang in Abha¨ngigkeit von τ existiert, der ausreichend gute Resultate liefert. Die kleinen Abweichungen in den β-Werten fu¨hren relativ schnell zu Abweichungen in der Anpassung. Dadurch werden die Funktionen als Grenzwerte zu ungenau. Fu¨r 83 gute Approximationen sollten demzufolge zuna¨chst einige Grenzwerte fu¨r das inte- ressierende τ simuliert und dann die Modelle entsprechend der gezeigten Formeln angepasst werden. Anpassung mit Hilfe von Splines Die Anpassung durch Polynome aus dem vorherigen Abschnitt hat den großen Nach- teil, dass zwischen den stu¨ckweise angepassten Funktionen in der Regel Sprungstellen auftreten. Eine Alternative bietet die Anpassung durch Splines. Ein kubischer Spline ist eine Funktion, die stu¨ckweise aus Polynomen maximal dritten Grades zusammengesetzt ist. Stellen, an denen zwei Polynomstu¨cke zusammenstoßen (”Knoten“), mu¨ssen be- stimmte Bedingungen erfu¨llen, etwa dass der Spline zweimal stetig differenzierbar ist. Durch diese Forderung entsteht eine glatte Kurve ohne Sprungstellen. Fu¨r die vorliegenden Daten zeigt sich, dass im Intervall [0, √ 2] mindestens 12 Knoten no¨tig sind, um die lcl- und ucl-Daten gut anzuna¨hern. Pro Grenzfunktion werden also mindestens 11 Polynome betrachtet. Verglichen mit den 4 Knoten und 3 Polynomen des letzten Abschnittes ist dieser Wert zu hoch. Die große Diskrepanz in der Anzahl beno¨tigter Teilstu¨cke ist durch die Forderung der zweifachen stetigen Differenzierbarkeit erkla¨rbar. Die Verallgemeinerung der Funktionen auf Zwischenwerte von τ beziehungsweise die Darstellung in Abha¨ngigkeit von τ gelingt hier nicht. Fazit Die gefundenen Approximationen der Grenzwerte scheinen beide fu¨r die Praxis nicht geeignet. Die exakte Berechnung der Grenzwerte fu¨r festes τ stellt einen u¨berschaubaren Aufwand dar. Außerdem entfallen bei der Verwendung genauer Wer- te mo¨gliche Rundungsnachteile. Daher wird dieser Ansatz nicht weiter verfolgt und nachfolgend die Integraldarstellung der Grenzfunktionen verwendet. 84 6.4 Vergleich mit Steigers Z-Test Im Folgenden wird die Gu¨te der vorgestellten Kontrollkarte mit Steigers Z-Test aus Abschnitt 4.6 verglichen. Dieser setzt anna¨hernd bivariat normalverteilte Daten voraus. Wie mehrfach erwa¨hnt, ist der Schluss von univariat normalverteilten Daten auf ei- ne bivariate Normalverteilung als gemeinsame Verteilung ein ha¨ufiger Fehler. Daher soll das Verhalten der Laufla¨nge fu¨r den Fall untersucht werden, dass eine auf Stei- gers Z-Test basierende Kontrollkarte irrtu¨mlich auf Copuladaten angewandt wird. Grafik 6.14 zeigt die Simulationsergebnisse fu¨r Datenpunkte einer Claytoncopula unter Nutzung verschiedener Abha¨ngigkeitssta¨rken der Datenpunkte. Die Steiger- Grenzen wurden derart gewa¨hlt, dass die ARL unter Kontrolle das gleiche Niveau wie die neu konstruierte Karte erreicht. Die ARL unter Kontrolle ist im Mittel 36.63 (α = 0.0273). Wie im vorherigen Kapitel wurde n = 30 und N = 20000 gewa¨hlt. Die Kontrollkarte nach Steiger erweist sich als deutlich schlechter als die neu entwickelte Karte. Schon fu¨r vergleichsweise kleine τ unterschreitet sie das ange- strebte Niveau massiv. Das Maximum der ARL stimmt nicht mit dem gewa¨hlten τ0 u¨berein, sondern verschiebt sich immer weiter nach rechts. Dieses Verhalten ist durch die Form der Claytoncopula erkla¨rbar, deren Datengewicht unsymmetrisch um den Datenschwerpunkt verteilt ist, wohingegen normalverteilte Werte punktsymmetrisch um den Datenursprung streuen. Tabelle 6.2 und Abbildung 6.14 verdeutlichen noch einmal, dass der Steigertest im Vergleich zur R-Karte versagt. Verglichen wurden nur mittlere Abha¨ngigkeiten zwischen den betrachteten Merkmalen (τ = 0.3 bis τ = 0.7). Dadurch wird der Effekt besonders deutlich. τ = 0.3 0.4 0.5 0.6 0.7 ARL R-Karte 36.84 36.84 36.83 36.54 36.60 ARL Steigers Z-Test 23.67 21.86 18.91 13.76 8.13 Tabelle 6.2: ARL-Simulationsergebnisse bei Unterstellung einer Claytoncopulastruktur fu¨r die R-Karte im Vergleich zu Steiger’s Z-Karte fu¨r verschiedene τ 85 −0.10 −0.05 0.00 0.05 0.10 0 10 20 30 ARL: R−Karte Abweichung von τ AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L −0.2 −0.1 0.0 0.1 0.2 0 10 20 30 ARL: Z−Karte Abweichung von τ AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L 0 10 20 30 AR L τ = 0.3 τ = 0.4 τ = 0.5 τ = 0.6 τ = 0.7 −0.10 −0.05 0.00 0.05 0.10 0 10 20 30 SDRL: R−Karte Abweichung von τ SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL −0.2 −0.1 0.0 0.1 0.2 0 10 20 30 SDRL: Z−Karte Abweichung von τ SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL 0 10 20 30 SD RL τ = 0.3 τ = 0.4 τ = 0.5 τ = 0.6 τ = 0.7 −0.10 −0.05 0.00 0.05 0.10 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 OC−Funktion: R−Karte Abweichung von τ O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C τ = 0.3 τ = 0.4 τ = 0.5 τ = 0.6 τ = 0.7 −0.2 −0.1 0.0 0.1 0.2 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 OC−Funktion: Z−Karte Abweichung von τ O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 O C Abbildung 6.14: Simulationsergebnisse zu ARL, SDRL und OC-Kurve bei Unterstellung ver- schiedener Claytoncopulas zum Vergleich Steiger’s Z-Karte und derR-Karte 86 6.5 Anwendungen 6.5.1 Beispiel I: Aktienrenditen Ein Beispiel zeigt die Anwendung der Karten aus Kapitel 6 auf Finanzmarktdaten. Renditedaten werden miteinander verglichen und in Beziehung zum DAX gesetzt. Die Theorie des ”Diversication Meltdowns“ (”Zusammenbruch der Risikostreuung“) besagt, dass sich die Abha¨ngigkeit von Aktienkursen in Zeiten wirtschaftlicher Ab- schwu¨nge versta¨rkt (siehe etwa Campbell et al. (2008)). Eine Vera¨nderung des ge- meinsamen Verhaltens kann daher ein Anzeichen fu¨r eine bevorstehende Unruhe im Finanzmarkt sein, so dass es sich anbietet, die gemeinsame Abha¨ngigkeitsstruktur verschiedener ”Indikatoraktien“ zu u¨berwachen. Nachfolgend werden Finanzmarktdaten fu¨r den Zeitraum Januar 2003 bis Februar 2010 ausgewertet; die Entwicklung des Zusammenhangs zwischen Renditen zweier geeigneter Aktien wird vor dem Hintergrund der weltweiten Banken- und Finanz- marktkrise betrachtet, die 2007 begann und bis in die Gegenwart reicht. Auslo¨ser der Unruhe war die Subprime-Krise in den USA. Viele Staaten versuchten durch spezi- elle Rettungspakete entgegenzusteuern. Die Betrachtung in diesem Beispiel erfolgt auf Grundlage der DAX-Firmen BASF und BAYER und wird daher vor allem mit der deutschen Entwicklung verglichen. Beide Firmen sind weltweit agierende Che- miekonzerne. Ein a¨hnliches Verhalten beider Aktienkurse kann also angenommen werden. Der Bereich Chemie ist zudem ein guter Indikator fu¨r gesamtwirtschaftliche Tendenzen, da es sich um typische Zuliefererbranchen handelt. Interessierendes Merkmal ist in diesem Fall die (zeitdiskret) Rendite einer Aktie (tageweise gemessen). Betrachtet werden Xi1 = Rendite von BASF am i-ten Tag und Xi2 = Rendite von BAYER am Tag i. Das Streudiagramm der Renditen beider Aktien (Abbildung 6.15, links) zeigt einen deutlichen Zusammenhang; Abbildung 6.15 zeigt außerdem die Ho¨henlinien von zwei mo¨glichen Verteilungen. Die Claytoncopula passt die Daten besser an. Der ML- Scha¨tzer fu¨r den Parameter der Claytoncopula ist θ = 1.746 (ML-Wert von 285.3) 87 und fu¨r die Normalcopula gilt ρ = 0.629 (ML-Wert von 267.5). Zur Modellierung der gemeinsamen Verteilung der BASF- und BAYER-Renditen wird im Folgenden somit eine Claytoncopula mit θ = 1.746 verwendet. Abbildung 6.15: Ursprungsdaten und Konturlinien der angepassten gemeinsamen Verteilung Zur Erstellung der Karte werden statt der Renditenpaare (Xi1, Xi2) die daraus gebildeten Wertepaare ri (Formel (6.1)) und ei (Formel (6.2)) verwendet. Fu¨r das vorliegende τˆ = 0.47 sind die Grenzwerte lcl und ucl fu¨r τ=0.5 aus Abbildung 6.10 geeignet, um die Ri anhand von (ri, ei) zu bestimmen. Die R-Werte, also die nach Gleichung (6.4) kumulierten Ri, bilden schließlich die Entscheidungsgrundlage, ob zu einem Zeitpunkt die Kurse der betrachteten Aktien ”zu starke“ oder ”zu schwache“ Abha¨ngigkeit voneinander zeigen. Die R-Statistik basiert auf den letzten 30 Werten. Die Reaktionszeit der Karte hat daher eine Verzo¨gerung von bis zu 30 Tagen, die beru¨cksichtigt werden muss. Mit der unte- ren Grenze LCL= 22 und der oberen Grenze UCL= 38 ergibt sich fu¨r die Karte das Niveau α ≈ 0.02734. Abbildung 6.16 visualisiert die Ergebnisse der beschriebenen Karte, die grauen vertikalen Linien markieren Werte, fu¨r die der Prozess als außer Kontrolle klassifi- ziert wird. Von den 788 untersuchten Zeitfenstern liegen 68 außerhalb der Grenzwerte, 34 davon u¨ber der oberen Grenze. Diese Abweichung nach oben spricht nach der Theo- rie des ”Diversication Meltdowns“ fu¨r eine Anspannung des Finanzmarktes zu die- sem Zeitpunkt. Nach unten abweichende Werte wu¨rden demzufolge fu¨r eine un- 88 gewo¨hnliche Entspannung an den Bo¨rsen sprechen und sind fu¨r unsere U¨berlegungen zuna¨chst uninteressant. Grob ko¨nnen diese Daten in zwei Zeitabschnitte eingeteilt werden: Anfang 2008 (hauptsa¨chlich Mitte Februar) und Anfang 2009 (konzentriert auf den Zeitraum von Ende Februar bis Mitte April). Um diese Spitzen zu erkla¨ren, werden die genannten Zeitra¨ume mit dem Verlauf der Finanzmarktkrise in Verbin- dung gebracht. R−Karte (BASF−BAYER) im Vergleich zum DAX 4000 5000 6000 7000 8000 2007 2008 2009 2010 15 20 25 30 35 40 45 Jahr R− W er te DA X DAX−Kurs R−Werte abgelehnte Werte Abbildung 6.16: R-Karte fu¨r die gegebenen BASF- und BAYER-Renditen im Vergleich zum DAX-Kurs mit markierten Außer-Kontrolle-Punkten) Die erste Zeitspanne la¨sst sich mit einer ”Achterbahnfahrt“ der Aktienpreise im Januar 2008 erkla¨ren, die durch die Angst der Anleger vor einer US-Rezession und den daraus resultierenden Folgen fu¨r den Weltmarkt entstand. Am 25.01.2008 ver- abschiedet der US-Kongress ein 150-Milliarden-Dollar-Konjunkturprogramm, um ei- ne Rezession zu verhindern. In Deutschland ku¨ndigte die Regierung am 13.02.2008 staatliche Unterstu¨tzung fu¨r die IKB Deutsche Industriebank an, was als Stoppsignal des Diversication Meltdowns interpretiert werden kann. Im Zeitbereich der zweiten Phase auffa¨lliger Werte erreichte die Finanzkrise ih- 89 ren Ho¨hepunkt: Die Weltwirtschaft rutscht immer sta¨rker in die Krise und auch in Deutschland ha¨ufen sich Negativmeldungen. Im Februar 2009 wurde die Hypo Real Estate von der deutschen Regierung mit 102 Milliarden Euro gestu¨tzt, was zu Forde- rungen fu¨hrt, die Bank zu verstaatlichen. Im Ma¨rz ist die Frage bestimmend, ob der deutsche Staat die General-Motors-Tochter Opel retten sollte. Rettungspla¨ne der Konzernspitze beinhalten meist massive Stellenstreichungen und stoßen auf Kritik. Als Wendepunkt kann der 31. Ma¨rz angenommen werden: Hier verspricht Bundes- kanzlerin Dr. Angela Merkel staatliche Hilfe bei der Investorensuche fu¨r Opel und zeigt sich zu mo¨glichen Bu¨rgschaften bereit. Am 7. April beschließt die Bundesre- gierung außerdem eine massive finanzielle Aufstockung der sogenannten ”Abwrack- pra¨mie“. Eine Entspannung des Marktes folgt und im Mai gibt es wieder gute Nach- richten: Der Staat besitzt nun 47.31% der Hypo Real Estate und Opel gilt aufgrund der angeku¨ndigten U¨bernahme durch den Zulieferer Magna als vorerst gerettet. 6.5.2 Beispiel II: Schra¨gseilbru¨cken Geraten Bauwerke oder technische Einrichtungen in Schwingungen, ist das Resul- tat unter Umsta¨nden verheerend. Durch gleichma¨ßig wiederkehrende Anregung von außen ”schaukelt“ sich die Bewegung auf und es kommt im schlimmsten Fall zur U¨berlastung des Materials. Beispiele dafu¨r sind der Einsturz der Broughton Suspen- sion Kettenbru¨cke (England) von 1831. Dieser Einsturz wurde durch marschierende Soldaten verursacht, die mit ihrer gleichfo¨rmigen Trittfrequenz die Eigenschwin- gung der Bru¨cke ”aufpeitschten“. Detailliertere Informationen dazu liefern Taylor und Phillips (1881). Um diese sogenannten Resonanzkatastrophen zu verhindern, gibt es verschiede- ne Ansa¨tze. Maßnahmen zur gu¨nstigen Beeinflussung des Verhaltens erkla¨ren Dre- sig und Holzweißig (2011) fu¨r verschiedene dynamische Effekte. Ein Ansatz sind Schwingungsda¨mpfer; das weltgro¨ßte Tilgerpendel (im Taipei Financial Center) er- streckt sich beispielsweise u¨ber mehrere Stockwerke. Ferner wird versucht, so zu bauen, dass die Eigenfrequenz des Systems, also das Schwingungsverhalten nach einmaliger Anregung, nicht von der erwarteten a¨ußeren Anregung versta¨rkt wird. So werden in Erdbebengebieten die lokal typischen Schwingungsfrequenzen der Erd- erschu¨tterungen bei Bau- und Tra¨gerkonstruktionen beru¨cksichtigt. Im Flugzeug- 90 bau, bei Eisenbahntunneln, Autobahnen oder Unterfu¨hrungen treten ebenfalls hohe Schwingungsbelastungen auf, die bedacht werden mu¨ssen. Auch die Schwingungsu¨berwachung von Maschinen ist sinnvoll: Beginnende Scha¨- den sind oft fru¨hzeitig durch Vera¨nderungen im Schwingungsspektrum feststellbar. In diesem Kapitel wird eine Schra¨gseilbru¨cke betrachtet. Abbildung 6.17 zeigt schematisch den Aufbau einiger Schra¨gseilbru¨cken. Die Grafik wurde von Mehlhorn (2007) vero¨ffentlicht. Er liefert in der angegebenen Quelle außerdem weiterfu¨hrende physikalische Erla¨uterungen zu verschiedenen Bru¨ckenarten. Schra¨gseilbru¨cken sind Abbildung 6.17: Skizze verschiedener Schra¨gseilbru¨cken: Bu¨ndelsystem (oben), Harfensys- tem (Mitte) und Fa¨chersystem (unten), urspru¨nglich Abbildung 5.5.1 aus Mehlhorn (2007) dadurch gekennzeichnet, dass der U¨berbau an Seilen aufgeha¨ngt ist, die schra¨g von einem Pfeiler gespannt sind. Beispiele fu¨r diese Bru¨ckenkonstruktion sind die mo- mentan im Bau befindliche Russki-Bru¨cke (Vladiwostok, 3100 Meter La¨nge), die Fleher Bru¨cke (Du¨sseldorf, 1166 Meter), die Rheinbru¨cke Neuwied - Raiffeisenbru¨cke (485 Meter) oder die Severinbru¨cke (Ko¨ln, 691 Meter). 91 Schra¨gseilbru¨cken sind empfindlich gegen Windkra¨fte und ko¨nnen durch große bewegliche Massen - etwa Gu¨terzu¨ge oder LKW-Korsos - in Bewegung gebracht werden. Dabei ist es insbesondere gefa¨hrlich, wenn die einzelnen Fahrbahnteile in eine gleichgerichtete Bewegung geraten oder genau entgegengesetzt schwingen. Sensoren erfassen die Schwingamplitude in der Mitte des Tragseils, also dessen ma- ximale Auslenkung. Um Materialscha¨den oder schlimmstenfalls einem Versagen der Tragfa¨higkeit vorzubeugen, werden Bru¨cken fu¨r den Verkehr gesperrt, sobald die Umgebungsbedingungen zu schlecht werden. Kriterien ko¨nnen hohe Windsta¨rken, Hagel oder durch Eisbildung vera¨nderte Tragseileigenschaften sein. Die Belastbar- keitsgrenze ist dabei bru¨ckenspezifisch verschieden. Ferngesteuerte Seilda¨mpfungssysteme mit aktiv beeinflussbarem Widerstand ko¨n- nen dazu beitragen, Sperrungen zu vermeiden. Diese werden bisher aber nur verein- zelt eingesetzt. Ein Regelalgorithmus reagiert dabei auf aktuelle Seilschwingungen und vergro¨ßert die Da¨mpfkraft fu¨r sta¨rker schwingende Seile. Bei einem Stromausfall arbeiten die Systeme mit einer Grundda¨mpfungskraft; daher ist das System relativ sicher. Ein aktuelles Forschungsprojekt dazu betreibt die Firma EMPA - Material Science & Technology, ein Forschungs- und Dienstleistungsinstitut fu¨r Materialwis- senschaften und Technologieentwicklung (siehe EMPA (2012)). Nachfolgend werden zwei Tragseile betrachtet. Gefa¨hrlich sind eine starke A¨hn- lichkeit oder ein stark entgegengesetztes Verhalten im Schwingungsverhalten beider Seile. Solche Schwingungen sind ein Indikator fu¨r Resonanzversta¨rkung. In diesem Fall sollte Alarm ausgelo¨st werden. Nachfolgend wird eine zweispurige Schra¨gseil- autobahnbru¨cke von etwa 500 Metern La¨nge mit einem Stu¨tzpfeiler betrachtet. Im Idealzustand ist das Seil gespannt und wird nur durch normale Verkehrsbelastung bewegt. Zur Entwicklung einer geeigneten Qualita¨tsregelkarte muss die Schwingbewegung der Seile erfasst werden. Die dazugeho¨rige Formel gibt die Auslenkung y(t) zum Zeitpunkt t an. Eine ungeda¨mpfte Schwingung la¨sst sich beschreiben durch y(t) = y0 · sin(2πft+ ϕ0), wobei y0 den Wert der Amplitude, t die Zeit, f = 1/T die Frequenz und ϕ0 die 92 Anfangsphase der Schwingung darstellt. Abbildung 6.18 zeigt die Kenngro¨ßen zur Charakterisierung einer Schwingbewegung, vergleiche auch Dresig und Holzweißig (2011). Abbildung 6.18: Schaubild der verschiedenen Schwingungsvariablen Physikalische Systeme sind dagegen fast immer geda¨mpft. Im Falle von Tragseil- schwingung beispielsweise durch Luftreibung, die genannte Schwingungsformel wird dann entsprechend erweitert, um das Abklingen der Funktion darzustellen. Diese lautet dann y(t) = y0 · δe− t β · sin(2πft+ ϕ0). Die Abklingkonstante δ und die Abklingdauer β beschreiben dabei die Form des Abklingens der Schwingung. Im normalen Verkehrsbetrieb u¨berlagern sich viele Reize an den Tragseilen. Etwas Bewegung ist immer zu verzeichnen, eine totale Ruheposition der Tragseile ist in der Praxis nicht zu erwarten. Die Messwerte der absoluten Amplituden sind normalver- teilt fu¨r jedes einzelne Seil. Durch die Konstruktion der Bru¨cke ist eine Unabha¨ngigkeit in dem Verhalten der Tra¨gerseile nicht realistisch. Das gemeinsam betrachtete Schwingverhalten von zwei und mehreren Seilen unterliegt einer bestimmten Abha¨ngigkeitsstruktur. Fu¨r klei- nere Sto¨ße gibt es kaum ”Interaktion“ zwischen den Seilen, sie wirken lokal sehr be- grenzt. Die Tragseile verhalten sich dadurch im Ruhezustand der Bru¨cke relativ un- abha¨ngig zueinander. Sta¨rkere Anreize bewirken ho¨here Schwingamplituden bei den 93 einzelnen Seilen, ihre Wirkung ist außerdem lokal weiter ausgedehnt bis hin zu glo- balen Tendenzen, die die gesamte Bru¨ckenkonstruktion betreffen. Die Abha¨ngigkeit der Schwingungen untereinander wa¨chst also fu¨r sta¨rkere Auslenkungen. Anhand dieser theoretischen U¨berlegungen la¨sst sich die gemeinsame Bru¨cken- schwingung zweier Tragseile modellieren. Methoden der Zeitreihenanalyse werden dafu¨r bewusst nicht verwendet. Beispiels- weise wa¨re eine (mathematisch sinnvolle) Saisonbereinigung kontraproduktiv, da diese Kra¨fte effektiv an den Seilen auftreten und daher zu beru¨cksichtigen sind. Ein auftretender Trend sollte auch nicht eliminiert werden. Im Optimalfall sollte kein Trend auftreten. Werden trotz eingespannter Tragseile die Ausschla¨ge tenden- ziell gro¨ßer, so kann das beispielsweise auf Materialermu¨dung in den Seilen oder Aufha¨ngungen hinweisen. Am sinnvollsten erscheint daher eine gemeinsame Dar- stellung ohne vorherige Komponentenzerlegung des Schwingverhaltens. Die Amplituden beider Seile werden in Abha¨ngigkeit von der Maximalauslenkung betrachtet. Je gro¨ßer die U¨bereinstimmung beider Werte wird, umso eher besteht auch die Gefahr einer gleichfo¨rmigen Schaukelbewegung der Bru¨cke. Mo¨glichkeiten zur Modellierung extremer Wellenho¨hen und -perioden durch Co- pulas erla¨utert de Waal (2005). Sriramula et al. (2005) und Srinivas et al. (2006) stellen die Simulation und Abha¨ngigkeitsmodellierung von Achsenbelastungen an Fahrzeugen dar, unter anderem werden auch dort Copulas genutzt. Diese Model- le sind in a¨hnlicher Form auf Autobahnbru¨cken u¨bertragbar (siehe etwa Srinivas (2006)). Caprani et al. (2012) beschreiben das dynamische Verha¨ltnis von statischer zur Gesamtbelastung auf Bru¨cken mit Hilfe von (Gumbel-)Copulas. Die gemeinsame Verteilung der Amplituden zweier Tragseile in Abha¨ngigkeit von der Maximalauslenkung (y1(t), y2(t))⊤ kann dementsprechend durch eine Gumbel- copula mit dem Parameter θ und zwei normalverteilten Ra¨ndern modelliert werden. Stellt man den Grad der Abha¨ngigkeit in Beziehung zu Kendalls τ , so fa¨llt dieses unter Ruhebelastung eher klein aus. Inhaltlich ist die Wahl der Verteilung durch die Entstehung der Schwingbewe- gung begru¨ndet. Zugrunde gelegt wird eine geda¨mpfte Schwingung, die sich aus je- dem ”Schock“, also jeder plo¨tzlichen Krafteinwirkung, auf das Tragseil ergibt (siehe 94 Abbildung 6.19, links). 0 10 20 30 40 −0 .5 0. 0 0. 5 gedämpfte Schwingung Zeit in Minuten Am pl itu de 0 10 20 30 40 −1 5 −5 0 5 10 15 einzelne Schwingbelastungen Zeit in Minuten Am pl itu de −1 5 −5 0 5 10 15 −1 5 −5 0 5 10 15 −1 5 −5 0 5 10 15 −1 5 −5 0 5 10 15 −1 5 −5 0 5 10 15 −1 5 −5 0 5 10 15 0 10 20 30 40 −1 0 −5 0 5 10 15 Bewegung des Tragseils Zeit in Minuten Am pl itu de Abbildung 6.19: Darstellung geda¨mpfter Schwingungen sowie von Tragseilschwingungen als Summe geda¨mpfter Schwingungen Diese Schocks treten - mehr oder weniger - zufa¨llig verteilt u¨ber die Zeit auf, beispielsweise bei jedem vorbeifahrenden Auto. Die Summe aller Einzelamplituden ergibt dann die Seilbewegung unter geringer Belastung, von einem Zusammenspiel mit anderen Seilen ist hier zuna¨chst nicht auszugehen. Gro¨ßere einwirkende Kra¨fte haben weitreichendere Auswirkungen. In der Praxis ist außerdem die Aufnahme eines Sto¨rterms in das Modell sinnvoll. Dieser ist in Abbildung 6.19 noch nicht beru¨cksichtigt. Fu¨r Abbildung 6.20 wurden zwei Datenreihen parallel zur dargestellten Schwin- gung in Abbildung 6.19 (rechts) konstruiert. Diese dienten als exemplarische Grund- schwingung zweier Tragseile. Die Schwingungen wurden jeweils mit einem standard- normalverteiltem Fehlerterm verrauscht. In der 17.5ten und der 28ten Minute wurden globale Schocks simuliert, die auf bei- de Tragseile gleichzeitig einwirken. Dabei handelt es sich wiederum um abklingende Schwingungen, die auf die Grundschwingung summiert wurden. Zur Vereinfachung werden die Schocks als ”mittig auftretend“ modelliert; sie wirken also bei beiden Tragseilen gleichzeitig mit gleicher Kraft. Das rechte Bild der Grafik zeigt die gegeneinander im Streudiagramm abgetrage- nen absoluten Amplituden. Dabei wird noch einmal deutlich, dass die Daten nicht 95 0 10 20 30 40 −5 0 5 10 Tragseil 1 Zeit in Minuten Am pl itu de in Z en tim et er n 0 10 20 30 40 −1 0 −5 0 5 10 Tragseil 2 Zeit in Minuten Am pl itu de in Z en tim et er n 0 5 10 15 20 0 5 10 15 20 Abhängigkeitsstruktur Amplitude 1 Am pl itu de 2 Abbildung 6.20: Vergleich zweier gekoppelter Belastungsdiagramme normalverteilt sind. Die abgebildeten Daten haben ML-Werte von 142.9 bei An- passung einer Claytoncopula, 146.0 bei der Wahl einer bivariaten Normalverteilung und 164.4 bei Unterstellung einer Gumbelcopula. Testla¨ufe mit analog konstruier- ten Schwingungen lieferten vergleichbare Resultate. Die Gumbelcopula ist also ein geeignetes mathematisches Instrument zur Modellierung der Abha¨ngigkeit beider Amplitudenreihen. Die entwickelte Qualita¨tsregelkarte ist auf diesen Sachverhalt anwendbar. Sie er- kennt, ob die Bru¨cke in gleichfo¨rmige Schwingungen gera¨t. Untersucht wird fu¨r ver- schiedene Zeitintervalle die These H0: Das gemeinsame Schwingverhalten der Tragseile folgt einer bestimmten festen Copulastruktur. Diese Struktur ergibt sich entweder aus Messungen in der Vergan- genheit oder aus baustatischen U¨berlegungen. H1: Die Abha¨ngigkeitsstruktur entspricht nicht der unter H0 beschriebenen. Im Folgenden werden Punkte der gemeinsamen Verteilung der Amplituden zweier Tragseile in Abha¨ngigkeit von der Maximalauslenkung (y1(t), y2(t))⊤ simuliert. Als Basis der Simulation dient eine Gumbelcopula. Der Copulaparameter wird entspre- chend der zu modellierenden Abha¨ngigkeit beider Seile (dargestellt durch Kendalls τ) gewa¨hlt. Abbildung 6.21 zeigt die R-Karte fu¨r vier verschiedene Szenarien. Oben links 96 −1 0 1 2 3 4 −1 0 1 2 3 Ursprungsdaten : τ = 0.2 Amplitude Seil 1 Am pl itu de S ei l 2 0 200 400 600 800 1000 0 10 20 30 40 R −Karte : τ = 0.2 Messung R− W er t −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 Ursprungsdaten : τ = 0.5 Amplitude Seil 1 Am pl itu de S ei l 2 0 200 400 600 800 1000 0 10 20 30 40 R −Karte : τ = 0.5 Messung R− W er t −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 Ursprungsdaten : τ = 0.8 Amplitude Seil 1 Am pl itu de S ei l 2 0 200 400 600 800 1000 0 10 20 30 40 R −Karte : τ = 0.8 Messung R− W er t Abbildung 6.21: Anwendung der R-Karte auf verschiedene Szenarien unter Nutzung der Gumbelcopula und τ0 = 0.2 97 ist der In-Kontrolle-Fall (τ = 0.2) abgebildet. In der Bildkomposition ist links ein Streudiagramm des Datensatzes dargestellt; rechts ist die zugeho¨rige Teststatistik in der Qualita¨tsregelkarte abgetragen, die Grenzwerte sind gekennzeichnet. Die anderen drei Grafiken zeigen die Auswirkung einer erho¨hten Gleichschwingung der Tragseile auf die Daten und die Qualita¨tsregelkarte. Die Bilder sind analog zum In-Kontrolle- Fall aufgebaut. Es wird deutlich, dass eine stark gleichma¨ßig gerichtete Schwingung gut erkannt wird. Von 971 betrachteten (zufa¨lligen) Testwerten liegen bei diesem Beispiel fu¨r τ = 0.2 42 außerhalb der Grenzen, fu¨r τ = 0.4 sind es 374, fu¨r τ = 0.6 liegen 831 außerhalb und fu¨r τ = 0.8 alle Datenpunkte. Auf weitergehende Simulationen wird verzichtet; die Laufla¨ngenversuche aus Abschnitt 6.3.2 sind hier u¨bertragbar. 6.6 Optimierung der Teststatistik Die bisherigen Kapitel zeigen, dass die gefundene Kontrollkarte geeignet ist, Ab- ha¨ngigkeitsa¨nderungen in den Daten nachzuweisen. Dieses Kapitel untersucht, inwie- weit eine A¨nderung der Grenzwerte lcl und ucl und eine entsprechende Anpassung von LCL und UCL zu besseren Resultaten fu¨hrt. Ein verbesserter Test ko¨nnte beispielsweise das gegebene Testniveau besser aus- scho¨pfen oder die ARL im Außer-Kontrolle-Fall schneller absinken lassen als der Test aus Abschnitt 6.1. Dort wurde als lcl das 25%-Quantil der Verteilung von r fu¨r ein gegebenes e gewa¨hlt. Fu¨r die ucl wurde analog das 75%-Quantil verwendet. So wird das ”mittlere Datenfeld“ mit Ri = 1 gleichma¨ßig erfasst. Daru¨ber (Ri = 2) und darunter (Ri = 0) liegende Datenpunkte treten im kontrollierten Prozess zu etwa gleichen Teilen auf. Damit gilt im Erwartungswert Ri = 1 fu¨r jeden Punkt der Datenmenge. Die Grenzwerte LCL und UCL ko¨nnen einfach als die entsprechenden Quantile einer Binomialverteilung bestimmt werden. Um zu erkennen, wie sich eine Verschiebung der Grenzwerte lcl und ucl auf die Gu¨te des Tests auswirkt, wird zuna¨chst die Verteilung der Summe der Zufallsvaria- blen Ri (Formel (6.3)) neu bestimmt. Dementsprechend sind die Grenzwerte LCL und UCL zu a¨ndern. Auf dieser Basis werden dann die Optimalita¨tskriterien ”ARL“ und ”Niveau“ betrachtet. 98 6.6.1 Verteilung der Grenzwerte lcl und ucl Die Gleichung P(ri ≤ lcl(ei)) = P(ri > ucl(ei)) = 0.25 aus Kapitel 6.1.2 ist jetzt nicht mehr erfu¨llt, stattdessen seien die einzelnen Ri unter H0 unabha¨ngig und identisch verteilt mit • P(Ri = 0) = p1, • P(Ri = 1) = 1− p1 − p2 und • P(Ri = 2) = p2. Die Wahrscheinlichkeit, dass die Summe der Ri einen bestimmten Wert x annimmt, la¨sst sich im Gegensatz zu Abschnitt 6.1.2, Formel (6.4) nicht durch eine bekannte Verteilung ausdru¨cken. Die einzelnen Wahrscheinlichkeiten fu¨r Auspra¨gungen der Summe u¨ber die Ri sind jedoch geschlossen darstellbar durch P( n ∑ i=1 Ri = x) = ⌊x/2⌋ ∑ j=0 n! 1(n− x+ j)!(x− 2j)!j!p (n−x+j) 1 (1− p1 − p2)(x−2j)p j 2. (6.12) Der Term ⌊x/2⌋ (Gaußklammerausdruck) steht dabei fu¨r den auf ganze Zahlen ab- gerundeten Wert von x2 . Die angegebene Wahrscheinlichkeit ergibt sich durch folgende U¨berlegung: Es ist • (n− x+ j) die Anzahl der Ri mit Ri = 0, • (x− 2j) die Zahl der Ri mit der Auspra¨gung 1 und • j die Anzahl der Ri mit der Auspra¨gung 2. Insgesamt werden n Ri mit der gemeinsamen Summe x betrachtet. Dabei ist x = 0 · (n− x+ j) + 1 · (x− 2j) + 2 · j = (x− 2j) + 2j. 99 Die Wahrscheinlichkeit, diese Summe mit (n− x+ j) Nullen, (x− 2j) Einsen und j Zweien zu erreichen, setzt sich zusammen aus der Anzahl mo¨glicher Anordnungen n! · [(n− x+ j)!(x− 2j)!j!]−1 multipliziert mit den Wahrscheinlichkeiten fu¨r die einzelnen Ergebnisse. Fu¨r p1 = p2 = 0.25 entsprechen die Resultate denen einer Binomialverteilung (siehe Formel 6.4), wie im Anhang A.2.3 exemplarisch fu¨r x = 0, x = 1 und x = 2 gezeigt wird. Zur Berechnung der Verteilung der Rn wird Formel 6.12 fu¨r alle in Frage kom- menden x bestimmt. Die summierten Wahrscheinlichkeiten entsprechen den Werten der Verteilungsfunktion. Da es sich um eine diskrete Verteilung handelt, wird das gewu¨nschte Niveau durch die gewa¨hlten Quantile in der Regel nicht exakt getroffen. Einige Wahrscheinlichkeitswerte p1 und p2 zeigt Tabelle 6.3. p1\p2 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0.1 25|35 27|39 30|42 32|46 35|49 38|52 40|55 44|57 46|60 α 0.024 0.026 0.046 0.031 0.037 0.039 0.025 0.042 0.008 0.2 21|33 23|37 25|40 28|44 30|47 33|50 36|53 38|56 α 0.027 0.030 0.038 0.037 0.035 0.039 0.040 0.020 0.3 18|30 20|35 22|38 24|42 27|45 29|48 32|52 α 0.047 0.038 0.044 0.036 0.046 0.042 0.026 0.4 14|28 16|32 18|36 20|40 23|43 26|46 α 0.032 0.037 0.036 0.031 0.041 0.038 0.5 11|25 13|30 15|33 17|37 20|40 α 0.038 0.035 0.046 0.041 0.043 0.6 8|22 10|27 12|31 14|34 α 0.040 0.039 0.042 0.038 0.7 5|20 7|24 8|28 α 0.026 0.040 0.026 0.8 3|16 4|22 α 0.043 0.020 0.9 0|14 α - Tabelle 6.3: Kontrollgrenzen UCL und LCL bei verschiedenen Wahrscheinlichkeiten p1 und p2 mit Angabe des zugeho¨rigen Niveaus α Als Rahmenbedingungen wurden n = 30 sowie α ≤ 0.05 gewa¨hlt. Das jeweils 100 tatsa¨chlich erreichte Niveau α wird mit angegeben. Fu¨r p1 = (1 − p2) ist lcl = ucl, da beide Grenzen dem gleichen Quantil der Verteilung entsprechen, beispielsweise gilt fu¨r den oberen rechten Tabelleneintrag p1 = (1− p2) = 0.1. Damit ist Ri = 0 fu¨r Werte unterhalb dieser Grenze, oberhalb gilt Ri = 2, die Auspra¨gung Ri = 1 kann nicht auftreten. Wird die Summe der Ri kleiner als 46 oder gro¨ßer als 60, ist der Prozess zum Niveau α = 0.008 als außer Kontrolle anzunehmen. Die Grenzwerte LCL und UCL ha¨ngen von p1 und p2 ab. Eine Erho¨hung des Wertes p1 bewirkt sinkende Grenzen, da tendenziell eher kleinere Ri-Werte vergeben werden. Die Kombination p1 = 0.7 und p2 = 0.1 sorgt beispielsweise dafu¨r, dass die meisten Ri (theoretisch 70%) null werden. Eine Erho¨hung von p2 bewirkt dagegen einen Anstieg der Grenzen, da hierbei der Bereich von Ri = 2 gro¨ßer ist. Die bisher verwendeten Grenzen fu¨r p1 = p2 = 0.25 passen sich mit LCL= 22 und UCL= 38 gut in die Tabelle ein. Zwei Optimierungsansa¨tze werden im Folgenden betrachtet: - n oder p1 und p2 variieren, um das Niveau zu optimieren (Abschnitt 6.6.2) - p1 und p2 variieren, um die ARL außer Kontrolle zu verbessern (Kapitel 6.6.3) 6.6.2 Niveauausscho¨pfung verbessern In Tabelle 6.3 wird die Kontrollkarte dahingehend optimiert, dass sie fu¨r n = 30 das 5%-Niveau mo¨glichst ausscho¨pft. Mit Beschra¨nkung auf eine Nachkommastelle liegt das Maximum bei den zu p1 = 0.3 sowie p2 = 0.1 geho¨renden lcl beziehungsweise ucl, LCL=18 und UCL=30 (α = 0.0469). Um das Niveau α besser auszureizen, ohne den Stichprobenumfang zu erho¨hen, werden p1 und p2 feiner gerastert. So ist es mo¨glich, das Niveau beliebig genau an- zuna¨hern. Fu¨r zwei Nachkommastellen wird α ≤ 0.05 beispielsweise gut mit den Wer- ten p1 = 0.42 und p2 = 0.3 und den Grenzen 18 und 35 realisiert (α = 0.04954), fu¨r drei Nachkommastellen wird das 5%-Niveau dagegen mit den Werten p1 = 0.235 und p2 = 0.63 und den Grenzen 33 und 50 bestmo¨glich angena¨hert (α = 0.04985). Der Rechenaufwand wa¨chst mit jeder zusa¨tzlich betrachteten Nachkommastelle deutlich, daher sollte die Unterteilung nicht zu fein gewa¨hlt werden. 101 Tabelle B.4 im Anhang B zeigt zusa¨tzlich, wie sich eine Erho¨hung der Stich- probengro¨ße n auf die Entwicklung des Niveaus auswirkt. Zur Verdeutlichung des Einflusses der Stichprobengro¨ße werden fu¨r p1 und p2 konstant zwei Nachkomma- stellen verwendet. Die gewa¨hlte Niveaugrenze von 0.05 wird fu¨r gro¨ßere Stichproben erwartungsgema¨ß eher erreicht als fu¨r kleinere. Durch die diskrete Verteilung erfolgt die Verbesserung der Niveauscho¨pfung nicht stetig, sondern es treten Spru¨nge und ”Ru¨ckschritte“ fu¨r ungu¨nstige Stichprobengro¨ßen auf. Um die praktische Umsetzung zu erleichtern, sollte n nicht zu groß werden. Fu¨r die Niveaueinhaltung ist der Vorteil gro¨ßerer Stichproben allerdings eher unbedeutend. In diesem Abschnitt wird nur betrachtet, wie gut das Testniveau ausgescho¨pft wird. Durch die diskrete Verteilungsfunktion ko¨nnen die Werte von p1 und p2 je nach Anzahl der Nachkommastellen vo¨llig verschieden ausfallen. Die Testgu¨te bleibt bei diesem Verfahren unberu¨cksichtigt. Dadurch ko¨nnen beispielsweise die ARL-Werte im Außer-Kontrolle-Fall sehr schlecht werden. Das Verhalten der ARL-Werte wird im na¨chsten Absatz untersucht. 6.6.3 ARL-Verhalten optimieren Im Folgenden wird untersucht, wie sich die Wahl der Grenzen lcl und ucl beziehungs- weise LCL und UCL auf das Verhalten der ARL auswirkt. Zur besseren Vergleich- barkeit der Resultate werden bei der Gu¨testudie weitestgehend konstante Bedingun- gen gewa¨hlt. Getestet werden verschiedene Grenzwerte unter den Voraussetzungen n = 30 und α ≤ 0.05. Beispielhaft wird das Abha¨ngigkeitsmaß τ0 = 0.5 betrachtet. Dafu¨r werden drei Prozesssituationen untersucht: a) deutlich außer Kontrolle: τ = 0.4 beziehungsweise τ = 0.6 b) außer Kontrolle: τ = 0.45 beziehungsweise τ = 0.55 c) unter Kontrolle: τ = 0.5 Fall c) dient der Plausibilita¨tspru¨fung, da sich die ARL unter Kontrolle durch das Niveau des jeweiligen Tests ergibt. Diese fu¨nf Stu¨tzwerte reichen aus, um die ARL der verschiedenen Grenzpaare zu vergleichen. Abbildungen 6.11 und 6.12 zeigen, dass die Funktionen global stetig sind. Sie steigen monoton bis zum Punkt τ = τ0 und fallen anschließend monoton. 102 Die Simulation erfolgt analog zu der aus Abschnitt 6.3.2. Jeweils N = 20000 Laufla¨ngen werden durch Monte-Carlo-Simulationen erzeugt und daraus die ARL- Werte gescha¨tzt. Um trotz unterschiedlicher Ausgangsniveaus α (siehe Tabelle 6.3) die ARL-Werte vergleichbar zu machen, wird der Wert unter H0 auf 1 gesetzt und die restlichen Werte diesem proportional angepasst. Somit liegen fu¨r die verschiedenen Szenarien durchschnittliche Laufla¨ngen zwischen 0 (außer Kontrolle) und 1 (unter Kontrolle) vor. Abbildung 6.22: Mittlere ARL-Werte fu¨r verschiedene p1-p2-Kombinationen Abbildung 6.22 zeigt die Ergebnisse der Simulation unter Annahme einer Clay- toncopula fu¨r verschiedene Kombinationen von p1 und p2 (orientiert an Tabelle 6.3). Dargestellt wird fu¨r jede p1-p2-Kombination das arithmetische Mittel ihrer vier ARL- Werte aus Situation a) und b). Wenn nachfolgend also von ”durchschnittlicher ARL im Außer-Kontrolle-Fall“ gesprochen wird, ist das Mittel dieser (beliebig gewa¨hlten) Punkte gemeint. Je kleiner dieser Wert ist, umso schneller werden Außer-Kontrolle- Situationen erkannt und umso besser ist die zugrundeliegende Kontrollkarte zur Problemlo¨sung geeignet. Die rechte Grafik visualisiert die Punkte in einem dreidimensionalen Fla¨chendia- gramm. Das Diagramm zeigt einen ”Gebirgskamm“. Er beginnt in der hinteren Ecke bei p1 = 0.8 und p2 = 0.1 beziehungsweise p2 = 0.2. Die durchschnittliche ARL be- tra¨gt hier etwa 73.3% der In-Kontrolle-ARL. Nicht erwu¨nschte Prozesssituationen 103 werden also erst spa¨t erkannt. Der Ho¨henzug verla¨uft diagonal bis zu p1 = 0.1 und p2 = 0.5 mit durchschnittlich 46.8% der urspru¨nglichen ARL. Die Karte lehnt dem- zufolge im Schnitt etwa doppelt so oft ab wie im kontrolliert ablaufenden Prozess. Fu¨r die Bereiche oberhalb und unterhalb dieser Diagonale sinkt die ARL im Außer- Kontrolle-Fall schneller. Im linken Bild werden Ho¨henlinien und Farbmarkierungen genutzt, um die inte- ressierenden Werte darzustellen. Beide Bilder erga¨nzen sich in ihren Informationen. Es wird deutlich, dass sowohl kleine als auch große Werte von p2 in Kombination mit kleinen p1-Werten das ARL-Verhalten optimieren. Diese Kombinationen liefern also die Karten mit den besten Gu¨teeigenschaften. Die bereits erla¨uterte Abbildung 6.5 veranschaulicht den Zusammenhang zwischen den Grenzwerten ucl und lcl. Ein gro¨ßeres p1 verschiebt die untere Grenze lcl nach oben, so dass fu¨r mehr Datenpunkte Ri = 0 gilt. Ein wachsendes p2 bewirkt dagegen, dass sich die obere Grenze ucl der Winkelhalbierenden na¨hert und dadurch mehr Ri-Werte den Wert 2 annehmen. Dieser Trend ist durch die Bedingung lcl < ucl begrenzt. Die vorliegende Simulationsstudie betrachtet sowohl sehr schmale als auch breite Bereiche mit Ri = 1: Zwischen 10% (fu¨r p1 = 0.1 und p2 = 0.8) und 80% (fu¨r p1 = 0.1 und p2 = 0.1) der Werte werden mit Ri = 1 klassifiziert. Nach der Interpretation von Abbildung 6.22 zeigen lcl-Funktionen aus kleinen p1-Werten, kombiniert mit ucl-Funktionen aus entweder kleinen oder großen p2- Werten das gewu¨nschte ARL-Verhalten. Am effektivsten scheint daher ein Streifen fu¨r Ri = 1 zu sein, der entweder • vergleichsweise schmal ist und dicht an der Winkelhalbierenden anliegt (0.1 ≤ p1 ≤ 0.3, 0.6 ≤ p2 ≤ 0.8) • oder relativ breit (0.1 ≤ p1 ≤ 0.3, 0.1 ≤ p2 ≤ 0.4) ist. Bei der ersten Variante erhalten die meisten Punkte den Wert Ri = 2 (60%-80%). Bei der zweiten Mo¨glichkeit ist Ri = 1 am ha¨ufigsten (30%-80%). Die Grenzwerte UCL und LCL fallen daher bei der ersten Variante gro¨ßer aus als bei der zweiten. Abbildung 6.23 zeigt geeignete p1-p2-Kombinationen, die sich anhand von Abbil- dung 6.22 ergeben. Der Plot oben links stellt die bisher verwendeten Quartile als 104 0.0 0.4 0.8 1.2 0. 0 0. 1 0. 2 0. 3 0. 4 ARL = 39.1 e r 0. 0 0. 1 0. 2 0. 3 0. 4 p1 = 0.25 p2 = 0.25 0.0 0.4 0.8 1.2 0. 0 0. 1 0. 2 0. 3 0. 4 ARL = 38.4 e r 0. 0 0. 1 0. 2 0. 3 0. 4 p1 = 0.1 p2 = 0.2 0.0 0.4 0.8 1.2 0. 0 0. 1 0. 2 0. 3 0. 4 ARL = 39 e r 0. 0 0. 1 0. 2 0. 3 0. 4 p1 = 0.2 p2 = 0.2 0.0 0.4 0.8 1.2 0. 0 0. 1 0. 2 0. 3 0. 4 ARL = 36.6 e r 0. 0 0. 1 0. 2 0. 3 0. 4 p1 = 0.1 p2 = 0.7 0.0 0.4 0.8 1.2 0. 0 0. 1 0. 2 0. 3 0. 4 ARL = 36.8 e r 0. 0 0. 1 0. 2 0. 3 0. 4 p1 = 0.2 p2 = 0.7 0.0 0.4 0.8 1.2 0. 0 0. 1 0. 2 0. 3 0. 4 ARL = 37.8 e r 0. 0 0. 1 0. 2 0. 3 0. 4 p1 = 0.1 p2 = 0.8 Abbildung 6.23: lcl (schwarz) und ucl (rot) fu¨r ARL-optimierte Kontrollkarten Grenzwerte (p1 = p2 = 0.25) dar. Die Ergebnisse hierfu¨r liegen im akzeptablen Be- reich, die durchschnittliche ARL außerhalb von H0 betra¨gt etwa 39% der ARL unter Kontrolle. Die obere mittlere und rechte Grafik zeigen Grenzwertpaare, fu¨r welche die ARL im Bereich ”links“ des Bergkamms optimal wird. Das Minimum in der Simulations- studie mit einer Nachkommastelle liegt bei p1 = 0.1 und p2 = 0.7 mit einem Wert von rund 36.6% (Abbildung 6.23, unten links). Die na¨chstkleineren Werte liefern die Kombination p1 = 0.2 und p2 = 0.7 (∼36.8%, Abbildung 6.23, unten Mitte), p1 = 0.1 und p2 = 0.8 (∼37.7%, Abbildung 6.23, unten rechts) sowie p1 = 0.2 und p2 = 0.8 (∼37.8%, ohne Abbildung). Die na¨chsten Optimierungsschritte erfolgen daher im Bereich von 0.1 ≤ p1 ≤ 0.3 und 0.6 ≤ p2 ≤ 0.8. 105 6.6.4 ARL-Verhalten und Niveauausscho¨pfung verbessern Bislang wurden das ARL-Verhalten und die Niveauausnutzung unabha¨ngig vonein- ander betrachtet. Jetzt werden beide Eigenschaften kombiniert untersucht. Zwei der in Abschnitt 6.6.2 gefundenen Grenzen zur Niveauoptimierung (p1 = 0.42, p2 = 0.3; p1 = 0.235, p2 = 0.63) liegen in den Bereichen mit gutem ARL-Verhalten (siehe Abbildung 6.22) und sind daher als mo¨gliche Optima zu beru¨cksichtigen. Allerdings wird ein schnelles Absinken der ARL im Außer-Kontrolle-Fall als we- sentlich wichtiger angesehen als eine optimale Niveaueinhaltung, so dass die Opti- mierung hier startet. Dazu wird zuna¨chst der Bereich von p1 und p2 eingegrenzt, fu¨r den die ARL am deutlichsten sinkt - unabha¨ngig von dem realisierten Niveau. Anschließend werden in der Umgebung der gefundenen p1 und p2 die Grenzwerte mit der maximalen Niveauausnutzung gewa¨hlt. Abbildung 6.22 zeigt, dass die ARL am schnellsten im Bereich p1 = 0.1 bis p1 = 0.3 und p2 = 0.6 bis p2 = 0.8 sinkt. Kombinationen mit kleinem p1 und kleinem p2 zeigen ebenfalls gute Resultate. Der letztgenannte Abschnitt ist allerdings kleiner und die durchschnittliche ARL im Außer-Kontrolle-Fall ist ho¨her als in der ersten Region. Daher erfolgt die Suche nach dem globalen Minimum in der Umgebung von 0.1 ≤ p1 ≤ 0.3 und 0.6 ≤ p2 ≤ 0.8. Abbildung 6.24 zeigt fu¨r den interessierenden Ausschnitt von p1-p2-Kombinationen die durchschnittliche ARL im Außer-Kontrolle-Fall. Die mittlere ARL ist im ge- wa¨hlten Ausschnitt erwartungsgema¨ß kleiner als bei der ersten Simulation. Ist der Prozess außer Kontrolle, nimmt die ARL im Bereich von 0.1 ≤ p1 ≤ 0.14 und 0.66 ≤ p2 ≤ 0.70 am schnellsten ab. Das Minimum der durchschnittlichen ARL betra¨gt 0.341 fu¨r p1 = 0.1 und p2 = 0.68. In einem zweiten Schritt wird das Niveau maximiert. Die p1-p2-Intervalle fu¨r op- timale Grenzwerte lcl und ucl sind relativ klein; daher ist es wahrscheinlich, dass das gewu¨nschte Niveau nicht exakt erreicht wird. Fu¨r α ≤ 5% liefert die Kombina- tion p1 = 0.122, p2 = 0.67, LCL= 39, UCL= 53 und α = 0.039 die bestmo¨gliche Anna¨herung. Die Optimalwerte fu¨r α ≤ 10% liegen bei p1 = 0.137, p2 = 0.679, LCL= 40, UCL= 52 und α = 0.08. 106 Abbildung 6.24: Interessierender Ausschnitt: mittlere ARL-Werte fu¨r verschiedene p1-p2- Kombinationen Um auszuschließen, dass der (zuna¨chst unberu¨cksichtigte) Bereich mit geringen p1- und p2-Werten unter Umsta¨nden die Niveauauscho¨pfung maximiert, wird auch hierfu¨r die optimale Kombination fu¨r α ≤ 5% bestimmt. Sie liegt bei p1 = 0.165, p2 = 0.2, LCL= 25, UCL= 37 und α = 0.03575. Damit bietet sie gegenu¨ber dem getesteten Bereich mit hohen p2-Werten keinen Vorteil. Das obige Verfahren optimiert die Grenzwerte nach zwei Gesichtspunkten. Im direkten ARL-Vergleich u¨bertrifft die optimierte Karte die Ursprungskarte (p1 = p2 = 0.25) leicht. Das Niveau α wird um 1.2 Prozentpunkte besser (α = 0.039 statt α = 0.027), gleichzeitig sinkt die normierte ARL etwas schneller. Tabelle 6.4 zeigt die ARL fu¨r die betrachteten Außer-Kontrolle-Situationen. Ob der Rechenaufwand insgesamt gerechtfertigt ist, soll hier nicht beurteilt werden. τ = 0.4 τ = 0.45 τ = 0.55 τ = 0.6 p1 = 0.25, p2 = 0.25 (α = 0.027) 0.250 0.534 0.566 0.213 p1 = 0.122, p2 = 0.67 (α = 0.039) 0.179 0.507 0.539 0.160 Tabelle 6.4: Normierte ARL fu¨r optimale Grenzwerte und ”Standardgrenzen“ zum Niveauα ≤ 0.05 fu¨r Daten einer Claytoncopula mit τ0 = 0.5 107 7 Zusammenfassung und Ausblick Die Vorteile einer Datenmodellierung mit Hilfe von Copulas werden zunehmend auch von Ingenieuren und Naturwissenschaftlern erkannt. Ziel dieser Dissertation war es daher, Qualita¨tsregelkarten fu¨r (bivariate) Messgro¨ßen zu entwickeln, denen eine Copulastruktur zugrunde liegt. Damit soll der Schritt gelingen, die neuen Kennt- nisse u¨ber das Verteilungsverhalten der Prozessdaten in die Qualita¨tssicherung und -verbesserung zu u¨bertragen. Um das Thema u¨berschaubar zu halten, wurden lediglich bivariate archimedische Prozesse betrachtet. Als Randverteilungen der Einzeldaten dienten Normalvertei- lungen. Das verdeutlichte, dass univariat normalverteilte Merkmale nicht zwingend gemeinsam durch eine multivariate Normalverteilung modellierbar sind. Unter die- sen Voraussetzungen wurden Qualita¨tsregelkarten fu¨r mehrere Fragestellungen ent- wickelt. Die Gu¨te aller Karten wurde anhand der durchschnittlichen Laufla¨nge des Pro- zesses bewertet. Bei kontrolliert ablaufenden Prozessen sollte sie mo¨glichst groß sein (in Abha¨ngigkeit vom Testniveau), bei Prozesssto¨rungen dagegen klein ausfallen. Nach der Einleitung und drei Grundlagenkapiteln widmete sich Kapitel 5 zuna¨chst der Lage und Streuung des Prozesses. Weicht die gemeinsame Verteilung zweier Merkmale von der multivariaten Normalverteilung (stark) ab, wird das Verhalten der klassischen T 2-Karte (extrem) schlecht. Die ARL liegt dann oft deutlich unter den erwarteten Werten, das Testniveau wird in der Regel nicht eingehalten. Diesen Nachteil beheben die vorgestellten modifizierten Karten. Die adjustierten T 2-Karten verwenden Grenzwerte aus Monte-Carlo-Simulationen. Eine Simulations- studie fu¨r Verschiebungen der Prozesslage zeigt, dass die Karten fu¨r das vorliegende Problem geeignet sind. 109 Je nach Art der erwarteten Lageverschiebung des Prozesses erwies sich auch die Wahl eines alternativen Abstandsmaßes als sinnvoll. Die daraus resultierende Karte wurde analog zu Shewarts T 2-Karte als Euklidische E2-Karte bezeichnet. Beide Karten liefern plausible Resultate fu¨r Beispiele aus der Messtechnik. Eine Studie zu A¨nderungen in der Prozessstreuung zeigte, dass Shewarts T 2-Karte ein a¨hnliches Verhalten aufweist wie fu¨r Verschiebungen in der Lage. Die Entwick- lung verbesserter Karten auf Grundlage von Monte-Carlo-Simulationen wa¨re pro- blemlos analog zum Vorgehen bei Lageu¨berwachung mo¨glich. Darauf wurde in dieser Arbeit verzichtet. Die Karten aus Abschnitt 5 sind zur U¨berwachung der Prozessstruktur nicht geeignet. Daher wurde in Kapitel 6 eine neue Karte entwickelt, die sowohl eine Versta¨rkung als auch eine Abschwa¨chung des Zusammenhangs zwischen den Daten erkennt. Eine gemeinsame Verteilung von Datenpunkten kann eindeutig in Randvertei- lungen und Copula zerlegt werden. Die entsprechenden theoretischen Grundlagen vermittelt Kapitel 3. Bei der Lage- und Streuungsu¨berwachung beeinflussen die Randverteilungen die Teststatistik. Fu¨r die U¨berwachung der Struktur reicht es, nur die Copula zu betrachten. Die Beschra¨nkung auf einzeln normalverteilte Daten war demzufolge in diesem Kapitel nicht no¨tig, wurde allerdings trotzdem beibehalten. Entwickelt wurde ein zweistufiges Verfahren: Zur Anwendung der Karte werden zuna¨chst anhand von Wahrscheinlichkeitsba¨ndern die modifizierten Datenpunkte klassiert; die Testgro¨ße Rn ist dann die Summe aller n Klassenauspra¨gungen ei- ner Stichprobe. Sie la¨sst sich mit Hilfe einer Binomialverteilung beschreiben, so dass die Grenzwerte einfach herzuleiten sind. Die Wahrscheinlichkeitsba¨nder werden durch die untere Grenze (lcl) und die obe- rer Grenze (ucl) festgelegt. Die Funktionen von lcl und ucl ergeben sich als Inte- graldarstellung. Eine ausreichend genaue geschlossene Anpassung der Funktionen konnte nicht gefunden werden, die beno¨tigten Grenzwerte sind aber durch numeri- sche Integration bestimmbar. Ein Vergleich mit Steigers Z-Test zeigte die U¨berlegenheit der gefundenen Test- statistik. Ein klassisches Anwendungsgebiet der Copulas ist die gemeinsame Modellierung 110 von Aktienkursen. Um die inhaltliche Plausibilita¨t der Karte zu untersuchen, bot sich daher eine Untersuchung der Kurse zur Zeit der Finanzkrise an. Insbesondere im asiatischen Raum gibt es derzeit Tendenzen, den Verkehrsfluss und dessen Ein- wirkungen auf Straßen, Schienen und Bru¨cken mit Hilfe von Copulas darzustellen. Dieser Trend wurde hier beru¨cksichtigt, indem als zweites Beispiel Tragseile von Verkehrsbru¨cken betrachtet wurden, deren gemeinsame Schwingung nicht zu stark voneinander abha¨ngig werden sollte. Eine Optimierung der Grenzwerte lcl und ucl komplettierte das Kapitel. Betrach- tet wurde eine feste Copula (Claytoncopula mit dem Parameter θ = 2, τ = 0.5). Die gefundenen Optimalgrenzen nutzen das 5%−Niveau 1.2 Prozentpunkte besser aus als die urspru¨nglich gewa¨hlten Grenzen (α = 0.039 statt α = 0.027 ), gleichzeitig sinkt die ARL etwas schneller. Da die Optimierung allerdings sehr rechenaufwendig ist, mu¨ssen in der Praxis Aufwand und Nutzen im Einzelfall gegeneinander abgewo- gen werden. Aus dem letzten Abschnitt ergibt sich auch der erste Ansatz fu¨r weitere Forschun- gen auf dem Gebiet copulabasierter Qualita¨tsregelkarten. So ko¨nnte die vorgestellte Teststatistik fu¨r verschiedene Fa¨lle optimiert werden. Dazu mu¨ssten allerdings kon- krete Einsatzgebiete betrachtet werden; eine ”allumfassende“ Verbesserung erscheint unrealistisch aufgrund des hohen Arbeitsaufwandes. Eine Ausweitung der betrachteten Grundgesamtheiten ist ebenfalls denkbar. Ar- chimedische Copulas decken schon viele Datenstrukturen ab, eine Ausweitung auf weitere Copulas wu¨rde die Flexibilita¨t allerdings noch erho¨hen. Extremwertcopulas ko¨nnten ein lohnendes Ziel sein, um seltene Ereignisse (Reaktorausfa¨lle, bestimmte Emissionswerte, . . .) zu beru¨cksichtigen. Auch Kombinationen von Copulas ergeben wieder Copulas und erweitern die Einsatzmo¨glichkeiten noch einmal. Interessanter erscheint zuna¨chst jedoch die Ausweitung der gefundenen Teststa- tistik auf mehr als zwei abha¨ngige Merkmale. Dazu mu¨ssen zuna¨chst das betrachtete Lot auf die Winkelhalbierende des I2, also r, und die normierte Entfernung zum Ursprung e auf ho¨here Dimensionen verallge- meinert werden. Anschließend sind die lcl und ucl als Quantile der Verteilung von r in Abha¨ngigkeit von e analog zum Vorgehen hier bestimmbar. Fu¨r p betrachtete Merkmale handelt es sich dabei um gekru¨mmte Ebenen im Raum [0, √ 2]p−1. 111 Die Bereitstellung der gefundenen Resultate fu¨r die Praxis ist ebenfalls wu¨nschens- wert. Dies kann beispielsweise durch die Erstellung einer geeigneten Software erfol- gen. Noch besser wa¨re es, die Karte direkt in eine bestehende Statistiksoftware fu¨r Ingenieure einzubinden, beispielsweise Minitab oder qs-STAT. 112 A Erga¨nzende Formeln und Berechnungen A.1 Wahrscheinlichkeiten fu¨r Kapitel 6 A.1.1 Die Wahrscheinlichkeit P(r ≤ r∗, e∗1 ≤ e ≤ e∗2) Anwenden der Formeln (6.8) und (6.9) auf Gleichung (6.6) fu¨hrt zu folgenden Wahr- scheinlichkeiten: P(r ≤ r∗, e∗1 ≤ e ≤ e∗2) = (A.1) fu¨r e∗2 < 1/ √ 2 : ∫ u3+u4 0 ∫ u3+u4−τ2 0 c(τ1, τ2)dτ1dτ2 − ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1, τ2)dτ1dτ2 − [ ∫ u4 0 ∫ u3+u4−τ2 u3−u4+τ2 c(τ1, τ2)dτ1dτ2 − ∫ u2 0 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 ] fu¨r e∗1 < 1/ √ 2 und 1/ √ 2 ≤ e∗2 < √ 2 : 1− ∫ 1 u3+u4−1 ∫ 1 u3+u4−τ2 c(τ1, τ2)dτ1dτ2 − ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1, τ2)dτ1dτ2 − [ ∫ u3+u4−1 0 ∫ 1 u3−u4+τ2 c(τ1, τ2)dτ1dτ2 + ∫ u4 u3+u4−1 ∫ u3+u4−τ2 u3−u4+τ2 c(τ1, τ2)dτ1dτ2 − ∫ u2 0 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 ] 113 fu¨r 1/ √ 2 ≤ e∗1 < e∗2 < √ 2 : − ∫ 1 u3+u4−1 ∫ 1 u3+u4−τ2 c(τ1, τ2)dτ1dτ2 + ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1, τ2)dτ1dτ2 − [ ∫ u3+u4−1 0 ∫ 1 u3−u4+τ2 c(τ1, τ2)dτ1dτ2 + ∫ u4 u3+u4−1 ∫ u3+u4−τ2 u3−u4+τ2 c(τ1, τ2)dτ1dτ2 − ∫ u1+u2−1 0 ∫ 1 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 − ∫ u2 u1+u2−1 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 ] und fu¨r 1/ √ 2 ≤ e∗1 < √ 2 und e∗2 = √ 2 : ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1, τ2)dτ1dτ2 − [ ∫ u1+u2−1 0 ∫ 1 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 + ∫ u2 u1+u2−1 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1, τ2)dτ1dτ2 ] A.1.2 Die Wahrscheinlichkeit P(e∗1 ≤ e ≤ e∗2) Einsetzen der Formel (6.8) in die Gleichung (6.5) fu¨hrt zu: P(e∗1 ≤ e ≤ e∗2) = P(e ≤ e∗2)− P(e ≤ e∗1) = (A.2) fu¨r e∗2 < 1/ √ 2 : ∫ u3+u4 0 ∫ u3+u4−τ2 0 c(τ1, τ2)dτ1dτ2 − ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1, τ2)dτ1dτ2 fu¨r e∗1 < 1/ √ 2 und 1/ √ 2 ≤ e∗2 < √ 2 : 1− ∫ 1 u3+u4−1 ∫ 1 u3+u4−τ2 c(τ1, τ2)dτ1dτ2 − ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1, τ2)dτ1dτ2 fu¨r 1/ √ 2 ≤ e∗1 < e∗2 < √ 2 : − ∫ 1 u3+u4−1 ∫ 1 u3+u4−τ2 c(τ1, τ2)dτ1dτ2 + ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1, τ2)dτ1dτ2 114 und fu¨r 1/ √ 2 ≤ e∗1 < √ 2 und e∗2 = √ 2 : ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1, τ2)dτ1dτ2 A.1.3 Die Wahrscheinlichkeit P(r ≤ r∗|e∗1 ≤ e ≤ e∗2) Die zur Berechnung der Grenzwerte lcl und ucl no¨tige bedingte Wahrscheinlichkeit ergibt sich als Quotient der Gleichungen aus A.1.1 und A.1.2. Hierbei gelten: P(r ≤ r∗|e∗1 ≤ e ≤ e∗2) = P(r ≤ r∗, e∗1 ≤ e ≤ e∗2) P(e∗1 ≤ e ≤ e∗2) = fu¨r e∗2 < 1/ √ 2 : 1− ∫ u4 0 ∫ u3+u4−τ2 u3−u4+τ2 c(τ1,τ2)dτ1dτ2− ∫ u2 0 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1,τ2)dτ1dτ2 ∫ u3+u4 0 ∫ u3+u4−τ2 0 c(τ1,τ2)dτ1dτ2− ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1,τ2)dτ1dτ2 fu¨r e∗1 < 1/ √ 2 und 1/ √ 2 ≤ e∗2 < √ 2 : 1− ∫ u3+u4−1 0 ∫ 1 u3−u4+τ2 c(τ1,τ2)dτ1dτ2+ ∫ u4 u3+u4−1 ∫ u3+u4−τ2 u3−u4+τ2 c(τ1,τ2)dτ1dτ2 1− ∫ 1 u3+u4−1 ∫ 1 u3+u4−τ2 c(τ1,τ2)dτ1dτ2− ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1,τ2)dτ1dτ2 + ∫ u2 0 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1,τ2)dτ1dτ2 1− ∫ 1 u3+u4−1 ∫ 1 u3+u4−τ2 c(τ1,τ2)dτ1dτ2− ∫ u1+u2 0 ∫ u1+u2−τ2 0 c(τ1,τ2)dτ1dτ2 fu¨r 1/ √ 2 ≤ e∗1 < e∗2 < √ 2 : 1− ∫ u3+u4−1 0 ∫ 1 u3−u4+τ2 c(τ1,τ2)dτ1dτ2+ ∫ u4 u3+u4−1 ∫ u3+u4−τ2 u3−u4+τ2 c(τ1,τ2)dτ1dτ2 ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1,τ2)dτ1dτ2− ∫ 1 u3+u4−1 ∫ 1 u3+u4−τ2 c(τ1,τ2)dτ1dτ2 + ∫ u1+u2−1 0 ∫ 1 u1−u2+τ2 c(τ1,τ2)dτ1dτ2+ ∫ u2 u1+u2−1 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1,τ2)dτ1dτ2 ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1,τ2)dτ1dτ2− ∫ 1 u3+u4−1 ∫ 1 u3+u4−τ2 c(τ1,τ2)dτ1dτ2 und fu¨r 1/ √ 2 ≤ e∗1 < √ 2 und e∗2 = √ 2 : 1− ∫ u1+u2−1 0 ∫ 1 u1−u2+τ2 c(τ1,τ2)dτ1dτ2+ ∫ u2 u1+u2−1 ∫ u1+u2−τ2 u1−u2+τ2 c(τ1,τ2)dτ1dτ2 ∫ 1 u1+u2−1 ∫ 1 u1+u2−τ2 c(τ1,τ2)dτ1dτ2 115 A.1.4 Beispiel Produktcopula - Herleitung der Integrale Fall 1: 0 ≤ e∗ < 1/ √ 2 P (B) = ∫ u2 0 ∫ u1+u2−τ2 u1−u2+τ2 1 ∂τ1∂τ2 = ∫ u2 0 [u1 + u2 − τ2 − u1 + u2 − τ2] ∂τ2 = ∫ u2 0 [2u2 − 2τ2] ∂τ2 = [(2u2 − τ22 )]u20 = 2u22 − u22 = u22 P (e ≤ e∗) = ∫ u1+u2 0 ∫ u1+u2−τ2 0 1 ∂τ1∂τ2 = ∫ u1+u2 0 (u1 + u2 − τ2) ∂τ2 = [τ2(u1 + u2 − 0.5τ2)]u1+u20 = ((u1 + u2)− 0.5(u1 + u2))(u1 + u2) = 0.5(u1 + u2)2 Fall 2: 1/ √ 2 ≤ e∗ < √ 2 P (B) = ∫ u1+u2−1 0 ∫ 1 u1−u2+τ2 1 ∂τ1∂τ2 + ∫ u2 u1+u2−1 ∫ u1+u2−τ2 u1−u2+τ2 1 ∂τ1∂τ2 = ∫ u1+u2−1 0 (1− u1 + u2 − τ2) ∂τ2 + ∫ u2 u1+u2−1(u1 + u2 − τ2 − u1 + u2 − τ2) ∂τ2 = ∫ u1+u2−1 0 (1− u1 + u2) ∂τ2 − ∫ u1+u2−1 0 (τ2) ∂τ2 + ∫ u2 u1+u2−1 2(u2 − τ2) ∂τ2 = (u1 + u2 − 1)(1− u1 + u2)− [0.5τ22 ]u1+u2−10 + 2u2(u2 − u1 − u2 + 1)− [τ22 ]u2u1+u2−1 = (u1 + u2 − 1)(1− u1 + u2)− 0.5(u1 + u2 − 1)2 + 2u2(1− u1)− u22 + (u1 + u2 − 1)2 = (u1 + u2 − 1)(1− u1 + u2 − 0.5u1 − 0.5u2 + 0.5) + 2u2 − 2u1u2 − u22 + u21 + u22 + 1− 2u1 − 2u2 + 2u1u2 = (u1 + u2 − 1)0.5(3− 3u1 + u2) + u21 − 2u1 + 1 116 = 0.5(3u1 − 3u21 + u1u2 + 3u2 − 3u1u2 + u22 − 3 + 3u1 − u2) + u21 − 2u1 + 1 = −0.5u21 + 0.5u22 − u1u2 + u1 + u2 − 0.5 = u22 − 0.5(u1 + u2 − 1)2 Zur Berechnung von P (e ≤ e∗) wird zuna¨chst umparametrisiert, es sei u := u1 +u2. P (e ≤ e∗) = 1− ( ∫ 1 u−1 ∫ 1 u−τ2 1 ∂τ1∂τ2 ) = 1 − ( ∫ 1 u−1(1− u+ τ2) ∂τ2 ) = 1 − ( ∫ 1 u−1(1− u) ∂τ2 + ∫ 1 u−1 τ2 ∂τ2 ) = 1 − ( (1− u)(1− u+ 1) + [0.5τ22 ]1u−1 ) = 1 − ( (1− u)(2− u) + 0.5− 0.5(u− 1)2 ) = 1 − ( (2− 3u+ u2 + 0.5− 0.5(u2 − 2u+ 1) ) = 1 − ( (2− 2u+ 0.5u2 ) = −1 + 2u− 0.5u2 = −1 + 2(u1 + u2)− 0.5(u1 + u2)2. A.2 Copuladichten Zur Berechnung der Grenzen ist es no¨tig, die Dichtefunktionen der zugrundeliegen- den Copula zu kennen. Mit Hilfe der Generatoren und der daraus resultierenden Copulaverteilung (siehe Tabelle 3.1) werden im Folgenden die bivariaten Dichten durch Differenzieren nach beiden Variablen abgeleitet. A.2.1 Dichte der Claytoncopula Fu¨r die Claytoncopula gilt mit der Formel (3.1) c(u, v, θ) = ∂C(u, v, θ)∂u∂v = ∂ ∂v ∂ ∂u ( u−θ + v−θ − 1 )− 1θ . 117 Zuna¨chst wird die partielle Ableitung nach u gebildet. ∂ ∂u ( u−θ + v−θ − 1 )−1/θ = − 1θ ( u−θ + v−θ − 1 )−1/(θ−1) ∂ ∂u ( u−θ + v−θ − 1 ) = − 1θ ( u−θ + v−θ − 1 )−1/θ−1 [ ∂ ∂u u−θ + ∂∂uv−θ ] = − 1θ ( u−θ + v−θ − 1 )−1/θ−1 (−θu−θ−1 ) Da alle Variablen positiv sind, vereinfacht sich der Term durch Ku¨rzen zu ∂ ∂u ( u−θ + v−θ − 1 )−1/θ = u−θ−1 ( u−θ + v−θ − 1 )− θ+1θ . Der zweite Schritt zur Dichtebestimmung erfolgt durch Ableiten der Funktion nach v, also c(u, v, θ) = ∂∂v u−θ−1 ( u−θ + v−θ − 1 )− θ+1θ = ∂∂v u−θ−1 ( u−θ + v−θ − 1 )− θ+1θ = − θ+1θ u−θ−1 ( u−θ + v−θ − 1 )− θ+1θ −1 ∂ ∂v ( u−θ + v−θ − 1 ) = − θ+1θ u−θ−1 ( u−θ + v−θ − 1 )− θ+1θ −1 ∂ ∂vv−θ ⇔ c(u, v, θ) = (θ + 1) (uv)−θ−1 ( u−θ + v−θ − 1 )− 1θ−2 (A.3) A.2.2 Dichte der Gumbelcopula Fu¨r die Gumbelcopula gilt nach der Formel (3.1) c(u, v; θ) = ∂C(u, v, θ)∂u∂v = ∂ ∂v ∂ ∂u exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) . Zuna¨chst wird die partielle Ableitung nach u gebildet. ∂C(u,v,θ) ∂u = ∂∂u exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) = exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) ∂ ∂u ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) = −1θ exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 · ∂∂u [ (− ln(u))θ + (− ln(v))θ ] 118 = −1θ exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 · [ ∂ ∂u(− ln(u))θ + ∂∂u(− ln(v))θ ] = −1θ exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 · θ(− ln(u))θ−1 ∂∂u(− ln(u)) = 1u(− ln(u))θ−1 exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 Der zweite Schritt zur Bestimmung der Gumbeldichte erfolgt durch Ableiten der Funktion nach v, also c(u, v, θ) = ∂∂v [ 1 u(− ln(u))θ−1 exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 ] = (− ln(u)) θ−1 u ∂ ∂v exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 = (− ln(u)) θ−1 u [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 · ∂∂v exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) ∂ ∂v [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 = (− ln(u)) θ−1 u [ ( 1 θ − 1 ) exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v [ (− ln(u))θ + (− ln(v))θ ] + [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 ∂ ∂v exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ )] = (− ln(u)) θ−1 u [ ( 1 θ − 1 ) exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 [ ∂ ∂v (− ln(u))θ + ∂∂v (− ln(v))θ ] + [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 ∂ ∂v exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ )] = (− ln(u)) θ−1 u [( 1 θ − 1 ) θ(− ln(v))θ−1 · exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v (− ln(v)) + [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 ∂ ∂v exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ )] 119 = (− ln(u)) θ−1 u [ exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−1 · ∂∂v ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) − ( 1 θ − 1 ) θ(− ln(v))θ−1 · exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v (ln(v)) ] = (− ln(u)) θ−1 u [ −1θ exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v [ (− ln(u))θ + (− ln(v))θ ] − ( 1 θ − 1 ) θ(− ln(v))θ−1 · exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v (ln(v)) ] = (− ln(u)) θ−1 u [ −1θ exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v (− ln(v))θ − ( 1 θ − 1 ) θ(− ln(v))θ−1 · exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v (ln(v)) ] = (− ln(u)) θ−1 u [ −(− ln(v))θ−1 exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v (− ln(v)) − ( 1 θ − 1 ) θ(− ln(v))θ−1 · exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ∂ ∂v (ln(v)) ] = (− ln(u)) θ−1 u [ 1 v (− ln(v))θ−1 exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 − ( 1 θ − 1 ) θ(− ln(v))θ−1 · 1v exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 ] Damit gilt also schließlich: c(u, v, θ) = 1uv (− ln(u))θ−1(− ln(v))θ−1 exp ( − [ (− ln(u))θ + (− ln(v))θ ] 1 θ ) · ( [ (− ln(u))θ + (− ln(v))θ ] 1 θ + θ − 1 ) [ (− ln(u))θ + (− ln(v))θ ] 1 θ−2 (A.4) A.2.3 Vergleich der Formeln 6.4 und 6.12 Aus Formel 6.4 folgt: P( n ∑ i=1 Ri = x) = (2n x ) 0.5x(1− 0.5)2n−x = (2n)!(2n− x)!x!0.5 2n, 120 Formel 6.12 besagt: P∗( n ∑ i=1 Ri = x) = ⌊x/2⌋ ∑ j=0 n! 1(n− x+ j)!(x− 2j)!j!p (n−x+j) 1 (1− p1 − p2)(x−2j)p j 2 Wobei fu¨r p1 = p2 = 0.25 beide Formeln gleiche Resultate liefern. Diese Aussage wird hier exemplarisch fu¨r x = 0, x = 1 und x = 2 gezeigt. Der Beweis durch vollsta¨ndige Induktion wa¨re - durch die verwendete Summe - sehr aufwa¨ndig und wird daher hier nicht erbracht. Zuna¨chst ist fu¨r p1 = p2 = 0.25: P∗( n ∑ i=1 Ri = x) = ⌊x/2⌋ ∑ j=0 n! 1(n−x+j)!(x−2j)!j!0.52n−x+2j Damit folgt P∗( n ∑ i=1 Ri = 0) = n!n!0!0!0.52n = (2n)! (2n)!0!0.52n = P( n ∑ i=1 Ri = 0) P∗( n ∑ i=1 Ri = 1) = n!(n−1)!1!0!0.52n−1 = n0.52n−1 = n 0.52n 0.5 = 2n0.52n = (2n)!(2n−1)!1!0.52n = P( n ∑ i=1 Ri = 1) P∗( n ∑ i=1 Ri = 2) = n!(n−2)!2!0!0.52n−2 + n! (n−1)!0!1!0.52n−2+2 = n(n−1)2 0.52n−2 + n0.52n = 0.5n(n− 1)0.52n0.52 + n0.52n = 2n(n− 1)0.52n + n0.52n = (2n2 − 2n+ n)0.52n = (2n2 − n)0.52n = n(2n− 1)0.52n = 2n(2n−1)2 0.52n = 2n!(2n−2)!2!0.52n = P( n ∑ i=1 Ri = 2) 121 B Zusa¨tzliche Tabellen und Abbildungen Abbildung B.1: Flussdiagramm zur Simulation der Grenzwerte 123 Schritt Beschreibung 1 Xi = (Xi1, Xi2) umformen zu (Ui1, Ui2) r(Ui1, Ui2) und e(Ui1, Ui2) berechnen 2 Ri aus [r(Ui1, Ui2), e(Ui1, Ui2)] ableiten Summieren der Ri zur Teststatistik Rn Tabelle B.1: Zweistufiges Vorgehen zur Berechnung der Teststatistik ARL SDRL OC τ0 −0.1 τ0 +0.1 −0.1 τ0 +0.1 −0.1 τ0 +0.1 0.1 22.03 36.71 21.27 22.01 36.45 20.71 0.955 0.9728 0.953 0.2 17.83 36.39 17.13 17.39 36.24 16.78 0.944 0.9725 0.942 0.3 14.35 36.63 13.44 13.81 36.04 13.10 0.930 0.9727 0.926 0.4 11.27 36.54 9.97 10.95 36.17 9.52 0.911 0.9726 0.900 0.5 8.51 36.55 7.04 8.00 36.58 6.48 0.882 0.9726 0.858 0.6 5.98 36.60 4.33 5.49 36.26 3.85 0.833 0.9727 0.769 0.7 3.84 36.47 2.22 3.30 36.45 1.64 0.740 0.9726 0.549 0.8 2.17 36.64 1.09 1.57 36.25 0.31 0.538 0.9727 0.080 0.9 1.15 36.49 1.00 0.43 35.69 0.00 0.133 0.9726 0.000 E[.] - 36.58 - - - - - 0.973 - Tabelle B.2: Kennwerte der entwickelten Kontrollkarte fu¨r 20.000 simulierte Laufla¨ngen un- ter Voraussetzung einer Claytoncopula ARL SDRL OC τ0 −0.1 τ0 +0.1 −0.1 τ0 +0.1 −0.1 τ0 +0.1 0.1 22.00 36.47 22.76 22.00 35.64 22.14 0.955 0.973 0.956 0.2 18.00 36.54 19.69 17.32 35.33 19.23 0.944 0.973 0.949 0.3 14.70 36.59 16.36 14.20 35.92 15.88 0.932 0.973 0.939 0.4 11.73 36.47 12.46 11.34 35.37 11.88 0.915 0.973 0.920 0.5 8.77 36.57 8.82 8.27 35.12 8.17 0.886 0.973 0.887 0.6 6.37 36.50 5.36 5.85 35.00 4.84 0.843 0.973 0.814 0.7 3.99 36.54 2.59 3.43 35.04 2.03 0.750 0.973 0.614 0.8 2.21 36.41 1.13 1.65 34.63 0.38 0.547 0.973 0.114 0.9 1.16 36.46 1.00 0.43 34.82 0.00 0.139 0.973 0.000 E[.] - 36.58 - - - - - 0.973 - Tabelle B.3: Kennwerte der entwickelten Kontrollkarte fu¨r 20.000 simulierte Laufla¨ngen un- ter Voraussetzung einer Gumbelcopula 124 n p1 p2 LCL UCL Niveau n p1 p2 LCL UCL Niveau 20 0.37 0.37 13 27 .04990 46 0.32 0.32 35 55 .04981 21 0.54 0.39 10 26 .04952 47 0.16 0.68 60 79 .04978 22 0.26 0.33 17 30 .04980 48 0.15 0.43 51 69 .04975 23 0.12 0.66 29 41 .04983 49 0.36 0.36 37 59 .04989 24 0.11 0.67 31 43 .04931 50 0.49 0.49 36 62 .04964 25 0.48 0.48 16 34 .04973 51 0.37 0.38 39 62 .04950 26 0.44 0.38 16 33 .04975 52 0.51 0.43 34 60 .04989 27 0.52 0.31 13 30 .04966 53 0.21 0.64 63 85 .04981 28 0.14 0.58 33 47 .04930 54 0.23 0.72 67 90 .04965 29 0.13 0.59 35 49 .04934 55 0.32 0.32 43 65 .04995 30 0.42 0.30 18 35 .04954 56 0.28 0.52 56 80 .04992 31 0.38 0.38 22 40 .04947 57 0.19 0.57 66 88 .04953 32 0.24 0.48 31 48 .04968 58 0.35 0.43 49 74 .04980 33 0.13 0.61 41 56 .04978 59 0.43 0.35 40 65 .04980 34 0.49 0.37 20 40 .04940 60 0.35 0.49 53 79 .04987 35 0.19 0.80 47 64 .04986 61 0.49 0.35 37 63 .04987 36 0.40 0.40 26 46 .04967 62 0.29 0.35 51 74 .04973 37 0.39 0.39 27 47 .04993 63 0.34 0.34 48 72 .04991 38 0.31 0.62 39 60 .04984 64 0.45 0.45 47 75 .04993 39 0.37 0.37 29 49 .04996 65 0.23 0.76 82 107 .04967 40 0.41 0.55 34 57 .04978 66 0.20 0.78 87 111 .04967 41 0.49 0.49 29 53 .04976 67 0.15 0.41 70 91 .04959 42 0.34 0.51 38 60 .04953 68 0.36 0.43 56 83 .04961 43 0.51 0.34 24 46 .04953 69 0.36 0.36 53 79 .04979 44 0.44 0.31 27 48 .04945 70 0.50 0.50 52 82 .04980 45 0.43 0.50 35 59 .04951 Tabelle B.4: Auf das Niveau α = 0.05 optimierte p1 und p2 (jeweils auf zwei Nachkomma- stellen genau) fu¨r verschiedene Sichprobengro¨ßen n mit Angabe des erreichten Niveaus α 125 Literaturverzeichnis DIN 1319-1. Grundlagen der Meßtechnik - Teil 1: Grundbegriffe. 1995. F. Aparasi, J. Jabaloyes, und A. Carrion. Statistical Properties of the |S| Multiva- riate Control Chart. Communications in Statistics - Theory and Methods 28 (11), S.2671-2686, 1999. D. Brigo, A. Pallavicini, und R. Torresetti. Credit Models and the Crisis: A Journey into CDOs, Copulas, Correlations and Dynamic Models. Wiley & Sons, 2010. B.E. Brodski, H.I. Penikas, und I.A. Safaryan. Copula structural shift identifica- tion. BASIC RESEARCH PROGRAM WORKING PAPERS, Series: Financial Economics. 05FE2012, 2012. R.A.J. Campbell, C.S. Forbes, K.G. Koedijk, und P. Kofman. Increasing correlations or just fat tails? Journal of empirical finance, Vol. 15, S.287-309, 2008. C.C. Caprani, A. Gonza´lez, P.H. Rattigan, und E.J. OBrien. Assessment dynamic ratio for traffic loading on bridges. Structure and Infrastructure Engineering, 8(3), S.295-304, 2012. P. C´ızek, W. Ha¨rdle, und R. Weron. Statistical tools for finance and insurance. Springer, 2005. P. H. A. J. M. de Waal, D. J. und van Gelder. Modelling of extreme wave heights and periods through copulas. Extremes, Vol. 8, No. 4, S.345-356, 2005. W. E. Deming. On probability as a basis for action. The American Statistician, Vol. 29, No. 4, S.146-152, 1975. C. Donnelly und P. Embrechts. The devil is in the tails: actuarial mathematics and the subprime mortgage crisis. ASTIN Bulletin, Vol. 40, No. 1, S.1-33, 2010. H. Dresig und F. Holzweißig. Maschinendynamik, 10. Auflage. Springer, 2011. P. Embrechts, A. McNeil, und D. Straumann. Correlation and Dependence in Risk Management: Properties and Pitfalls. Risk Management . Value at Risk and Beyond, S.146-152, 2010. EMPA. Geregelte Da¨mpfung von Schra¨gseilbru¨cken (Stand: 10.07.2012). http://www.empa.ch/plugin/template/empa/*/2956, 2012. L. Fahrmeir, A. Hamerle, und G. Tutz. Multivariate statistische Verfahren, 2. u¨berarbeitete Auflage. Walter de Gruyter, 1996. 127 C. Genest und A.-C. Favre. Everything you always wanted to know about copula modeling but were afraid to ask. Journal of Hydrologic Engineering, No.12, S.347- 368, 2007. C. Genest und J. MacKay. The Joy of Copulas : Bivariate Distributions With Uniform Marginals. The American Statistician, Vol. 40, No. 4, S.280-283, 1986. W. H. Greene. Econometric Analysis, 7 ed. Pearson, 2012. J. Hartung, B. Epelt, und K.-H. Klo¨sener. Multivariate Statistik . Lehr- und Hand- buch der angewandten Statistik, 14. unwesentlich vera¨nderte Auflage. Oldenbourg, 2005. F. Hofmann. Grundlagen der Ultraschall-Durchflussmessung fu¨r den industriellen Einsatz. KROHNE Messtechnik GmbH & Co. KG, Duisburg, 2000. H. Hotelling. Multivariate Quality Control. Techniques of Statistical Analysis. McGraw-Hill, 1947. L. Jaupi. Multivariate Control Charts for Complex Processes. S.125-136 in: C. Lauro, J. Antoch, V. E. Vinzi, G. Saporta (2002): Multivariate Total Quality Control, Foundation and Recent Advances. Physica-Verlag, 2002. H. Joe. Multivariate Models and Dependence Concepts (Monographs on Statistics and Applied Probability). Chapman & Hall/CRC Mathematics Series. Chapman & Hall/CRC, 2001. W. Kra¨mer und M. van Kampen. A simple nonparametric test for structural change in joint tail probabilities. Economics Letters 110, S.245-247, 2011. F. Lindskog. Modelling Dependence with Copulas and Applications to Risk Mana- gement. Department of Mathematics · ETH, Zu¨rich, 2000. F. Lindskog, A. McNeil, und U. Schmock. Kendall’s Tau for Elliptical Distributions. Department of Mathematics · ETH, Zu¨rich, 2001. K. V. Mardia, J. T. Kent, und J. M. Bibby. Multivariate Analysis. Academic Press Limited, 1995. G. Mehlhorn. Handbuch Bru¨cken. Springer, 2007. O. Melsheimer, G. Sebastiani, S. Wenzel, A. E. Tekkaya, J. Kunert, A. Brosis, und L. Kwiatkowski. Aufbereitung von optischen Messdaten zur Analyse der asym- metrischen inkrementellen Blechumformung (AIBU). Discussion papers SFB 823, 52/11, 2011. D. Meneguzzo und W. Vecchiato. Copula sensitivity in collateralized debt obligations and basket default swaps. Journal of Futures Markets 24, Vol. 1, S.37-70, 2003. A. Meucci. A New Breed of Copulas for Risk and Portfolio Management. Risk 24, Vol. 9, S.122-126, 2011. 128 H. J. Mittag. Qualita¨tsregelkarten. Hanser, 1993. D. C. Montgomery. Statistical Process Control. A modern introduction, 6 ed. Inter- national Student Version, John Wiley & Sons, 2009. R. B. Nelson. An Introduction to Copulas (Lecture Notes in Statistics). Springer, 2006. A. Onken, S. Gru¨newa¨lder, M.H. Munk, und K. Obermayer. Analyzing Short-Term Noise Dependencies of Spike-Counts in Macaque Prefrontal Cortex Using Co- pulas and the Flashlight Transformation. PLoS Computational Biology 5 (11), e1000577, 2009. G. M. Oyeyemi. Principal Component Chart for Multivariate Statistical Process Control. The Online Journal of Science and Technology, Vol. 1, Issue 2, 2011. E. S. Page. Continuous inspection schemes. Biometrika 41, S.100-115, 1954. D. Qu. Pricing Basket Options With Skew. Wilmott Magazine (July), 2005. S. W. Roberts. Control-charts-tests based on geometric moving averages. Techno- metrics 1, S.239-250, 1959. T. P. Ryan. Statistical Methods for Quality Improvement (Wiley Series in Probability and Statistics). John Wiley & Sons, 2011. F. Salmon. Recipe for Disaster: The Formula That Killed Wall Street. Wired, 2/23/2009, 2009. G. Salvadori und C. De Michele. On the Use of Copulas in Hydrology: Theory and Practice. Journal of Hydrological Engineering, Vol. 12, S.369-381, 2007. C. Savu. Modellierung multivariater Abha¨ngigkeitsstrukturen auf Finanzma¨rkten mit archimedischen und hierarchischen archimedischen Copulas. Logos · Berlin, 2007. C. Scho¨lzel und P. Friederichs. Multivariate nonnormally distributed random varia- bles in climate research . Introduction to the copula approach. Nonlinear Processes in Geophysics, 15, S.761-772, 2008. W. A. Shewhart. Economic Control of Quality of Manufactured Product. ASQ Quality Press, 1931. S. Srinivas. Copula based dependence and probabilistic load modeling of highway bridges. Ph. D. Thesis, Indian Institute of Technology Madras, Chennai, 2006. S. Srinivas, D. Menon, und A. Meher Prasad. Multivariate simulation and mul- timodal dependence modeling of vehicle axle weights with copulas. Journal of Transportation Engineering, ASCE, Vol. 132, Issue 12, S.945-955, 2006. S. Sriramula, D. Menon, und A. M. Prasad. Axle load variations and vehicle growth projection models for safety assessment of transportation structures. Transport, 22:1, S.31-37, 2005. 129 J.H. Steiger. Tests for comparing elements of a correlation matrix. Psychological Bulletin, Vol. 87, S.245-251, 1980. R. Taylor und R. Phillips. The Philosophical Magazine: or Annals of chemistry, mathematics, astronomie, natural history, and general sciende, Vol. IX. Richard Taylor, London, 1881. D. Thompson und R. Kilgore. Estimating Joint Flow Probabilities at Stream Con- fluences using Copulas. Transportation Research Record, Vol. 2262, S.200-206, 2011. Q. H. Tran. Copulas im Risikomanagement von Versicherungsunternehmen. Grin. Verlag fu¨r akademische Texte, 2009. C. Weihs und J. Jessenberger. Statistische Methoden zur Qualita¨tssicherung und -optimierung in der Industrie. Wiley-VCH, 1999. D. Wied und P. Galeano. Monitoring correlation change in a sequence of random variables. Discussion papers SFB 823, 12/12, 2012. D. Wied, W. Kra¨mer, und H. Dehling. Testing for a change in correlation at an unknown point in time using an extended functional delta method. Econometric Theory 28, 2012. J. Yan. Multivariate Modeling with Copulas and Engineering Applications. Springer Handbook of Engineering Statistics, S.973-989, 2007. K. Yang und B. El-Haik. Design for Six Sigma: A Roadmap for Product Develop- ment. Mcgraw-Hill Professional, 2003. 130 Eigensta¨ndigkeitserkla¨rung Hiermit besta¨tige ich, dass ich die vorliegende Arbeit selbsta¨ndig verfasst und keine anderen als die angegebenen Hilfsmittel benutzt habe. Die Stellen der Arbeit, die dem Wortlaut oder dem Sinn nach anderen Werken (dazu za¨hlen auch Internetquel- len) entnommen sind, wurden unter Angabe der Quelle kenntlich gemacht. Dortmund, den 15. Februar 2013 131