Lehrstuhl Statistik mit Anwendungen im Bereich der Ingenieurwissenschaften
Permanent URI for this collection
Browse
Recent Submissions
Item Statistical inference for intensity-based load sharing models with damage accumulation(2023) Jakubzik, Mirko Alexander; Müller, Christine H.; Pauly, MarkusConsider a system in which a load exerted on it is equally shared between its components. Whenever one component fails, the total load is redistributed across the surviving components. This in turn increases the individual load applied to each of these components and therefore their risk of failure. Such a system is called a load sharing system. In a load sharing system, the failure rate of a surviving component grows with the number of failed components. However, the risk of failure is likely to also depend on how long the surviving components were exposed to the shared load. This accumulation of damage within the system causes a continuous increase in the failure rate between consecutive component failures. This thesis deals with the statistical inference for load sharing systems with damage accumulation that can be modelled in terms of its component failure rate. We identify the component failure rate as the stochastic intensity of a counting process, for which a parametric model can be specified - an intensity-based load sharing model with damage accumulation. The first method of inference is the minimum distance estimator introduced by Kopperschmidt and Stute. They claim the strong consistency and asymptotic normality of this estimator, but we demonstrate that their proof of the asymptotic distribution is flawed. Our first important contribution is a corrected proof under slightly adjusted requirements. The second method of inference is based on the K-sign depth test, a powerful and robust generalization of the classical sign test that was up to now mostly used with the residuals of a linear model. We present a procedure to obtain a "residual" counterpart in an intensity-based model via the hazard transformation of a point process. Moreover, we derive conditions on the model under which the 3-sign depth test is consistent. The thesis closes by comparing these two methods with the established likelihood approach. To this end, we verify the applicability of the competing methods to the Basquin load sharing model with multiplicative damage accumulation recently proposed by Müller and Meyer. In a final simulation study, we assess the robustness of the methods in the presence of contaminated data. This study confirms that, in contrast to the other two approaches, the 3-sign depth test offers both a powerful and robust tool of statistical inference for intensity-based load sharing models with damage accumulation.Item Simple powerful robust tests based on sign depth(2022-07-30) Leckey, Kevin; Malcherczyk, Dennis; Horn, Melanie; Müller, Christine H.Up to now, powerful outlier robust tests for linear models are based on M-estimators and are quite complicated. On the other hand, the simple robust classical sign test usually provides very bad power for certain alternatives. We present a generalization of the sign test which is similarly easy to comprehend but much more powerful. It is based on K-sign depth, shortly denoted by K-depth. These so-called K-depth tests are motivated by simplicial regression depth, but are not restricted to regression problems. They can be applied as soon as the true model leads to independent residuals with median equal to zero. Moreover, general hypotheses on the unknown parameter vector can be tested. While the 2-depth test, i.e. the K-depth test for K=2, is equivalent to the classical sign test, K-depth test with K≥3 turn out to be much more powerful in many applications. A drawback of the K-depth test is its fairly high computational effort when implemented naively. However, we show how this inherent computational complexity can be reduced. In order to see why K-depth tests with K≥3 are more powerful than the classical sign test, we discuss the asymptotic behavior of its test statistic for residual vectors with only few sign changes, which is in particular the case for some alternatives the classical sign test cannot reject. In contrast, we also consider residual vectors with alternating signs, representing models that fit the data very well. Finally, we demonstrate the good power of the K-depth tests for some examples including high-dimensional multiple regression.Item K-sign depth: Asymptotic distribution, efficient computation and applications(2022) Malcherczyk, Dennis; Müller, Christine; Jentsch, Carsten; Leucht, AnneDie Vorzeichen-Tiefe (sign depths) entspricht in vielen Situationen der Simplex-Regressionstiefe (simplicial regression depth), welche wiederum verwandt mit der von Rousseeuw 1999 eingeführten Regressionstiefe ist. Diese Klasse von Tiefen bewerten Parameter assoziiert zu einem statistischen Modell für gegebene Daten. Die Regressionstiefe und Simplex-Regressionstiefe sind kompliziert zu berechnen und zu verstehen. Die Vorzeichen-Tiefe entspricht hingegen nur der relativen Anzahl von geordneten Tupeln der Länge K mit alternierenden Vorzeichen. Die Arbeit gliedert sich in drei große Teile. Im ersten Teil (Kapitel 3) wird die asymptotische Verteilung der Vorzeichen-Tiefen für beliebige Hyperparameter K hergeleitet. Diese Rechnung basiert auf einen Beweis von Kustosz, Leucht und Müller aus dem Jahr 2016 für die asymptotische Verteilung des Spezialfalls K=3. Die Masterarbeit von Malcherczyk im Jahr 2018 hat diesen Beweis studiert und anschließend stark vereinfachen können. Durch diese Vereinfachung konnte auch ein Beweis für den Fall K=4 gefunden werden. Kapitel 3 ist eine Fortsetzung der Resultate aus der Masterarbeit für allgemeines K. Ein wesentlicher Schritt in der Herleitung ist die Darstellung der Vorzeichen-Tiefe als stetiges Funktional von symmetrischen Irrfahrten auf dem Skorokhod-Raum, wodurch mithilfe eines funktionalen Zentralen Grenzwertsatzes und einem Stetigkeitsargument die asymptotische Verteilung gewonnen wird. Im zweiten Teil (Kapitel 4 und 5) werden verschiedene effiziente Berechnungsmöglichkeiten vorgestellt, da ein Algorithmus basierend auf der Definition eine polynomielle Rechenkomplexität mit Polynomgrad K aufweist. In Kapitel 4 wird ein Algorithmus basierend auf der asymptotischen Herleitung konstruiert, während in Kapitel 5 ein simpler Ansatz basierend auf der Zusammenfassung von Vorzeichen-Blöcken beschrieben wird. Es zeigt sich, dass der Ansatz in Kapitel 5 zu einem exakten Algorithmus mit linearer Laufzeit (unabhängig von K) führt. Im dritten Teil (Kapitel 6 und 7) werden Testverfahren basierend auf der Vorzeichen-Tiefe beschrieben und in Simulationsstudien untersucht. Anwendungen sind das Testen von Modellen und das Testen auf Zufälligkeit. Weitere Themen in diesem Zusammenhang sind z.B. die Wahl des Hyperparameters oder die Konstruktion eines Zwei-Stichproben-Tests für relevante Unterschiede. Ferner werden Ausblicke für zukünftige Forschung gegeben. Die Vorzeichen-Tiefe können z.B. modifiziert werden, sodass die Vorzeichen unterschiedlich gewichtet sind. Diese Gewichte basieren u.a. auf einem für die robuste Statistik typischen Huber-Gewicht oder auf Vorzeichen-Rängen. Kombiniert mit den Resultaten der Dissertation von Melanie Horn aus dem Jahre 2021, die sich insbesondere mit der Anwendung der Vorzeichen-Tiefe in hoch dimensionalen Modellen beschäftigt, ist eine Grundlage geschaffen worden, um die Vorzeichen-Tiefe in der Praxis sinnvoll nutzen zu können. Besonders an dem Ansatz der Vorzeichen-Tiefe ist, dass Modelle lediglich basierend auf den Residuen bewertet werden können. Dies bietet auch die Möglichkeit, nichtparametrische Modelle zu bewerten.Item Sign depth for parameter tests in multiple regression(2021) Horn, Melanie; Müller, Christine; Fried, RolandThis thesis deals with the question how the sign depth test can be applied in the case of multiple regression. Because the result of this test depends on the ordering of the residuals and most times no inherent order is available for multidimensional values one has to think about suitable methods to order these values. In this thesis 13 different ordering methods are described, analyzed and compared with respect to characteristics, computational behavior and performance when using them in the context of sign depth tests. For the last one, several simulations of power functions for many different settings have been carried out. In the simulations different data situations as well as different multiple regression models and different parameters of the sign depth were examined. It is shown in this thesis that a group of so-called “distance based ordering methods” performs best and leads to satisfying results of the sign depth test. Also compared to other tests for regression parameters like the Wald test or the classical sign test the sign depth test performs satisfyingly and especially in the case of testing for model checks it performs clearly better. In addition, this thesis describes the contents and functionality of the R -package GSignTest which was written for this thesis and contains implementations of the sign depth, the sign depth test and the different ordering methods.Item Prediction intervals for load‐sharing systems in accelerated life testing(2020-06-25) Leckey, Kevin; Müller, Christine H.; Szugat, Sebastian; Maurer, ReinhardBased on accelerated lifetime experiments, we consider the problem of constructing prediction intervals for the time point at which a given number of components of a load‐sharing system fails. Our research is motivated by lab experiments with prestressed concrete beams where the tension wires fail successively. Due to an audible noise when breaking, the time points of failure could be determined exactly by acoustic measurements. Under the assumption of equal load sharing between the tension wires, we present a model for the failure times based on a birth process. We provide a model check based on a Q‐Q plot including a simulated simultaneous confidence band and four simulation‐free prediction methods. Three of the prediction methods are given by confidence sets where two of them are based on classical tests and the third is based on a new outlier‐robust test using sign depth. The fourth method uses the implicit function theorem and the δ‐method to get prediction intervals without confidence sets for the unknown parameter. We compare these methods by a leave‐one‐out analysis of the data on prestressed concrete beams. Moreover, a simulation study is performed to discuss advantages and drawbacks of the individual methods.Item Physical activity and outdoor play of children in public playground - do gender and social environment matter?(2018-06-28) Reimers, Anne; Schoeppe, Stephanie; Demetriou, Yolanda; Knapp, GuidoBackground: Few studies have delved into the relationship of the social environment with children’s physical activity and outdoor play in public playgrounds by considering gender differences. The aim of the present study was to examine gender differences and the relationship of the social environment with children’s physical activity and outdoor play in public playgrounds. Methods: A quantitative, observational study was conducted at ten playgrounds in one district of a middle-sized town in Germany. The social environment, physical activity levels, and outdoor play were measured using a modified version of the System for Observing Play and Leisure Activity in Youth. Results: In total, 266 observations of children (117 girls/149 boys) between four and 12 years old were used in this analysis. Significant gender differences were found in relation to activity types, but not in moderate-to-vigorous physical activity (MVPA). The presence of active children was the main explanatory variable for MVPA. In the models stratified by gender, the presence of opposite-sex children was a significant negative predictor of MVPA in girls but not in boys. Conclusions: The presence of active children contributes to children’s physical activity levels in public playgrounds. Girls’ physical activity seems to be suppressed in the presence of boys.Item Effects of exercise on the resting heart rate(2018-12-01) Reimers, Anne; Knapp, Guido; Reimers, Carl-DetlevResting heart rate (RHR) is positively related with mortality. Regular exercise causes a reduction in RHR. The aim of the systematic review was to assess whether regular exercise or sports have an impact on the RHR in healthy subjects by taking different types of sports into account. A systematic literature research was conducted in six databases for the identification of controlled trials dealing with the effects of exercise or sports on the RHR in healthy subjects was performed. The studies were summarized by meta-analyses. The literature search analyzed 191 studies presenting 215 samples fitting the eligibility criteria. 121 trials examined the effects of endurance training, 43 strength training, 15 combined endurance and strength training, 5 additional school sport programs. 21 yoga, 5 tai chi, 3 qigong, and 2 unspecified types of sports. All types of sports decreased the RHR. However, only endurance training and yoga significantly decreased the RHR in both sexes. The exercise-induced decreases of RHR were positively related with the pre-interventional RHR and negatively with the average age of the participants. From this, we can conclude that exercise—especially endurance training and yoga—decreases RHR. This effect may contribute to a reduction in all-cause mortality due to regular exercise or sports.Item Comparison of prediction intervals for crack growth based on random effects models(2018) Emdadi Fard, Maryam; Müller, Christine; Ickstadt, KatjaLinear and nonlinear mixed effects models are applied extensively in the study of repeated measurements and longitudinal data. In this thesis, we propose two linear random effects models and a nonlinear random effects model based on the Paris-Erdogan equation for describing the crack growth data of Virkler et al. (1979). We describe how such models can be applied to achieve the future prediction and prediction interval of the time, when the crack attains a specific length. We propose eleven new methods for prediction interval by extending the methods of Swamy (1971), Rao (1975), Liski and Nummi (1996), Pinheiro and Bates (2000) and Stirnemann et al. (2011). We compare the methods and models by applying them on the crack propagation and simulated data.Item Optimale nicht-gewichtete Zwischenauswertungen zur Fallzahlneuberechnung(2017) Brandau, Katja; Knopp, Guido; Rahnenführer, Jörg; Trampisch, Hans-JoachimDie ethische Forschung an Lebewesen verlangt eine angemessene Fallzahl. Die Unvollkommenheit des derzeit konventionellen Vorgehens wie auch anderer Vorschläge zur Bestimmung einer angemessenen Fallzahl erläutern Kapitel 2.1 beziehungsweise Kapitel 2.3. Das Ziel der Arbeit ist die Reduktion des Defizits durch die Einführung eines alternativen Verfahrens zur Fallzahlbestimmung. Den Kern bildet die Adaption des finalen Stichprobenumfangs im Studienverlauf (vgl. Kapitel 2.2). Sie erfolgt durch die Iteration der verlaufunabh ängigen Quantifizierung der Unsicherheit bezüglich der Fallzahl anhand sämtlicher vorliegender Daten und der darauf abgestimmten Erhebung zusätzlicher Daten (vgl. Kapitel 3.1). Die ausreichende Gewissheit in Bezug auf eine (geplante) angemessene Fallzahl oder auf die Gültigkeit der Nullhypothese leitet das Iterationsende ein. Gegebenenfalls werden noch ausstehende Beobachtungen erhoben. Der abschließende statistische Test der kumulierten Daten wird durch einen universalen kritischen Bereich definiert. Der gesamte Prozess wird in der Planungsphase der Studie durch die Optimierung eines Bayes-Risikos vollständig festgelegt. Kapitel 3.3 enthält einen Leitfaden für die Umsetzung des Konzepts. Die Optimalität bezieht sich auf eine zu definierende Verlustfunktion zur Beurteilung flexibler Studiendesigns (vgl. Kapitel 3.2). Hierfür wird in Kapitel 4.2 mangels geeigneter Kandidaten (vgl. Kapitel 4.1) ein Grundgerüst entwickelt und nach einer Begutachtung in Kapitel 4.3, unter anderem für gruppensequenzielle Verfahren, als geeignet befunden. Infolge dessen wird zudem gezeigt, dass das vorgeschlagene Vorgehen zur Fallzahlbestimmung selbst unter starken Einschränkungen ein Gewinn sein kann (vgl. Kapitel 4.4).Item Depth based estimators and tests for autoregressive processes with application on crack growth and oil prices(2016) Falkenau, Christoph; Müller, Christine; Fried, RolandIn der Arbeit werden neue statistische Methoden für eine Klasse von autoregressiven Prozessen, basierend auf Datentiefe eingeführt. Insbesondere definieren wir Methoden, welche die statistische Inferenz im Rahmen explosiver und nicht linearer autoregressiver Prozesse erlauben. Die Motivation für die behandelten Ansätze sind Experimente von Maurer und Heeke (2010). Das Ziel dieser Experimente ist die Grundlagenforschung im Bereich des Risswachstums in Spannbeton unter niedriger Belastung. Durch die Anwendung physikalischer Gesetze ergibt sich zur Modellierung eine Klasse von nicht linearen Prozessen. Da dieses volle Modell im Rahmen der gegebenen Daten jedoch nicht identifizierbar ist, behandelt die Arbeit reduzierte Modelle. Die Experimente implizieren zusätzliche Eigenschaften der Risswachstumsprozesse und deren Fehler, welche nicht durch Standardannahmen abgedeckt werden können. Daher sind klassische Schätzer und Tests für autoregressive Prozesse nicht direkt anwendbar. In der Arbeit werden auf Datentiefe basierende Methoden vorgeschlagen, welche die spezifischen Eigenschaften von Risswachstumsprozessen in Spannbeton abdecken können. Die zu berücksichtigenden Eigenschaften sind: - Der beobachte Prozess ist explosiv. - Der beobachtete Prozess besitzt Aufwärtssprünge. - Der beobachtete Prozess ist inhomogen im Bezug auf Parameterwechsel. - Der beobachtete Prozess ist möglicherweise rechts-zensiert. Wir leiten daher ausreißerrobuste Schätzer, Tests und Konfidenzbereiche für die Parameter der zugrundelegenden Risswachstumsprozesse her. Des weiteren definieren wir eine Methode um Parameterwechsel in diesen Prozessen zu entdecken und damit einen Bruchpunkterkennungsalgorithmus einzuführen. Um die Unsicherheit im Bezug auf die Versagenszeitpunkte zu berücksichtigen, definieren wir zudem ein Prognoseverfahren für die zukünftige Entwicklung eines Risswachstumsprozesses. Damit können wir Konfidenzbereiche für die Risslängen in bestimmten Zeitpunkten oder Risslängen bestimmen, um zensierte Prozesse zu extrapolieren. Insbesondere ist es möglich auf gegebenen Daten eine S-N-Kurve, welche die Lebenszeit mit der Last in Beziehung setzt, anzupassen. Zudem diskutieren wir die Implementierung der Verfahren, geben Beispiele für deren Anwendung und vergleichen die Methoden in Simulationsstudien. Um die Möglichkeit weiter Anwendungen aufzuzeigen, wenden wir unsere Verfahren auch auf eine Ölpreisreihe an, da typische Preismodelle auch hier von autoregressiven Prozessen ausgehen. Literatur: Maurer, R. and Heeke, G. (2010). Ermüdungsfestigkeit von Spannbeton aus einer älteren Spannbetonbrücke. TU Dortmund University. Technical Report.Item Parameter estimation in the random effects meta regression model(2014-09-22) Möbius, Thomas W. D.; Knapp, Guido; Ickstadt, KatjaItem Schätzung des Hazard-Ratios in zweiarmigen Überlebenszeitstudien(2013-01-07) Ligges, Sandra; Müller, Christine; Rahnenführer, JörgItem Adaptive Group Sequential Trials with the Standardized Mean Difference as Effect Size(2010-07-28) Hartung, Joachim; Knapp, GuidoIn a thorough and extensive simulation study, we investigate the practical properties of repeated confidence intervals and point estimates for the standardized difference of normal means in adaptive group sequential trials. The theoretical foundations have been described in Hartung and Knapp (2009, 2010). In the simulation study, we consider an adaptive three-stage Pocock (1977)-type design for planning and showing noninferiority and an adaptive five-stage O'Brien-Fleming (1979)-type design for planning and showing superiority.Item Flexible Designs in klinischen Prüfungen mit binärer und ordinaler Zielvariable(2010-07-02) Stansen, Wibke; Hartung, Joachim; Fried, RolandIn dieser Arbeit werden klinische Studien mit flexiblem Design untersucht. Hierbei handelt es sich um in mehreren voneinander unabhängigen Stufenabschnitten durchgeführten Verfahren, die basierend auf den bis zu einem bestimmten Zeitpunkt vorliegenden Information Änderungen am Studiendesign erlauben. Zur Kombination der Ergebnisse der einzelnen Sequenzen werden die gewichtete inverse Normal- sowie die verallgemeinerte inverse x^2-Methode betrachtet (vgl. Hartung (2006)). Wird die Anzahl der Sequenzen fest vorgegeben, handelt es sich um adaptiv gruppensequentielle Verfahren. Diese ermöglichen neben der Anpassung des Studiendesigns eine Überprüfung des Testproblems in jeder Zwischenauswertung. Die durch das mehrfache Testen resultierende Erhöhung des Fehlers I. Art erfordert eine Adjustierung der kritischen Schranken. Hierfür werden die Strategien von Pocock (1977), O'Brien und Fleming (1979), Wang und Tsiatis (1987) sowie Haybittle (1971) und Peto et al. (1976) vorgestellt. Die beiden letzteren werden für die Kombination der Ergebnisse mit der inversen x^2-Methode übertragen. Die zugehörigen kritische Werte, welche mittels Simulationen erhalten wurden, werden angegeben. Kommt das Self-Designing klinischer Studien zur Anwendung, ist die Anzahl der Sequenzen zu Beginn der Untersuchung offen. Zudem wird die Gewichtung der einzelnen Stufen basierend auf den vorliegenden Beobachtungen bestimmt. Bei Verwendung der inversen x^2-{Methode kann in jeder Sequenz die Überprüfung der Nullhypothese erfolgen, bei der inversen Normalmethode hingegen erst nach Vergabe des globalen Gewichts. Neben der Überprüfung von Testproblemen ist die Abschätzung des Ausma es eines Wirkungsunterschieds von Interesse. Hierfür werden für die verschiedenen Designs geeignete Methoden für die Punkt- und Intervallschätzung vorgestellt. Für den Fall, dass in den Zwischenauswertungen kein Testen der Nullhypothese sondern nur eine Anpassung der Fallzahl erfolgt, wird ein unverzerrter Schätzer hergeleitet. Die in der Literatur vorgestellten flexiblen Designs basieren häufig auf der Annahme normalverteilter Zielvariable mit bekannter Varianz. Für die Untersuchung dieser Designs bei Vorliegen diskreter Beobachtungen werden klinische Studien mit binärer und ordinaler Zielgröße betrachtet. Für beide Fälle werden Möglichkeiten zur Ermittlung des notwendigen Umfangs basierend auf den vorliegenden Daten vorgestellt. Die verschiedenen flexiblen Designs werden für diese Art von Beobachtungen ausgiebig in Simulationsstudien untersucht. Insbesondere von Interesse ist hierbei, ob Prüfgrößen, welche bereits im nicht-sequentiellen Fall das Testniveau nur asymptotisch einhalten, in adaptiven Designs Anwendung finden können.Item Statistical methods for combining results of independent studies(2010-03-03T07:22:34Z) Knapp, GuidoThe emphasis of the present thesis is on statistical methods for combining results when only published data from the individual studies are available. This is the scenario Glass (1976) had in mind defining the term meta-analysis and this is still the most common situation in research. Individual data from all the studies could clearly improve the findings from a meta-analysis, but in practice it is usually very difficult, if not impossible, to get all the data from the different experiments. The experiments or studies we are interested in are comparative studies, that is, studies in which a hypothesis is tested comparing a new intervention or treatment with a standard intervention or control. The difference or the association between the two counterparts can be modelled using a single parameter, we generally will call effect size in the following. Possible effect sizes are difference of normal means, standardized mean difference, risk difference, or odds ratio. The data situation for the meta-analysis is then that estimates of the effect size of interest are available from each study as well as estimates of the precision of each study-specific effect size estimate.Item Adaptive confidence intervals of desired length and power for normal means(2009-02-02T10:45:39Z) Hartung, Joachim; Knapp, GuidoIn all empirical or experimental sciences, it is a standard approach to present results, additionally to point estimates, in form of confidence intervals on the parameters of interest. The length of a confidence interval characterizes the accuracy of the whole findings. Consequently, confidence intervals should be constructed to hold a desired length. Basic ideas go back to Stein (1945) and Seelbinder (1953) who proposed a two-stage procedure for hypothesis testing about a normal mean. Tukey (1953) additionally considered the probability or power a confidence interval should possess to hold its length within a desired boundary. In this paper, an adaptive multi-stage approach is presented that can be considered as an extension of Stein's concept. Concrete rules for sample size updating are provided. Following an adaptive two-stage design of O'Brien and Fleming (1979) type, a real data example is worked out in detail.Item Adaptive controlled noninferiority group sequential trials(2009-02-02T10:44:40Z) Hartung, Joachim; Knapp, GuidoFor studies comparing three independent arms: test group $T$, reference group $R$, and control group $C$, we consider the hierarchical testing of the a priori ordered hypotheses, that, in short, \begin{eqnarray*} \mbox{(I)}: &~& T > C, \\ \mbox{(II)}: &~& T > R - \Delta, \ \ \Delta > 0, \end{eqnarray*} in general adaptive group sequential designs. For normally distributed response variables with unknown variances, nested confidence intervals on the study parameters are derived at each stage of the trial, holding a predefined confidence level. During the course of the trial, the sample sizes can be calculated in a completely adaptive way based on the unblinded data of previous stages. Concrete formulae for sample size updating are provided in this paper. Moreover, in each interim analysis, it is possible to switch in the planning from showing noninferiority of $T$ in (II) to showing superiority of $T$, that is, $T > R$. A real data example is worked out in detail following an adaptive three-stage design of Pocock (1977) type. In the example, (I) is shown in the first stage and (II) in the second stage, so that the study stopped earlier at the second stage.Item Standardized mean differences in adaptive group sequential trials(2009-02-02T10:42:55Z) Hartung, Joachim; Knapp, GuidoFor studies comparing two independent groups, experimental E and control C, with normally distributed response variables, the outcome measure standardized differences of means is considered that is scale and translation invariant. This effect measure enables a convenient specification of a noninferiority margin in a concrete application. The present paper provides in particular a group sequential confidence interval approach to noninferiority trials and to switching between noninferiority and superiority for the effect size measure standardized mean difference. During the course of the trial, the sample size can be calculated in a completely adaptive way, based on the unblinded data of previously performed stages. Concrete rules for sample size updating are provided in this paper. Moreover, in each interim analysis, it is possible to change the planning from showing noninferiority to showing superiority or vice versa. A real data example is worked out in detail and the change in the planning from showing noninferiority to showing superiority is considered during the ongoing trial.Item Confidence intervals for combined univariate economic forecasts(2009-02-02T10:42:25Z) Argac, Dogan; Hartung, JoachimResearch in combining of economic forecasts made by several institutes on the same economic variable has focused on estimation using mainly regression based methods, hoping that the combined forecast will be improved by incorporating the expert opinions of the institutes. We provide confidence intervals on the combined forecast using analysis of variance techniques. A scoring of the individual institutes is proposed by taking into account the historical performance of the institutes in forecasting the quantity in question. It is remarkable that no information is needed about the individual precision or the variance of the forecasts.Item Adaptive group sequential confidence intervals for the ratio of normal means(2009-02-02T10:41:10Z) Hartung, Joachim; Knapp, GuidoIn controlled group sequential trials, we consider the ratio of normal means as the effect measure of interest and derive group sequential nested confidence intervals on this parameter. In an interim analysis, the sample sizes of the following stages can be determined in a completely adaptive way using the unblinded data from all previously performed stages. Despite the data-dependent adaptation, the nested confidence intervals always keep the predefined confidence coefficient. Using nested confidence intervals, we make test decisions either in noninferiority or in superiority trials. However, in an interim analysis, we can change the planning from showing noninferiority to showing superiority or vice versa without affecting the predefined confidence coefficient of the nested intervals. A real data example is worked out in detail and the change in the planning from showing superiority to showing noninferiority is shown during the ongoing trial.