Lehrstuhl Mathematische Statistik und naturwissenschaftliche Anwendungen

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 19 of 19
  • Item
    On MSE-optimal circular crossover designs
    (2021-11-12) Neumann, Christoph; Kunert, Joachim
    In crossover designs, each subject receives a series of treatments, one after the other in p consecutive periods. There is concern that the measurement of a subject at a given period might be influenced not only by the direct effect of the current treatment but also by a carryover effect of the treatment applied in the preceding period. Sometimes, the periods of a crossover design are arranged in a circular structure. Before the first period of the experiment itself, there is a run-in period, in which each subject receives the treatment it will receive again in the last period. No measurements are taken during the run-in period. We consider the estimate for direct effects of treatments which is not corrected for carryover effects. If there are carryover effects, this uncorrected estimate will be biased. In that situation, the quality of the estimate can be measured by the mean square error, the sum of the squared bias and the variance. We determine MSE-optimal designs, that is, designs for which the mean square error is as small as possible. Since the optimal design will in general depend on the size of the carryover effects, we also determine the efficiency of some designs compared to the locally optimal design. It turns out that circular neighbour-balanced designs are highly efficient.
  • Item
    Optimale Cross-over Designs zur Maximum-Likelihood-Schätzung im Cox-Modell bei Typ-I Zensierungen
    (2020) Urbanik, Sarah Maria; Kunert, Joachim; Ligges, Uwe
    Die Bestimmung optimaler Versuchspläne für Cross-over Experimente bezieht sich in bisherigen Arbeiten vielfach auf die Analyse von Daten, die mittels einfacher linearer Modelle analysiert werden können. Im Fokus der Arbeit stehen Ereigniszeiten als Zielgröße. Diesen Ereigniszeiten wird zum einen unterstellt, dass sie einer Typ-I Zensierung unterliegen und zum anderen durch das Cox-Modell angepasst werden können. Die berücksichtigte Response-Funktion wird durch einen funktionalen Zusammenhang eines direkten Behandlungseffekts, eines einfachen Carry-over sowie eines Block- und Periodeneffekts beschrieben. Die Modellparameter des Cox-Modells lassen sich mittels der Maximum-Likelihood-Methode schätzen, was auf die Informationsmatrix der direkten Behandlungseffekte schließen lässt. Diese Informationsmatrix dient als Grundlage bei der Suche nach optimalen Versuchsplänen. Im Gegensatz zu Zielgrößen, die mittels eines einfachen linearen Modells erklärt werden können, besteht das zentrale Problem der Arbeit darin, dass die Güte von Versuchsplänen unter der Annahme von Zensierungen von den wahren Modellparametern abhängt. Dies hat zur Folge, dass nur lokal optimale Versuchspläne bestimmt werden können. In der Dissertation werden Versuchspläne gesucht, die möglichst optimal sein sollen, wenn die Unterschiede zwischen den Behandlungen nur schwer erkennbar sind. Weiter werden verschiedene Annahmen an die Modellparameter gestellt, die zu Aussagen über asymptotische Effizienzeigenschaften von Versuchsplänen führen. Für endliche Stichprobengrößen werden anknüpfend anhand von Simulationsstudien die Effizienzen bestimmter Blockdesigns untersucht. Die Ergebnisse der Arbeit dienen als Grundlage, um Handlungsempfehlungen zur Durchführung von Cross-over Experimenten mit Ereigniszeiten geben zu können. Die gewonnenen Erkenntnisse weisen insbesondere darauf hin, dass in vielen Situationen optimale Versuchspläne für einfache lineare Modelle hoch effizient sein können.
  • Item
    On variance estimation under shifts in the mean
    (2020-04-01) Axt, Ieva; Fried, Roland
    In many situations, it is crucial to estimate the variance properly. Ordinary variance estimators perform poorly in the presence of shifts in the mean. We investigate an approach based on non-overlapping blocks, which yields good results in change-point scenarios. We show the strong consistency and the asymptotic normality of such blocks-estimators of the variance under independence. Weak consistency is shown for short-range dependent strictly stationary data. We provide recommendations on the appropriate choice of the block size and compare this blocks-approach with difference-based estimators. If level shifts occur frequently and are rather large, the best results can be obtained by adaptive trimming of the blocks.
  • Item
    Penalized quasi-maximum likelihood estimation for extreme value models with application to flood frequency analysis
    (2020-06-03) Bücher, Axel; Lilienthal, Jona; Kinsvater, Paul; Fried, Roland
    A common statistical problem in hydrology is the estimation of annual maximal river flow distributions and their quantiles, with the objective of evaluating flood protection systems. Typically, record lengths are short and estimators imprecise, so that it is advisable to exploit additional sources of information. However, there is often uncertainty about the adequacy of such information, and a strict decision on whether to use it is difficult. We propose penalized quasi-maximum likelihood estimators to overcome this dilemma, allowing one to push the model towards a reasonable direction defined a priori. We are particularly interested in regional settings, with river flow observations collected at multiple stations. To account for regional information, we introduce a penalization term inspired by the popular Index Flood assumption. Unlike in standard approaches, the degree of regionalization can be controlled gradually instead of deciding between a local or a regional estimator. Theoretical results on the consistency of the estimator are provided and extensive simulations are performed for the reason of comparison with other local and regional estimators. The proposed procedure yields very good results, both for homogeneous as well as for heterogeneous groups of sites. A case study consisting of sites in Saxony, Germany, illustrates the applicability to real data.
  • Item
    Statistical topics in clinical biosimilar development
    (2018) Mielke, Johanna; Kunert, Joachim; Rahnenführer, Jörg; Jones, Bryan
  • Item
    MSE-optimale crossover designs
    (2017) Neumann, Christoph; Kunert, Joachim; Müller, Christine
    In der optimalen Versuchsplanung für Crossover Designs wurde bislang ein starker Fokus auf das optimale Schätzen der Behandlungskontraste gelegt. Nahezu unbetrachtet blieben bislang jedoch Modellmisspefizikation, insbesondere wenn carryover-Effekte auftreten, aber nicht ins Modell aufgenommen werden. In dieser Arbeit wurden Designs hinsichtlich ihrer Robustheit bei Modellmisspezifikation untersucht. Dafür wurde der Mean Squared Error (MSE) der Schätzer der Behandlungseffekte als Maß für ein Design verwendet. Der MSE rechnet den Nachteil von verzerrten Schätzern mit dem Vorteil einer besseren Schätzung der Fehlervarianz gegeneinander auf. Ziel ist es, den MSE zu minimieren. Wird als Optimalitätskriterium der MSE betrachtet, liegt im Allgemeinen das Problem vor, dass der Wert des MSE und damit die Optimalität eines Designs von den Werten des Parametervektors der carryover-Effekte abhängt. Es konnte jedoch gezeigt werden, dass die Betrachtung der Quadratsummen der carryover-Effekte eine sinnvolle Vorgehensweise darstellt. In dieser Arbeit konnte eine untere Schranke für den MSE hergeleitet werden, die nur von den Spuren der partitionierten Informationsmatrix der Schätzer abhängt. Diese Schranke wird im Modell ohne Periodeneffekte, aber mit additiven carrover-Effekten von symmetrischen Designs angenommen, sodass eine Beschränkung auf diese Klasse möglich ist. Da für den Fall p > t, d.h. es stehen pro Proband mehr Perioden als Behandlungen zur Verfügung, immer ein Design existiert, das die Varianz der Schätzer minimiert und gleichzeitig unverzerrte Schätzer liefert, ist dieses Design folglich auch MSE-optimal. Deutlich komplizierter ist der Fall p≤t: Es zeigte sich, dass eine Mischung aus Sequenzen, die im Modell mit oder im Modell ohne carryover-Effekte optimal zum Schätzen der Behandlungseffekte sind, MSE-optimal ist. Neben der MSE-Optimalität wurde die Idee der MSE-Effizienz für ein Design entwickelt. Da MSE-optimale Designs in der Regel von den konkreten carryover-Effekten abhängen, ist eine allgemeine Wahl eines MSE-optimalen Designs nicht möglich. Mit Hilfe der Effizienz kann aber eine Bewertung eines beliebigen Designs hinsichtlich des MSE vorgenommen werden. Es zeigt sich, dass optimale Pläne zum Schätzen der Behandlungseffekte im Modell mit als auch im Modell ohne carryover-Effekte hoch effizient sind. Neben der Modellierung des carryover-Effektes als additiven Term, der nur von der Behandlung der Vorperiode abhängt, sind eine Reihe weiterer Modellierungen für die carryover-Effekte bekannt. Für das Modell mit proportionalen carryover-Effekten, das Modell mit self-und-mixed-carryover Effekten sowie für das Modell mit links- und rechtsseitigem carryover-Effekt konnte MSE-optimale Designs angegeben werden. Auch hier wurde zeigte sich, dass optimale Designs zum Schätzen der carryover-Effekte optimal MSE-effizient sind. Des Weiteren wurden für circular Designs MSE-optimale Versuchspläne angegeben. Durch die Arbeit zeigt sich, dass optimale Designs für ein Modell mit carryover-Effekt in der Regel effizient im Sinne des MSE in einem Modell ohne carryover-Effekte sind. Daher sollte die Analyse von Crossover Designs, sofern es vertretbar ist, ohne carryover-Effekte erfolgen.
  • Item
    Assessment of randomization procedures in the presence of selection and chronological bias
    (2016) Schindler, David; Kunert, Joachim; Müller, Christine H.
    Every randomized clinical study needs a method of allocating treatments to patients to ensure the basis for a valid statistical inference. In the literature, the susceptibility of randomization procedures to both selection and chronological bias is already well studied. However, no optimality statement is given for the selection of a randomization procedure, when both types of bias are present simultaneously. Therefore, a linked assessment criterion for the selection of an appropriate randomization procedure is presented. The linked assessment criterion is based on desirability functions. For the calculation of the optimality score of a randomization procedure the importance of the investigated types of bias is considered. Several randomization procedures are compared for the sample sizes 12, 50 and 200. Finally, a recommendation for the choice of a randomization procedure is given in the presence of both selection and chronological bias.
  • Item
    D-Effzienzen von Versuchsplänen im einfachen linearen Regressionsmodell bei korrelierten Fehlern
    (2013-02-27) Wilk, Adrian; Kunert, Joachim; Müller, Christine
  • Item
    A-optimale Blockpläne für Behandlungs-Kontroll-Vergleiche bei AR(1)-korrelierten Fehlern
    (2011-12-19) Melsheimer, Oliver; Kunert, Joachim; Müller, Christine
    In dieser Arbeit wurde eine Vorarbeit von [Kunert et al., 2010] aufgegriffen und für den Vergleich mehrerer Behandlungen mit einer Kontrolle im einfachen Blockmodell mit AR(1)-korrelierten Fehlern untersucht, wo sich die Stelle befindet, an der das Maximum über alle H-Funktionen seinen kleinsten Wert annimmt. Das Auffinden dieser Stelle ist deshalb so bedeutsam, da sich durch sie zumindest eine Untergrenze für das Atc-Kriterium ermitteln lässt und sie in manchen Fällen sogar über die Gestalt des optimalen Versuchplans Auskunft gibt. Bei dieser Untersuchung wurde dabei von denselben grundlegenden Annahmen ausgegangen, die auch [Kunert et al., 2010] in ihrem Artikel voraussetzten: So wurde insbesondere nur die Situation betrachtet, in der die Anzahl der Behandlungen v mindestens so groß ist wie die Blocklänge k und die Fehler zudem nicht-negativ und auch nicht perfekt korreliert sind, der Korrelationsparameter λ des autoregressiven Prozesses also im Bereich [0, 1) liegt. In Kapitel 3 konnte mit einer alternativen Darstellung der Sequenzen schnell gezeigt werden, dass nur solche Sequenzen für diese Suche überhaupt von Relevanz sein können, die Kontrollen nie in direkter Folge einsetzen und den Einsatz einer Kontrolle auf einem der beiden Randfelder der Sequenz nach Möglichkeit vermeiden. Durch diese Erkenntnis und die Vorarbeit von [Kunert et al., 2010] ließ sich die Zahl der zu betrachtenden Sequenzen erheblich reduzieren und es konnte nachgewiesen werden, dass für jede bestimmte Anzahl von Kontrollen z mit z = k 2 jeweils nur eine einzige Sequenz s(z) als Repräsentant der ganzen Klasse betrachtet werden muss. Bei der anschließenden näheren Betrachtung des Verhaltens dieser verbleibenden Sequenzen in den Kapiteln 4 und 5 stellte sich heraus, dass die zu ihnen gehörenden H-Funktionen im Intervall [-1, 0], das - wie Vorüberlegungen zeigten - überhaupt den einzig interessanten Bereich abdeckt, besonderen Gesetzmäßigkeiten folgen: Die Scheitelpunkte x(z) dieser Funktionen liegen alle in diesem Bereich und zwar in der immer gleichen Reihenfolge x(0), x(1), x(2) und so weiter. Je zwei dieser Funktionen schneiden sich in diesem Intervall genau einmal. Für die Schnittpunkte xj|j+1 zweier Sequenzen s(j) und s(j+1) konnte dabei gezeigt werden, dass diese Schnitte umso weiter links im Intervall liegen, je größer j ist, also die Reihenfolge x0|1 > x1|2 > x2|3 usw. gilt. Diese Erkenntnisse vereinend und dabei die Tatsache berücksichtigend, dass es sich bei allen HFunktionen um nach oben geöffnete Parabeln handelt, ließ sich damit weiter zeigen, dass es für all diese Sequenzen jeweils ein Teilintervall gibt, auf dem die jeweilige Sequenz allen anderen überlegen ist, und dass diese Intervalle umso weiter rechts liegen, je kleiner die Zahl der eingesetzten Kontrollen in der Sequenz. Mit diesem neu gewonnenen Wissen konnte daraufhin ein konstruktives Verfahren hergeleitet werden, mit dem sich schnell und mit nur wenigen Funktionsauswertungen die gesuchte Optimalstelle finden lässt. Welche Auswirkungen eine Veränderung der Parameter auf die Position dieser Stelle bzw. die Zahl der in den dort optimalen Sequenzen eingesetzten Kontrollen hat, wurde schließlich zum Abschluß dieser Arbeit in Kapitel 6 erforscht. Dabei konnte unter anderem nachgewiesen werden, dass mit wachsendem v die Zahl der in diesen optimalen Sequenzen verwendeten Kontrollen monoton sinkt und sich Schwellenwerte finden lassen, ab denen die gesuchte Optimalstelle am Schnittpunkt x0|1 liegen kann bzw. ab denen sie dort sogar immer liegen muss. Weiter ließ sich so ermitteln, wie viele Kontrollen die optimalen Sequenzen für gegebenes k höchstens einsetzen.
  • Item
    Sequential multi-objective target value optimization
    (2011-11-14) Wenzel, Simone; Kunert, Joachim; Weihs, Claus
    In engineering processes the specification of optimization targets is usually reduced to minimization or maximization problems. The specfication of challenging multivariate target structures is excluded, due to the lack of algorithms that are able to handle them. Often however the optimum is a precise target instead of a minimum or maximum and it would be helpful if the deviation from the target could be penalized asymmetrically. In this thesis a new heuristic named mtEGO for multi-objective target value sequential optimization has been developed. A small initial spacefilling design is used to fit a surrogate model for each objective of the optimization problem. Based on the predictions and prediction errors of the surrogate model for the whole parameter space virtual observations with dfferent (1 ..ff) confidence levels are constructed. These virtual observations are used to roughly simulate the effect of the model uncertainty on the capability of each setting in the parameter space to be the global optimum. A transformation with desirability functions and the aggregation to a joint desirability index turns the multi-objective target value prob- lem in a simple single-objective maximization problem. Improvements are determined for this single-objective maximization problem then, which are maximized tofind the global optimum. mtEGO therefore works in a hybrid way, which means for each combination of (1...ff) confidence levels an own candidate for the global optimum is determined simultaneously. The candidates are reduced to a small number of updating points using hierarchical clustering. Finally, the model is refined with the observations from the updating points and the algorithm proceeds to generate and add new updating points until the stopping criterion is fulfilled. The mtEGO algorithm is validated successfully by means of extensive simulation studies and two case studies from mechanical engineering. Beside the fact that the two case studies demonstrate the applicability of mtEGO to real applications, they show that mtEGO even works successfully if basic conditions change in an ongoing optimization process. Further, an improved variant of mtEGO, named mtEGOimp, is developed. It does a pre-selection of reasonable confidence levels before cross-combining them. As a consequence, the computation time of the mtEGO approach is strongly reduced, which relaxes time limitations. The incorporation of a convex hull restriction method for failure points and an imputation of missing values into the mtEGO approach, finally extends it to a powerful tool for optimization problems even in the presence of unknown constraints.
  • Item
    A-Optimalität für den Vergleich mit einer Kontrolle bei Crossover-Designs
    (2010-09-14) Mersmann, Sabine; Kunert, Joachim; Weihs, Claus
    Die konkrete und detaillierte Planung von Experimenten zur effizienten Datengewinnung nimmt eine zentrale Rolle innerhalb der modernen Statistik ein. Durch die Verwendung effizienter Versuchspläne lassen sich Kosten- und Zeitaufwand eines Experiments bei gleichzeitiger Steigerung der Datenqualität verringern. Leider stellt sich die Konstruktion effizienter Designs für komplexe Blockmodelle als schwierige Aufgabe dar. Da kleine Änderungen am Design zu nicht-stetigen Änderungen im Wert der standardmäßig verwendeten Optimalitätskriterien führen, ist aus mathematischer Sicht hier die Lösung eines diskreten Optimierungsproblems notwendig. Eine erstmals von Kushner (1997) vorgestellte Methode überträgt dieses diskrete Optimierungsproblem in ein stetiges, konvexes Minimerungsproblem und leitet daraus eine potentiell scharfe Schranke für das zugrundeliegende Optimalitätskriterium ab. In der vorliegenden Dissertation überprüfen wir die Übertragbarkeit des Kushner-Ansatzes auf komplexe Modelle am Beispiel eines Crossover-Modells mit Carryover-Effekten für den Vergleich mit einer Kontrolle, sowie einer zirkulären Version dieses Modells. Bei Verwendung dieser Modelle sind die aus dem Kushner-Ansatz resultierenden Funktionen jedoch nicht länger konvex. Dies führt zu Problemen bei der analytischen Lösung des nun nicht mehr konvexen Minimierungsproblems. Für das nicht-zirkuläre Modell gelingt uns daher lediglich für Designs mit p = 3 Perioden und t >= 3 Testbehandlungen die analytische Bestimmung dieses globalen Minimums. Die resultierende Schranke l* ist potentiell scharf und für alle t besser als der Wert einer bereits bekannten, naïven Schranke aus dem einfachen Blockmodell. Für p >= 4 Perioden scheitert die Bestimmung des globalen Minimums an der komplexen Gestalt der zu untersuchenden Funktionen. Hier ist uns nur die Bestimmung eines Punktes auf der Maximumsfunktion für beliebige p >= 4 und t >= p-1 möglich. Dieser Wert liefert jedoch in jedem Fall eine Schranke l* für den A_tc-Wert, die noch immer eine deutliche Verbesserung gegenüber der naïven Schranke aus dem einfachen Blockmodell darstellt. Mit Hilfe der ermittelten Schranken können wir nun beispielsweise die hohe Effizienz der von Hedayat und Yang (2005) vorgestellten Designs nachweisen. Im Falle zirkulärer Modelle stellt sich die Situation sehr ähnlich dar. Für viele Kombinationen von t und p können wir scharfe Schranken für das Atc-Kriterium bestimmen, bei einigen anderen ist dies aufgrund der komplexen Gestalt der zu untersuchenden Funktionen nicht möglich. Gegenüber dem nicht-zirkulären Modell können wir allerdings für einige wenige Kombinationen von p und t sogar Konstruktionsvorschläge für optimale Designs auf Basis der durch die Kushner-Methode gewonnenen Erkenntnisse liefern. 1. Kushner, H. B. (1997). Optimal repreated measurements designs: The linear optimality equations. Annals of Statistics, 25(6):2328-2344. 2. Hedayat, A. S. und M. Yang (2005). Optimal and efficient crossover designs for comparing test treatments with a control. Annals of Statistics, 33(2):915-943.
  • Item
    Bestimmung c-optimaler Versuchspläne in Modellen mit zufälligen Effekten, mit Anwendungen in der Pharmakokinetik
    (2010-06-22) Holland-Letz, Tim; Kunert, J.; Müller, C.
    Medizinische Studien im Bereich der Pharmakokinetik basieren in vielen Fällen auf speziellen Modellen mit zufälligen Effekten, den sogenannten Populationsmodellen. In solchen Studien werden jeweils mehrere Messungen an einer Anzahl verschiedener Patienten durchgeführt. Aus dem Blickwinkel der optimalen Versuchsplanung führt dies zu methodischen Schwierigkeiten, da der zufällige Effekt sowohl eine parameterabhängige Varianz der Beobachtungen als auch teilweise korrelierte Daten zur Folge hat. Auf diese Weise sind zwei der Schlüsselannahmen klassischer Versuchsplanungsliteratur verletzt. Es ist das Ziel dieser Arbeit, die bestehende Methodik so anzupassen und zu ergänzen, dass auch diese Situationen betrachtet werden können. Da die wichtigsten zu schätzenden Kenngrößen in der Pharmakokinetik bestimmte Summengrößen der Parameter sind (z.B. die Fläche unter der Konzentrationskurve eines Präparates) wird der Schwerpunkt dieser Arbeit auf c-optimalen Designs liegen, die die optimale Schätzung solcher Größen erlauben. Im einzelnen wird zunächst die geometrische Repräsentation optimaler Designs nach Elfving (1952) so verallgemeinert, dass die beschriebene Situation abgedeckt ist. Im zweiten Schritt wird die Äquivalenztheorie nach Kiefer (1974) und Pukelsheim (1993) auf das spezifische Modell angewendet. Dritter Schritt ist die Anpassung multplikativer Algorithmen zur numerischen Bestimmung optimaler Designs in dieser Situation, und als letztes Ergebnis wird das Konzept asymptotisch optimaler Designs auf einen speziellen Fall korrelierter Beobachtungen angewendet.
  • Item
    Auswertungsmethoden bei Experimenten mit Nachwirkungen und korrelierten Fehlern
    (2009-10-21T10:00:23Z) Sailer, Oliver; Kunert, Joachim; Knapp, Guido
  • Item
    Optimal crossover designs with interactions between treatments and units
    (2009-09-08T10:30:03Z) Bludowsky, Andrea M.; Kunert, J.; Weihs, C.
  • Item
    Optimale statistische Versuchsplanung dreifaktorieller Zwei-Farben-cDNA-Microarray-Experimente
    (2008-08-28T12:33:31Z) Stanzel, Sven; Kunert, Joachim; Weihs, Claus; Hilgers, Ralf-Dieter
    In der Medizin hat mit dem rasanten Wachstum der biotechnologischen Industrie in den letzten Jahrzehnten die Erforschung von mit Genmutationen assoziierten Ursachen für die Entstehung verschiedener Krankheitsbilder stark an Bedeutung zugenommen. Das Ziel der Durchführung von Genexpressionsanalysen mit Hilfe von Zwei-Farben-cDNA-Microarray-Experimenten [1] besteht in der Identifikation von Kandidatengenen, die für den Ausbruch einer bestimmten Erkrankung mitverantwortlich gemacht werden können. Langfristig sollen die hierbei gewonnenen Erkenntnisse zur Entwicklung von innovativen Medikamenten führen, die zur Therapie von genetisch assoziierten oder bedingten Erkrankungen verwendet werden können. Landgrebe et al. haben ein spezielles genspezifisches lineares Modell mit festen Effekten für die statistische Auswertung der in Zwei-Farben-cDNA-Microarray-Experimenten generierten Genexpressionsdaten vorgeschlagen [2]. Durch eine geringfügige Modifikation dieses Modells kann zusätzlich zu den häufig betrachteten Einflussgrößen „Farbe“ und „Behandlung“ der Effekt des Faktors „Zelllinie“ auf die ermittelten Genexpressionsdaten analysiert werden. Es wird gezeigt, dass der Parametervektor des Landgrebe-Modells in dieser speziellen dreifaktoriellen Designsituation nicht unverzerrt schätzbar ist. Anschließend werden Φp-optimale Versuchspläne für das Schätzen aller Paarvergleiche von Behandlungen, für den Nachweis unterschiedlicher Behandlungsdifferenzen zwischen den Zelllinien, sowie für das Schätzen des aus diesen speziellen linearen Kontrasten zusammengesetzten Vektors, konstruiert. Für den Nachweis der Φp-Optimalität wird dabei jeweils eine generalisierte Form der von Pukelsheim eingeführten Äquivalenztheoreme [3] verwendet. Die erzielten Optimalitätsergebnisse sind nicht auf bestimmte Anzahlen von Arrays, Behandlungen und Zelllinien beschränkt und liefern damit allgemeingültige Optimalitätsaussagen für das Schätzen der hier untersuchten linearen Kontraste. Bei Betrachtung der linearen Kontraste für das Schätzen der Interaktionseffekte von Behandlungen und Zelllinien ist die gefundene Lösung allerdings abhängig von der vorliegenden Beziehung zwischen der Anzahl analysierter Behandlungen und der Anzahl verwendeter Zelllinien. Die Unabhängigkeit dieser Lösungen vom verwendeten Optimalitätskriterium lässt sich als Robustheitseigenschaft der konstruierten optimalen Blockpläne interpretieren. Insbesondere sind diese Versuchsanlagen damit A-, D-, E- und T-optimal für das Schätzen der betrachteten linearen Kontraste. Für die Praxis ergeben sich aus den identifizierten optimalen Designs direkte Empfehlungen bezüglich der Wahl effizienter Versuchsanlagen für konkrete Zwei-Farben-cDNA-Microarray-Experimente mit vorgegebenen Anzahlen von Arrays, Behandlungen und Zelllinien. Durch die Verwendung entsprechender effizienter Versuchspläne lässt sich ein Zeitgewinn bei der praktischen Durchführung dieser Experimente und damit die Einsparung finanzieller Ressourcen erwarten.
  • Item
    Eine adaptive sequentielle Prozedur zur effizienten Optimierung des CNC-gesteuerten Drückprozesses
    (2007-02-07T09:26:15Z) Henkenjohann, Nadine; Kunert, Joachim; Weihs, Claus
  • Item
    Eigenschaften und Erweiterungen der Methode CLV zum Clustern von Variablen : Anwendungen in der Sensometrie
    (2006-11-20T12:59:07Z) Sahmer, Karin; Kunert, Joachim; Cazes, Pierre
    In this work, the properties of the method of clustering of variables around latent components (CLV) are investigated. A statistical model is postulated. This model is especially appropriate for sensory profiling data. It sheds more light on the method CLV. The clustering criterion can be expressed in terms of the parameters of the model. It is shown that, under weak conditions, the hierarchical algorithm of CLV finds the correct partition while the partitioning algorithm depends on the partition used as a starting point. Furthermore, the performance of CLV on the basis of a sample is investigated by means of a simulation study. It is shown that this performance is comparable to the performance of known methods such as the procedure Varclus of the software SAS. Finally, two methods for determining the number of groups are proposed and compared.
  • Item
    Experimental design for quality improvement in the presence of time-trends
    (Universität Dortmund, 2004-10-27) Adekeye, Kayode S.; Kunert, Joachim; Weihs, Claus
  • Item
    On the analysis of unreplicated factorial designs
    (Universität Dortmund, 2003-03-14) Chen, Ying; Kunert, J.; Weihs, Claus
    This thesis deals with the problems associated with the analysis of unreplicated fractional factorial designs. These are mainly the estimation of the residual variance and the identification of active contrasts by corresponding tests. In this thesis, only orthogonal designs are studied. This work consists of five chapters and is organized as follows: Chapter 1 introduces the problems in the analysis of unreplicated factorial designs and reviews some existing solutions and their limitations. Chapter 2 reviews twelve existing quantitative methods for analyzing unreplicated fractional factorial designs in detail. These are the directed methods, which use an estimate of the standard deviation as the denominator of a test statistic (Lenth (1989), Juan and Pena (1992), and Dong (1993)); outlier­detection techniques (Seheult and Tukey (1982), Le and Zamar (1992)); Bayesian methods (Box and Meyer (1986)); hybrid procedures (Benski (1989), Lawson, et al. (1998)); non­parametric method (Loughin and Nobel (1997)); generalized likelihood ratio test (Al­Shiha and Yang (1999)); the method based on display ratio (Johnson and Tukey (1987)); and the method based on variance homogeneity test (Bissell (1989)), respectively. Chapter 3 presents a new quantitative method, which we call MaxU r ­method. Some of the statistical properties, e.g. the exact null distribution and the power function of this method are discussed and simulated critical values of MaxU r are presented. The exact quantiles and power of the test MaxU r are also derived in the special case when there are only three contrasts (e.g., in the 2 2 design). Finally, four examples are given to illustrate the use of the new method. In chapter 4, all thirteen methods are compared by means of a simulation study. In this simulation study, not only cases where the active contrasts all have the same magnitude are considered, but also cases where the active contrasts differ in magnitude. Chapter 5, the last chapter, summarizes the results of the simulation study, and provides a comparison to those reported before by other authors. It concludes with discussions and an outlook for possible future investigation.