Eldorado Collection:http://hdl.handle.net/2003/792024-03-29T11:51:49Z2024-03-29T11:51:49ZOn MSE-optimal circular crossover designsNeumann, ChristophKunert, Joachimhttp://hdl.handle.net/2003/408232022-03-23T23:12:58Z2021-11-12T00:00:00ZTitle: On MSE-optimal circular crossover designs
Authors: Neumann, Christoph; Kunert, Joachim
Abstract: In crossover designs, each subject receives a series of treatments, one after the other in p consecutive periods. There is concern that the measurement of a subject at a given period might be influenced not only by the direct effect of the current treatment but also by a carryover effect of the treatment applied in the preceding period. Sometimes, the periods of a crossover design are arranged in a circular structure. Before the first period of the experiment itself, there is a run-in period, in which each subject receives the treatment it will receive again in the last period. No measurements are taken during the run-in period. We consider the estimate for direct effects of treatments which is not corrected for carryover effects. If there are carryover effects, this uncorrected estimate will be biased. In that situation, the quality of the estimate can be measured by the mean square error, the sum of the squared bias and the variance. We determine MSE-optimal designs, that is, designs for which the mean square error is as small as possible. Since the optimal design will in general depend on the size of the carryover effects, we also determine the efficiency of some designs compared to the locally optimal design. It turns out that circular neighbour-balanced designs are highly efficient.2021-11-12T00:00:00ZOptimale Cross-over Designs zur Maximum-Likelihood-Schätzung im Cox-Modell bei Typ-I ZensierungenUrbanik, Sarah Mariahttp://hdl.handle.net/2003/402022021-05-27T22:13:11Z2020-01-01T00:00:00ZTitle: Optimale Cross-over Designs zur Maximum-Likelihood-Schätzung im Cox-Modell bei Typ-I Zensierungen
Authors: Urbanik, Sarah Maria
Abstract: Die Bestimmung optimaler Versuchspläne für Cross-over Experimente bezieht sich in bisherigen Arbeiten vielfach auf die Analyse von Daten, die mittels einfacher linearer Modelle analysiert werden können. Im Fokus der Arbeit stehen Ereigniszeiten als Zielgröße. Diesen Ereigniszeiten wird zum einen unterstellt, dass sie einer Typ-I Zensierung unterliegen und zum anderen durch das Cox-Modell angepasst werden können. Die berücksichtigte Response-Funktion wird durch einen funktionalen Zusammenhang eines direkten Behandlungseffekts, eines einfachen Carry-over sowie eines Block- und Periodeneffekts beschrieben. Die Modellparameter des Cox-Modells lassen sich mittels der Maximum-Likelihood-Methode schätzen, was auf die Informationsmatrix der direkten Behandlungseffekte schließen lässt. Diese Informationsmatrix dient als Grundlage bei der Suche nach optimalen Versuchsplänen. Im Gegensatz zu Zielgrößen, die mittels eines einfachen linearen Modells erklärt werden können, besteht das zentrale Problem der Arbeit darin, dass die Güte von Versuchsplänen unter der Annahme von Zensierungen von den wahren Modellparametern abhängt. Dies hat zur Folge, dass nur lokal optimale Versuchspläne bestimmt werden können. In der Dissertation werden Versuchspläne gesucht, die möglichst optimal sein sollen, wenn die Unterschiede zwischen den Behandlungen nur schwer erkennbar sind. Weiter werden verschiedene Annahmen an die Modellparameter gestellt, die zu Aussagen über asymptotische Effizienzeigenschaften von Versuchsplänen führen. Für endliche Stichprobengrößen werden anknüpfend anhand von Simulationsstudien die Effizienzen bestimmter Blockdesigns untersucht.
Die Ergebnisse der Arbeit dienen als Grundlage, um Handlungsempfehlungen zur Durchführung von Cross-over Experimenten mit Ereigniszeiten geben zu können. Die gewonnenen Erkenntnisse weisen insbesondere darauf hin, dass in vielen Situationen optimale Versuchspläne für einfache lineare Modelle hoch effizient sein können.2020-01-01T00:00:00ZOn variance estimation under shifts in the meanAxt, IevaFried, Rolandhttp://hdl.handle.net/2003/401212021-03-30T22:10:28Z2020-04-01T00:00:00ZTitle: On variance estimation under shifts in the mean
Authors: Axt, Ieva; Fried, Roland
Abstract: In many situations, it is crucial to estimate the variance properly. Ordinary variance estimators perform poorly in the presence of shifts in the mean. We investigate an approach based on non-overlapping blocks, which yields good results in change-point scenarios. We show the strong consistency and the asymptotic normality of such blocks-estimators of the variance under independence. Weak consistency is shown for short-range dependent strictly stationary data. We provide recommendations on the appropriate choice of the block size and compare this blocks-approach with difference-based estimators. If level shifts occur frequently and are rather large, the best results can be obtained by adaptive trimming of the blocks.2020-04-01T00:00:00ZPenalized quasi-maximum likelihood estimation for extreme value models with application to flood frequency analysisBücher, AxelLilienthal, JonaKinsvater, PaulFried, Rolandhttp://hdl.handle.net/2003/400742021-03-11T23:10:28Z2020-06-03T00:00:00ZTitle: Penalized quasi-maximum likelihood estimation for extreme value models with application to flood frequency analysis
Authors: Bücher, Axel; Lilienthal, Jona; Kinsvater, Paul; Fried, Roland
Abstract: A common statistical problem in hydrology is the estimation of annual maximal river flow distributions and their quantiles, with the objective of evaluating flood protection systems. Typically, record lengths are short and estimators imprecise, so that it is advisable to exploit additional sources of information. However, there is often uncertainty about the adequacy of such information, and a strict decision on whether to use it is difficult. We propose penalized quasi-maximum likelihood estimators to overcome this dilemma, allowing one to push the model towards a reasonable direction defined a priori. We are particularly interested in regional settings, with river flow observations collected at multiple stations. To account for regional information, we introduce a penalization term inspired by the popular Index Flood assumption. Unlike in standard approaches, the degree of regionalization can be controlled gradually instead of deciding between a local or a regional estimator. Theoretical results on the consistency of the estimator are provided and extensive simulations are performed for the reason of comparison with other local and regional estimators. The proposed procedure yields very good results, both for homogeneous as well as for heterogeneous groups of sites. A case study consisting of sites in Saxony, Germany, illustrates the applicability to real data.2020-06-03T00:00:00ZStatistical topics in clinical biosimilar developmentMielke, Johannahttp://hdl.handle.net/2003/370982018-08-17T06:56:04Z2018-01-01T00:00:00ZTitle: Statistical topics in clinical biosimilar development
Authors: Mielke, Johanna2018-01-01T00:00:00ZMSE-optimale crossover designsNeumann, Christophhttp://hdl.handle.net/2003/360322017-07-28T02:00:07Z2017-01-01T00:00:00ZTitle: MSE-optimale crossover designs
Authors: Neumann, Christoph
Abstract: In der optimalen Versuchsplanung für Crossover Designs wurde bislang ein starker Fokus auf das optimale Schätzen der Behandlungskontraste gelegt. Nahezu unbetrachtet blieben bislang jedoch Modellmisspefizikation, insbesondere wenn carryover-Effekte auftreten, aber nicht ins Modell aufgenommen werden.
In dieser Arbeit wurden Designs hinsichtlich ihrer Robustheit bei Modellmisspezifikation untersucht. Dafür wurde der Mean Squared Error (MSE) der Schätzer der Behandlungseffekte als Maß für ein Design verwendet.
Der MSE rechnet den Nachteil von verzerrten Schätzern mit dem Vorteil einer besseren Schätzung der Fehlervarianz gegeneinander auf. Ziel ist es, den MSE zu
minimieren. Wird als Optimalitätskriterium der MSE betrachtet, liegt im Allgemeinen
das Problem vor, dass der Wert des MSE und damit die Optimalität eines Designs von den Werten des Parametervektors der carryover-Effekte abhängt. Es konnte jedoch gezeigt werden, dass die Betrachtung der Quadratsummen der carryover-Effekte eine sinnvolle Vorgehensweise darstellt. In dieser Arbeit konnte eine untere Schranke für den MSE hergeleitet werden, die nur von den Spuren der partitionierten Informationsmatrix der Schätzer abhängt.
Diese Schranke wird im Modell ohne Periodeneffekte, aber mit additiven carrover-Effekten von symmetrischen Designs angenommen, sodass eine Beschränkung auf diese Klasse möglich ist. Da für den Fall p > t, d.h. es stehen pro Proband mehr Perioden als Behandlungen zur Verfügung, immer ein Design existiert, das die Varianz der Schätzer minimiert und gleichzeitig unverzerrte Schätzer liefert, ist dieses Design folglich auch MSE-optimal.
Deutlich komplizierter ist der Fall p≤t: Es zeigte sich, dass eine Mischung aus Sequenzen, die im Modell mit oder im Modell ohne carryover-Effekte optimal zum Schätzen der Behandlungseffekte sind, MSE-optimal ist.
Neben der MSE-Optimalität wurde die Idee der MSE-Effizienz für ein Design entwickelt. Da MSE-optimale Designs in der Regel von den konkreten carryover-Effekten abhängen, ist eine allgemeine Wahl eines MSE-optimalen Designs nicht möglich. Mit Hilfe der Effizienz kann aber eine Bewertung eines beliebigen Designs hinsichtlich des MSE vorgenommen werden. Es zeigt sich, dass optimale Pläne zum Schätzen der Behandlungseffekte im Modell mit als auch im Modell ohne carryover-Effekte hoch effizient sind.
Neben der Modellierung des carryover-Effektes als additiven Term, der nur von der
Behandlung der Vorperiode abhängt, sind eine Reihe weiterer Modellierungen für die
carryover-Effekte bekannt. Für das Modell mit proportionalen carryover-Effekten, das Modell mit self-und-mixed-carryover Effekten sowie für das Modell mit links- und rechtsseitigem carryover-Effekt konnte MSE-optimale Designs angegeben werden. Auch hier wurde zeigte sich, dass optimale Designs zum Schätzen der carryover-Effekte optimal MSE-effizient sind.
Des Weiteren wurden für circular Designs MSE-optimale Versuchspläne angegeben.
Durch die Arbeit zeigt sich, dass optimale Designs für ein Modell mit carryover-Effekt in der Regel effizient im Sinne des MSE in einem Modell ohne carryover-Effekte sind. Daher sollte die Analyse von Crossover Designs, sofern es vertretbar ist, ohne carryover-Effekte erfolgen.2017-01-01T00:00:00ZAssessment of randomization procedures in the presence of selection and chronological biasSchindler, Davidhttp://hdl.handle.net/2003/357682017-01-27T03:00:07Z2016-01-01T00:00:00ZTitle: Assessment of randomization procedures in the presence of selection and chronological bias
Authors: Schindler, David
Abstract: Every randomized clinical study needs a method of allocating treatments to patients to ensure the basis for a valid statistical inference. In the literature, the susceptibility of randomization procedures to both selection and chronological bias is already well studied. However, no optimality statement is given for the selection of a randomization procedure, when both types of bias are present simultaneously. Therefore, a linked assessment criterion for the selection of an appropriate randomization procedure is presented. The linked assessment criterion is based on desirability functions. For the calculation of the optimality score of a randomization procedure the importance of the investigated types of bias is considered. Several randomization procedures are compared for the sample sizes 12, 50 and 200. Finally, a recommendation for the choice of a randomization procedure is given in the presence of both selection and chronological bias.2016-01-01T00:00:00ZD-Effzienzen von Versuchsplänen im einfachen linearen Regressionsmodell bei korrelierten FehlernWilk, Adrianhttp://hdl.handle.net/2003/299922015-08-12T19:08:26Z2013-02-27T00:00:00ZTitle: D-Effzienzen von Versuchsplänen im einfachen linearen Regressionsmodell bei korrelierten Fehlern
Authors: Wilk, Adrian2013-02-27T00:00:00ZA-optimale Blockpläne für Behandlungs-Kontroll-Vergleiche bei AR(1)-korrelierten FehlernMelsheimer, Oliverhttp://hdl.handle.net/2003/292312015-08-12T18:06:03Z2011-12-19T00:00:00ZTitle: A-optimale Blockpläne für Behandlungs-Kontroll-Vergleiche bei AR(1)-korrelierten Fehlern
Authors: Melsheimer, Oliver
Abstract: In dieser Arbeit wurde eine Vorarbeit von [Kunert et al., 2010] aufgegriffen und für den Vergleich
mehrerer Behandlungen mit einer Kontrolle im einfachen Blockmodell mit AR(1)-korrelierten
Fehlern untersucht, wo sich die Stelle befindet, an der das Maximum über alle H-Funktionen seinen
kleinsten Wert annimmt. Das Auffinden dieser Stelle ist deshalb so bedeutsam, da sich durch
sie zumindest eine Untergrenze für das Atc-Kriterium ermitteln lässt und sie in manchen Fällen
sogar über die Gestalt des optimalen Versuchplans Auskunft gibt. Bei dieser Untersuchung wurde
dabei von denselben grundlegenden Annahmen ausgegangen, die auch [Kunert et al., 2010]
in ihrem Artikel voraussetzten: So wurde insbesondere nur die Situation betrachtet, in der die
Anzahl der Behandlungen v mindestens so groß ist wie die Blocklänge k und die Fehler zudem
nicht-negativ und auch nicht perfekt korreliert sind, der Korrelationsparameter λ des autoregressiven
Prozesses also im Bereich [0, 1) liegt.
In Kapitel 3 konnte mit einer alternativen Darstellung der Sequenzen schnell gezeigt werden,
dass nur solche Sequenzen für diese Suche überhaupt von Relevanz sein können, die Kontrollen
nie in direkter Folge einsetzen und den Einsatz einer Kontrolle auf einem der beiden Randfelder
der Sequenz nach Möglichkeit vermeiden. Durch diese Erkenntnis und die Vorarbeit von
[Kunert et al., 2010] ließ sich die Zahl der zu betrachtenden Sequenzen erheblich reduzieren und
es konnte nachgewiesen werden, dass für jede bestimmte Anzahl von Kontrollen z mit z = k
2 jeweils
nur eine einzige Sequenz s(z) als Repräsentant der ganzen Klasse betrachtet werden muss.
Bei der anschließenden näheren Betrachtung des Verhaltens dieser verbleibenden Sequenzen in
den Kapiteln 4 und 5 stellte sich heraus, dass die zu ihnen gehörenden H-Funktionen im Intervall
[-1, 0], das - wie Vorüberlegungen zeigten - überhaupt den einzig interessanten Bereich abdeckt,
besonderen Gesetzmäßigkeiten folgen: Die Scheitelpunkte x(z) dieser Funktionen liegen alle in
diesem Bereich und zwar in der immer gleichen Reihenfolge x(0), x(1), x(2) und so weiter. Je zwei
dieser Funktionen schneiden sich in diesem Intervall genau einmal. Für die Schnittpunkte xj|j+1
zweier Sequenzen s(j) und s(j+1) konnte dabei gezeigt werden, dass diese Schnitte umso weiter
links im Intervall liegen, je größer j ist, also die Reihenfolge x0|1 > x1|2 > x2|3 usw. gilt.
Diese Erkenntnisse vereinend und dabei die Tatsache berücksichtigend, dass es sich bei allen HFunktionen
um nach oben geöffnete Parabeln handelt, ließ sich damit weiter zeigen, dass es für
all diese Sequenzen jeweils ein Teilintervall gibt, auf dem die jeweilige Sequenz allen anderen
überlegen ist, und dass diese Intervalle umso weiter rechts liegen, je kleiner die Zahl der eingesetzten
Kontrollen in der Sequenz.
Mit diesem neu gewonnenen Wissen konnte daraufhin ein konstruktives Verfahren hergeleitet
werden, mit dem sich schnell und mit nur wenigen Funktionsauswertungen die gesuchte Optimalstelle
finden lässt. Welche Auswirkungen eine Veränderung der Parameter auf die Position
dieser Stelle bzw. die Zahl der in den dort optimalen Sequenzen eingesetzten Kontrollen hat,
wurde schließlich zum Abschluß dieser Arbeit in Kapitel 6 erforscht. Dabei konnte unter anderem
nachgewiesen werden, dass mit wachsendem v die Zahl der in diesen optimalen Sequenzen
verwendeten Kontrollen monoton sinkt und sich Schwellenwerte finden lassen, ab denen die gesuchte
Optimalstelle am Schnittpunkt x0|1 liegen kann bzw. ab denen sie dort sogar immer liegen
muss. Weiter ließ sich so ermitteln, wie viele Kontrollen die optimalen Sequenzen für gegebenes
k höchstens einsetzen.2011-12-19T00:00:00ZSequential multi-objective target value optimizationWenzel, Simonehttp://hdl.handle.net/2003/291862015-08-12T17:54:45Z2011-11-14T00:00:00ZTitle: Sequential multi-objective target value optimization
Authors: Wenzel, Simone
Abstract: In engineering processes the specification of optimization targets is usually reduced to minimization or maximization problems. The specfication of challenging multivariate target structures is excluded, due to the lack of algorithms that are able to handle them. Often however the optimum is a precise target instead of a minimum or maximum and it would
be helpful if the deviation from the target could be penalized asymmetrically. In this thesis a new heuristic named mtEGO for multi-objective target value sequential optimization has been developed. A small initial spacefilling design is used to fit a surrogate model for each objective of the optimization problem. Based on the predictions and prediction errors
of the surrogate model for the whole parameter space virtual observations with dfferent (1 ..ff) confidence levels are constructed. These virtual observations are used to roughly simulate the effect of the model uncertainty on the capability of each setting in the parameter space to be the global optimum. A transformation with desirability functions and the aggregation to a joint desirability index turns the multi-objective target value prob-
lem in a simple single-objective maximization problem. Improvements are determined for this single-objective maximization problem then, which are maximized tofind the global
optimum. mtEGO therefore works in a hybrid way, which means for each combination of
(1...ff) confidence levels an own candidate for the global optimum is determined simultaneously. The candidates are reduced to a small number of updating points using hierarchical clustering. Finally, the model is refined with the observations from the updating points and the algorithm proceeds to generate and add new updating points until the stopping criterion is fulfilled. The mtEGO algorithm is validated successfully by means of extensive
simulation studies and two case studies from mechanical engineering. Beside the fact that
the two case studies demonstrate the applicability of mtEGO to real applications, they show that mtEGO even works successfully if basic conditions change in an ongoing optimization
process. Further, an improved variant of mtEGO, named mtEGOimp, is developed. It
does a pre-selection of reasonable confidence levels before cross-combining them. As a consequence, the computation time of the mtEGO approach is strongly reduced, which relaxes time limitations. The incorporation of a convex hull restriction method for failure points and an imputation of missing values into the mtEGO approach, finally extends it to a powerful tool for optimization problems even in the presence of unknown constraints.2011-11-14T00:00:00ZA-Optimalität für den Vergleich mit einer Kontrolle bei Crossover-DesignsMersmann, Sabinehttp://hdl.handle.net/2003/273942015-08-13T00:30:50Z2010-09-14T00:00:00ZTitle: A-Optimalität für den Vergleich mit einer Kontrolle bei Crossover-Designs
Authors: Mersmann, Sabine
Abstract: Die konkrete und detaillierte Planung von Experimenten zur effizienten Datengewinnung nimmt
eine zentrale Rolle innerhalb der modernen Statistik ein. Durch die Verwendung effizienter Versuchspläne
lassen sich Kosten- und Zeitaufwand eines Experiments bei gleichzeitiger Steigerung
der Datenqualität verringern. Leider stellt sich die Konstruktion effizienter Designs für komplexe
Blockmodelle als schwierige Aufgabe dar. Da kleine Änderungen am Design zu nicht-stetigen
Änderungen im Wert der standardmäßig verwendeten Optimalitätskriterien führen, ist aus mathematischer
Sicht hier die Lösung eines diskreten Optimierungsproblems notwendig. Eine erstmals
von Kushner (1997) vorgestellte Methode überträgt dieses diskrete Optimierungsproblem
in ein stetiges, konvexes Minimerungsproblem und leitet daraus eine potentiell scharfe Schranke
für das zugrundeliegende Optimalitätskriterium ab.
In der vorliegenden Dissertation überprüfen wir die Übertragbarkeit des Kushner-Ansatzes auf
komplexe Modelle am Beispiel eines Crossover-Modells mit Carryover-Effekten für den Vergleich
mit einer Kontrolle, sowie einer zirkulären Version dieses Modells. Bei Verwendung dieser Modelle
sind die aus dem Kushner-Ansatz resultierenden Funktionen jedoch nicht länger konvex.
Dies führt zu Problemen bei der analytischen Lösung des nun nicht mehr konvexen Minimierungsproblems.
Für das nicht-zirkuläre Modell gelingt uns daher lediglich für Designs mit p = 3
Perioden und t >= 3 Testbehandlungen die analytische Bestimmung dieses globalen Minimums.
Die resultierende Schranke l* ist potentiell scharf und für alle t besser als der Wert einer bereits
bekannten, naïven Schranke aus dem einfachen Blockmodell. Für p >= 4 Perioden scheitert die Bestimmung
des globalen Minimums an der komplexen Gestalt der zu untersuchenden Funktionen.
Hier ist uns nur die Bestimmung eines Punktes auf der Maximumsfunktion für beliebige p >= 4
und t >= p-1 möglich. Dieser Wert liefert jedoch in jedem Fall eine Schranke l* für den A_tc-Wert,
die noch immer eine deutliche Verbesserung gegenüber der naïven Schranke aus dem einfachen
Blockmodell darstellt. Mit Hilfe der ermittelten Schranken können wir nun beispielsweise die
hohe Effizienz der von Hedayat und Yang (2005) vorgestellten Designs nachweisen.
Im Falle zirkulärer Modelle stellt sich die Situation sehr ähnlich dar. Für viele Kombinationen
von t und p können wir scharfe Schranken für das Atc-Kriterium bestimmen, bei einigen anderen
ist dies aufgrund der komplexen Gestalt der zu untersuchenden Funktionen nicht möglich.
Gegenüber dem nicht-zirkulären Modell können wir allerdings für einige wenige Kombinationen
von p und t sogar Konstruktionsvorschläge für optimale Designs auf Basis der durch die
Kushner-Methode gewonnenen Erkenntnisse liefern.
1. Kushner, H. B. (1997). Optimal repreated measurements designs: The linear optimality
equations. Annals of Statistics, 25(6):2328-2344.
2. Hedayat, A. S. und M. Yang (2005). Optimal and efficient crossover designs for comparing
test treatments with a control. Annals of Statistics, 33(2):915-943.2010-09-14T00:00:00ZBestimmung c-optimaler Versuchspläne in Modellen mit zufälligen Effekten, mit Anwendungen in der PharmakokinetikHolland-Letz, Timhttp://hdl.handle.net/2003/272782015-08-13T00:30:16Z2010-06-22T00:00:00ZTitle: Bestimmung c-optimaler Versuchspläne in Modellen mit zufälligen Effekten, mit Anwendungen in der Pharmakokinetik
Authors: Holland-Letz, Tim
Abstract: Medizinische Studien im Bereich der Pharmakokinetik basieren in vielen Fällen auf speziellen
Modellen mit zufälligen Effekten, den sogenannten Populationsmodellen. In solchen Studien werden
jeweils mehrere Messungen an einer Anzahl verschiedener Patienten durchgeführt. Aus dem
Blickwinkel der optimalen Versuchsplanung führt dies zu methodischen Schwierigkeiten, da der
zufällige Effekt sowohl eine parameterabhängige Varianz der Beobachtungen als auch teilweise
korrelierte Daten zur Folge hat. Auf diese Weise sind zwei der Schlüsselannahmen klassischer
Versuchsplanungsliteratur verletzt. Es ist das Ziel dieser Arbeit, die bestehende Methodik
so anzupassen und zu ergänzen, dass auch diese Situationen betrachtet werden können. Da
die wichtigsten zu schätzenden Kenngrößen in der Pharmakokinetik bestimmte Summengrößen
der Parameter sind (z.B. die Fläche unter der Konzentrationskurve eines Präparates) wird der
Schwerpunkt dieser Arbeit auf c-optimalen Designs liegen, die die optimale Schätzung solcher
Größen erlauben.
Im einzelnen wird zunächst die geometrische Repräsentation optimaler Designs nach Elfving
(1952) so verallgemeinert, dass die beschriebene Situation abgedeckt ist. Im zweiten Schritt
wird die Äquivalenztheorie nach Kiefer (1974) und Pukelsheim (1993) auf das spezifische Modell
angewendet. Dritter Schritt ist die Anpassung multplikativer Algorithmen zur numerischen
Bestimmung optimaler Designs in dieser Situation, und als letztes Ergebnis wird das Konzept
asymptotisch optimaler Designs auf einen speziellen Fall korrelierter Beobachtungen angewendet.2010-06-22T00:00:00ZAuswertungsmethoden bei Experimenten mit Nachwirkungen und korrelierten FehlernSailer, Oliverhttp://hdl.handle.net/2003/264622015-08-12T19:01:44Z2009-10-21T10:00:23ZTitle: Auswertungsmethoden bei Experimenten mit Nachwirkungen und korrelierten Fehlern
Authors: Sailer, Oliver2009-10-21T10:00:23ZOptimal crossover designs with interactions between treatments and unitsBludowsky, Andrea M.http://hdl.handle.net/2003/263912015-08-12T17:03:32Z2009-09-08T10:30:03ZTitle: Optimal crossover designs with interactions between treatments and units
Authors: Bludowsky, Andrea M.2009-09-08T10:30:03ZOptimale statistische Versuchsplanung dreifaktorieller Zwei-Farben-cDNA-Microarray-ExperimenteStanzel, Svenhttp://hdl.handle.net/2003/257842015-08-12T16:46:22Z2008-08-28T12:33:31ZTitle: Optimale statistische Versuchsplanung dreifaktorieller Zwei-Farben-cDNA-Microarray-Experimente
Authors: Stanzel, Sven
Abstract: In der Medizin hat mit dem rasanten Wachstum der biotechnologischen Industrie in den letzten Jahrzehnten die Erforschung von mit Genmutationen assoziierten Ursachen für die Entstehung verschiedener Krankheitsbilder stark an Bedeutung zugenommen. Das Ziel der Durchführung von Genexpressionsanalysen mit Hilfe von Zwei-Farben-cDNA-Microarray-Experimenten [1] besteht in der Identifikation von Kandidatengenen, die für den Ausbruch einer bestimmten Erkrankung mitverantwortlich gemacht werden können. Langfristig sollen die hierbei gewonnenen Erkenntnisse zur Entwicklung von innovativen Medikamenten führen, die zur Therapie von genetisch assoziierten oder bedingten Erkrankungen verwendet werden können.
Landgrebe et al. haben ein spezielles genspezifisches lineares Modell mit festen Effekten für die statistische Auswertung der in Zwei-Farben-cDNA-Microarray-Experimenten generierten Genexpressionsdaten vorgeschlagen [2]. Durch eine geringfügige Modifikation dieses Modells kann zusätzlich zu den häufig betrachteten Einflussgrößen „Farbe“ und „Behandlung“ der Effekt des Faktors „Zelllinie“ auf die ermittelten Genexpressionsdaten analysiert werden.
Es wird gezeigt, dass der Parametervektor des Landgrebe-Modells in dieser speziellen dreifaktoriellen Designsituation nicht unverzerrt schätzbar ist. Anschließend werden Φp-optimale Versuchspläne für das Schätzen aller Paarvergleiche von Behandlungen, für den Nachweis unterschiedlicher Behandlungsdifferenzen zwischen den Zelllinien, sowie für das Schätzen des aus diesen speziellen linearen Kontrasten zusammengesetzten Vektors, konstruiert. Für den Nachweis der Φp-Optimalität wird dabei jeweils eine generalisierte Form der von Pukelsheim eingeführten Äquivalenztheoreme [3] verwendet.
Die erzielten Optimalitätsergebnisse sind nicht auf bestimmte Anzahlen von Arrays, Behandlungen und Zelllinien beschränkt und liefern damit allgemeingültige Optimalitätsaussagen für das Schätzen der hier untersuchten linearen Kontraste. Bei Betrachtung der linearen Kontraste für das Schätzen der Interaktionseffekte von Behandlungen und Zelllinien ist die gefundene Lösung allerdings abhängig von der vorliegenden Beziehung zwischen der Anzahl analysierter Behandlungen und der Anzahl verwendeter Zelllinien. Die Unabhängigkeit dieser Lösungen vom verwendeten Optimalitätskriterium lässt sich als Robustheitseigenschaft der konstruierten optimalen Blockpläne interpretieren. Insbesondere sind diese Versuchsanlagen damit A-, D-, E- und T-optimal für das Schätzen der betrachteten linearen Kontraste.
Für die Praxis ergeben sich aus den identifizierten optimalen Designs direkte Empfehlungen bezüglich der Wahl effizienter Versuchsanlagen für konkrete Zwei-Farben-cDNA-Microarray-Experimente mit vorgegebenen Anzahlen von Arrays, Behandlungen und Zelllinien. Durch die Verwendung entsprechender effizienter Versuchspläne lässt sich ein Zeitgewinn bei der praktischen Durchführung dieser Experimente und damit die Einsparung finanzieller Ressourcen erwarten.2008-08-28T12:33:31ZEine adaptive sequentielle Prozedur zur effizienten Optimierung des CNC-gesteuerten DrückprozessesHenkenjohann, Nadinehttp://hdl.handle.net/2003/232602015-08-12T22:51:01Z2007-02-07T09:26:15ZTitle: Eine adaptive sequentielle Prozedur zur effizienten Optimierung des CNC-gesteuerten Drückprozesses
Authors: Henkenjohann, Nadine2007-02-07T09:26:15ZEigenschaften und Erweiterungen der Methode CLV zum Clustern von Variablen : Anwendungen in der SensometrieSahmer, Karinhttp://hdl.handle.net/2003/230942015-08-12T17:02:20Z2006-11-20T12:59:07ZTitle: Eigenschaften und Erweiterungen der Methode CLV zum Clustern von Variablen : Anwendungen in der Sensometrie
Authors: Sahmer, Karin
Abstract: In this work, the properties of the method of clustering of variables around latent components (CLV) are investigated. A statistical model is postulated. This model is especially appropriate for sensory profiling data. It sheds more light on the method CLV. The clustering criterion can be expressed in terms of the parameters of the model. It is shown that, under weak conditions, the hierarchical algorithm of CLV finds the correct partition while the partitioning algorithm depends on the partition used as a starting point. Furthermore, the performance of CLV on the basis of a sample is investigated by means of a simulation study. It is shown that this performance is comparable to the performance of known methods such as the procedure Varclus of the software SAS. Finally, two methods for determining the number of groups are proposed and compared.
Description: Universität Dortmund, Fachbereich Statistik und Université Rennes II, Haute Bretagne, Laboratoire de Statistique2006-11-20T12:59:07ZExperimental design for quality improvement in the presence of time-trendsAdekeye, Kayode S.http://hdl.handle.net/2003/27782015-08-12T16:47:41Z2004-10-27T00:00:00ZTitle: Experimental design for quality improvement in the presence of time-trends
Authors: Adekeye, Kayode S.2004-10-27T00:00:00ZOn the analysis of unreplicated factorial designsChen, Yinghttp://hdl.handle.net/2003/27772015-08-13T00:05:53Z2003-03-14T00:00:00ZTitle: On the analysis of unreplicated factorial designs
Authors: Chen, Ying
Abstract: This thesis deals with the problems associated with the analysis of unreplicated fractional factorial designs. These are mainly the estimation of the residual variance and the identification of active contrasts by corresponding tests. In this thesis, only orthogonal designs are studied. This work consists of five chapters and is organized as follows: Chapter 1 introduces the problems in the analysis of unreplicated factorial designs and reviews some existing solutions and their limitations. Chapter 2 reviews twelve existing quantitative methods for analyzing unreplicated fractional factorial designs in detail. These are the directed methods, which use an estimate of the standard deviation as the denominator of a test statistic (Lenth (1989), Juan and Pena (1992), and Dong (1993)); outlierdetection techniques (Seheult and Tukey (1982), Le and Zamar (1992)); Bayesian methods (Box and Meyer (1986)); hybrid procedures (Benski (1989), Lawson, et al. (1998)); nonparametric method (Loughin and Nobel (1997)); generalized likelihood ratio test (AlShiha and Yang (1999)); the method based on display ratio (Johnson and Tukey (1987)); and the method based on variance homogeneity test (Bissell (1989)), respectively. Chapter 3 presents a new quantitative method, which we call MaxU r method. Some of the statistical properties, e.g. the exact null distribution and the power function of this method are discussed and simulated critical values of MaxU r are presented. The exact quantiles and power of the test MaxU r are also derived in the special case when there are only three contrasts (e.g., in the 2 2 design). Finally, four examples are given to illustrate the use of the new method. In chapter 4, all thirteen methods are compared by means of a simulation study. In this simulation study, not only cases where the active contrasts all have the same magnitude are considered, but also cases where the active contrasts differ in magnitude. Chapter 5, the last chapter, summarizes the results of the simulation study, and provides a comparison to those reported before by other authors. It concludes with discussions and an outlook for possible future investigation.; Die Arbeit untersucht Probleme bei der Analyse von nichtwiederholten Faktorenplänen, nämlich das Schätzen der Fehlervarianz und die Identifizierung der aktiven Kontraste. In dieser Dissertation werden nur orthogonale Faktorenpläne studiert. Diese Arbeit besteht aus fünf Kapiteln mit der folgenden Struktur: Kapitel 1 stellt die Probleme bei der Analyse von nichtwiederholten Faktorenplänen vor, und präsentiert einige existierende Lösungen und ihre Nachteile. Kapitel 2 stellt zwölf existierende quantitative Methoden für die Analyse von nichtwiederholten Faktorenplänen ausführlich dar. Dies sind direkte Methoden (Lenth 1989, Juan und Pena 1992, und Dong 93); auf OutlierdetectionTechnik basierende Methoden (Seheult und Tukey 1982, Le und Zamar 1992); eine Bayes'scheMethode (Box und Meyer 1986); hybride Verfahren (Benski 1989 und Lawson, u.a. 1998); eine nichtparametrische Methode (Loughin und Nobel 1997); ein generalisierter LikelihoodRatioTest (AlShiha und Yang 1999); eine auf Displayratio basierende Methode (Johnson und Tukey 1987) sowie eine auf einem VarianzHomogenitätsTest basierende Methode (Bissell 1989). Kapitel 3 schlägt eine neue quantitative Methode vor, die MaxU r genannt wird. Einige statistische Eigenschaften von MaxU r , z.B., die exakte Nullverteilung und die Gütefunktion werden untersucht. Ihre exakten Quantile und die Güte werden berechnet, wenn es nur 3 Kontraste (z.B., im 2² Design) gibt. Simulierte kritische Werte von MaxU r werden für allgemeinere Fälle vorgelegt. Außerdem sind 4 Beispiele gegeben, um die Anwendung des neuen Verfahrens zu demonstrieren. In Kapitel 4 werden alle 13 Methoden durch eine Simulationsstudie miteinander verglichen. Kapitel 5 faßt die Ergebnisse der Simulationsstudie zusammen. Es diskutiert die Ergebnisse und liefert einen Überblick über mögliche zukünftige Forschungen.2003-03-14T00:00:00Z