Eldorado Collection:http://hdl.handle.net/2003/832024-03-29T05:45:00Z2024-03-29T05:45:00ZTesting marginal homogeneity in Hilbert spaces with applications to stock market returnsDitzhaus, MarcGaigall, Danielhttp://hdl.handle.net/2003/418432023-06-27T22:13:10Z2022-02-14T00:00:00ZTitle: Testing marginal homogeneity in Hilbert spaces with applications to stock market returns
Authors: Ditzhaus, Marc; Gaigall, Daniel
Abstract: This paper considers a paired data framework and discusses the question of marginal homogeneity of bivariate high-dimensional or functional data. The related testing problem can be endowed into a more general setting for paired random variables taking values in a general Hilbert space. To address this problem, a Cramér–von-Mises type test statistic is applied and a bootstrap procedure is suggested to obtain critical values and finally a consistent test. The desired properties of a bootstrap test can be derived that are asymptotic exactness under the null hypothesis and consistency under alternatives. Simulations show the quality of the test in the finite sample case. A possible application is the comparison of two possibly dependent stock market returns based on functional data. The approach is demonstrated based on historical data for different stock market indices.2022-02-14T00:00:00ZCASANOVA: permutation inference in factorial survival designsDitzhaus, MarcGenuneit, JonJanssen, ArnoldPauly, Markushttp://hdl.handle.net/2003/413392023-04-17T22:13:12Z2021-10-05T00:00:00ZTitle: CASANOVA: permutation inference in factorial survival designs
Authors: Ditzhaus, Marc; Genuneit, Jon; Janssen, Arnold; Pauly, Markus
Abstract: We propose inference procedures for general factorial designs with time-to-event endpoints. Similar to additive Aalen models, null hypotheses are formulated in terms of cumulative hazards. Deviations are measured in terms of quadratic forms in Nelson–Aalen-type integrals. Different from existing approaches, this allows to work without restrictive model assumptions as proportional hazards. In particular, crossing survival or hazard curves can be detected without a significant loss of power. For a distribution-free application of the method, a permutation strategy is suggested. The resulting procedures' asymptotic validity is proven and small sample performances are analyzed in extensive simulations. The analysis of a data set on asthma illustrates the applicability.2021-10-05T00:00:00ZWhich test for crossing survival curves? A user’s guidelineDormuth, InaLiu, TiantianXu, JinYu, MenggangPauly, MarkusDitzhaus, Marchttp://hdl.handle.net/2003/411662022-12-14T23:13:00Z2022-01-30T00:00:00ZTitle: Which test for crossing survival curves? A user’s guideline
Authors: Dormuth, Ina; Liu, Tiantian; Xu, Jin; Yu, Menggang; Pauly, Markus; Ditzhaus, Marc
Abstract: Background:
The exchange of knowledge between statisticians developing new methodology and clinicians, reviewers or authors applying them is fundamental. This is specifically true for clinical trials with time-to-event endpoints. Thereby, one of the most commonly arising questions is that of equal survival distributions in two-armed trial. The log-rank test is still the gold-standard to infer this question. However, in case of non-proportional hazards, its power can become poor and multiple extensions have been developed to overcome this issue. We aim to facilitate the choice of a test for the detection of survival differences in the case of crossing hazards.
Methods:
We restricted the review to the most recent two-armed clinical oncology trials with crossing survival curves. Each data set was reconstructed using a state-of-the-art reconstruction algorithm. To ensure reproduction quality, only publications with published number at risk at multiple time points, sufficient printing quality and a non-informative censoring pattern were included. This article depicts the p-values of the log-rank and Peto-Peto test as references and compares them with nine different tests developed for detection of survival differences in the presence of non-proportional or crossing hazards.
Results:
We reviewed 1400 recent phase III clinical oncology trials and selected fifteen studies that met our eligibility criteria for data reconstruction. After including further three individual patient data sets, for nine out of eighteen studies significant differences in survival were found using the investigated tests. An important point that reviewers should pay attention to is that 28% of the studies with published survival curves did not report the number at risk. This makes reconstruction and plausibility checks almost impossible.
Conclusions:
The evaluation shows that inference methods constructed to detect differences in survival in presence of non-proportional hazards are beneficial and help to provide guidance in choosing a sensible alternative to the standard log-rank test.2022-01-30T00:00:00ZRobust covariance estimation in mixed-effects meta-regression modelsWelz, Thilohttp://hdl.handle.net/2003/410972022-10-14T22:13:01Z2022-01-01T00:00:00ZTitle: Robust covariance estimation in mixed-effects meta-regression models
Authors: Welz, Thilo
Abstract: In this PhD thesis we consider robust (sandwich) variance-covariance matrix estimators in the context of univariate and multivariate meta-analysis and meta-regression. The underlying model is the classical mixed-effects meta-regression model. Our goal is to enable valid statistical inference for the model coefficients. Specifically, we employ heteroscedasticity consistent (HC) and cluster-robust (CR) sandwich estimators in the univariate and multivariate setting. A key aim is to provide better small sample solutions for meta-analytic research and application. Tests based on the original formulations of these estimators are known to produce highly liberal results, especially when the number of studies is small. We therefore transfer results for improved sandwich estimation by Cribari-Neto and Zarkos (2004) to the meta-analytic context. We prove the asymptotic equivalence of HC estimators and compare them with commonly suggested techniques such as the Knapp-Hartung (KH) method or standard plugin covariance matrix estimation in extensive simulation studies. The new versions of HC estimators considerably outperform their older counterparts, especially in small samples, achieving comparable results to the KH method. In a slight excursion, we focus on constructing confidence regions for (Pearson) correlation coefficients as the main effect of interest in a random-effects meta-analysis. We develop a beta-distribution model for generating data in our simulations in addition to the commonly used truncated normal distribution model. We utilize different variance estimation approaches such as HC estimators, the KH method and a wild bootstrap approach in combination with the Fisher-z transformation and an integral z-to-r back-transformation to construct confidence regions. In simulation studies, our novel proposals improve coverage over the Hedges-Olkin-Vevea-z approach and Hunter-Schmidt approaches, enabling reliable inference for a greater range of true correlations. Finally, we extend our results for the HC estimators to construct CR sandwich estimators for multivariate meta-regression. The aim is to achieve valid inference for the model coefficients, based on Wald-type statistics, even in small samples. Our simulations show that previously suggested CR estimators such as the bias reduced linearization approach, can have unsatisfactory small sample performance for bivariate meta-regression. Furthermore, they show that the Hotelling’s T^2-test suggested by Tipton and Pustejovsky (2015) can yield negative estimates for the degrees of freedom when the number of studies is small. We suggest an adjustment to the classical F -test, truncating the denominator degrees of freedom at two. Our CR extensions, using only the diagonal elements of the hat matrix to adjust residuals, improve coverage considerably in small samples. We focus on the bivariate case in our simulations, but the discussed approaches can also be applied more generally. We analyze both small and large sample behavior of all considered tests / confidence regions in extensive simulation studies. Furthermore, we apply the discussed approaches in real life datasets from psychometric and medical research.2022-01-01T00:00:00ZNonparametric correlation-based methods with biomedical applicationsNowak, Claus P.http://hdl.handle.net/2003/410582022-08-31T22:12:59Z2022-01-01T00:00:00ZTitle: Nonparametric correlation-based methods with biomedical applications
Authors: Nowak, Claus P.
Abstract: This cumulative dissertation consists of three manuscripts on nonparametric methodology, i.e., Simultaneous inference for Kendall’s tau, Group sequential methods for the Mann-Whitney parameter, and The nonparametric Behrens-Fisher problem in small samples.
The manuscript on Kendall’s τ fully develops a nonparametric estimation theory for multiple rank correlation coefficients in terms of Kendall’s τA and τB, Somers’ D, as well as Kruskal and Goodman’s γ, necessitating joint estimation of both the probabilities of ties occurring and the probability of concordance minus discordance.
As for the second manuscript, I review and further develop group sequential methodology for the Mann-Whitney parameter. With the aid of data from a clinical trial in patients with relapse-remitting multiple sclerosis, I demonstrate how one could repeatedly estimate the Mann-Whitney parameter during an ongoing trial together with repeated confidence intervals obtained by test inversion. In addition, I give simple approximate power formulas for this group sequential setting.
The last manuscript further explores how best to approximate the sampling distribution of the Mann-Whitney parameter in terms of the nonparametric Behrens-Fisher problem, an issue that has arisen from the preceding manuscript. In that regard, I explore different variance estimators and a permutation approach that have been proposed in the literature and examine some slightly modified ways as regards a small sample t approximation as well.
In all three manuscripts, I carried out simulations for various settings to assess the adequacy of the proposed methods.2022-01-01T00:00:00ZResampling-based inference methods for repeated measures data with missing valuesAmro, Lubnahttp://hdl.handle.net/2003/409782022-06-30T22:13:06Z2022-01-01T00:00:00ZTitle: Resampling-based inference methods for repeated measures data with missing values
Authors: Amro, Lubna
Abstract: The primary objective of this dissertation was to (i) develop novel resampling approaches
for handling repeated measures data with missing values, (ii) compare their
empirical power against other existing approaches using a Monte Carlo simulation
study, and (iii) pinpoint the limitations of some common approaches, particularly for
small sample sizes. This dissertation investigates four different statistical problems.
The first is semiparametric inference for comparing means of matched pairs with
missing data in both arms. Therein, we propose two novel randomization techniques;
a weighted combination test and a multiplication combination test. They are based
upon combining separate results of the permutation versions of the paired t-test and
Welch test for the completely observed pairs and the incompletely observed components,
respectively. As second problem, we consider the same setting but missingness
in one arm only. There, we investigate a Wald-type statistic (WTS), an ANOVA-type
statistic (ATS), and a modified ANOVA-type statistic (MATS). However, ATS and
MATS are not distribution free under the null hypothesis, and WTS suffers from
the slow convergence to its limiting 2 distribution. Thus, we develop asymptotic
model-based bootstrap versions of these tests. The third problem is on nonparametric
rank-based inference for matched pairs with incompleteness in both arms. In this
more general setup, the only requirement is that the marginal distributions are
not one point distributions. Therein, we propose novel multiplication combination
tests that can handle three different testing problems, including the nonparametric
Behrens-Fisher problem (Hp
0 : {p = 1/2}). Finally, the fourth problem is nonparametric
rank-based inference for incompletely observed factorial designs with repeated
measures. Therein, we develop a wild bootstrap approach combined with quadratic
form-type test statistics (WTS, ATS, and MATS). These rank-based methods can be
applied to both continuous and ordinal or ordered categorical data and (some) allow
for singular covariance matrices. In addition to theoretically proving the asymptotic
correctness of all the proposed procedures, extensive simulation studies demonstrate
their favorable small samples properties in comparison to classical parametric tests.
We also motivate and validate our approaches using real-life data examples from a
variety of fields.2022-01-01T00:00:00ZFisher transformation based confidence intervals of correlations in fixed- and random-effects meta-analysisWelz, ThiloDoebler, PhilippPauly, Markushttp://hdl.handle.net/2003/408502022-04-12T22:12:41Z2021-05-02T00:00:00ZTitle: Fisher transformation based confidence intervals of correlations in fixed- and random-effects meta-analysis
Authors: Welz, Thilo; Doebler, Philipp; Pauly, Markus
Abstract: Meta-analyses of correlation coefficients are an important technique to integrate results from many cross-sectional and longitudinal research designs. Uncertainty in pooled estimates is typically assessed with the help of confidence intervals, which can double as hypothesis tests for two-sided hypotheses about the underlying correlation. A standard approach to construct confidence intervals for the main effect is the Hedges-Olkin-Vevea Fisher-z (HOVz) approach, which is based on the Fisher-z transformation. Results from previous studies (Field, 2005, Psychol. Meth., 10, 444; Hafdahl and Williams, 2009, Psychol. Meth., 14, 24), however, indicate that in random-effects models the performance of the HOVz confidence interval can be unsatisfactory. To this end, we propose improvements of the HOVz approach, which are based on enhanced variance estimators for the main effect estimate. In order to study the coverage of the new confidence intervals in both fixed- and random-effects meta-analysis models, we perform an extensive simulation study, comparing them to established approaches. Data were generated via a truncated normal and beta distribution model. The results show that our newly proposed confidence intervals based on a Knapp-Hartung-type variance estimator or robust heteroscedasticity consistent sandwich estimators in combination with the integral z-to-r transformation (Hafdahl, 2009, Br. J. Math. Stat. Psychol., 62, 233) provide more accurate coverage than existing approaches in most scenarios, especially in the more appropriate beta distribution simulation model.2021-05-02T00:00:00ZAsymptotic-based bootstrap approach for matched pairs with missingness in a single armAmro, LubnaPauly, MarkusRamosaj, Burimhttp://hdl.handle.net/2003/408372022-03-30T22:12:42Z2021-07-08T00:00:00ZTitle: Asymptotic-based bootstrap approach for matched pairs with missingness in a single arm
Authors: Amro, Lubna; Pauly, Markus; Ramosaj, Burim
Abstract: The issue of missing values is an arising difficulty when dealing with paired data. Several test procedures are developed in the literature to tackle this problem. Some of them are even robust under deviations and control type-I error quite accurately. However, most of these methods are not applicable when missing values are present only in a single arm. For this case, we provide asymptotic correct resampling tests that are robust under heteroskedasticity and skewed distributions. The tests are based on a meaningful restructuring of all observed information in quadratic form–type test statistics. An extensive simulation study is conducted exemplifying the tests for finite sample sizes under different missingness mechanisms. In addition, illustrative data examples based on real life studies are analyzed.2021-07-08T00:00:00ZInference for multivariate and high-dimensional data in heterogeneous designsSattler, Paavo Aljoscha Nanoschhttp://hdl.handle.net/2003/408352022-03-30T22:12:41Z2021-01-01T00:00:00ZTitle: Inference for multivariate and high-dimensional data in heterogeneous designs
Authors: Sattler, Paavo Aljoscha Nanosch
Abstract: In the presented cumulative thesis, we develop statistical tests to check different hypotheses
for multivariate and high-dimensional data. A suitable way to get scalar test statistics
for multivariate issues are quadratic forms. The most common are statistics of Waldtype
(WTS) or ANOVA-type (ATS) as well as centered and standardized versions of them.
Also, [Pauly et al., 2015] and [Chen and Qin, 2010] used such quadratic forms to analyze
hypotheses regarding the expectation vector of high-dimensional observations. Thereby,
they had different assumptions, but both allowed just one respective two groups.
We expand the approach from [Pauly et al., 2015] for multiple groups, which leads to a
multitude of possible asymptotic frameworks allowing even the number of groups to
grow. In the considered split-plot-design with normally distributed data, we investigate
the asymptotic distribution of the standardized centered quadratic form under different
conditions. In most cases, we could show that the individual limit distribution was only
received under the specific conditions. For the frequently assumed case of equal covariance
matrices, we also widen the considered asymptotic frameworks, since not necessarily
the sample sizes of individual groups have to grow. Moreover, we add other cases in which
the limit distribution can be calculated. These hold for homoscedasticity of covariance matrices
but also for the general case. This expansion of the asymptotic frameworks is one
example of how the assumption of homoscedastic covariance matrices allows widening
conclusions. Moreover, assuming equal covariance matrices also simplifies calculations or
enables us to use a larger statistical toolbox. For the more general issue of testing hypotheses
regarding covariance matrices, existing procedures have strict assumptions (e.g. in
[Muirhead, 1982], [Anderson, 1984] and [Gupta and Xu, 2006]), test only special hypotheses
(e.g. in [Box, 1953]), or are known to have low power (e.g. in [Zhang and Boos, 1993]).
We introduce an intuitive approach with fewer restrictions, a multitude of possible null hypotheses,
and a convincing small sample approximation. Thereby, nearly every quadratic
form known from the mean-based analysis can be used, and two bootstrap approaches are
applied to improve their performance. Furthermore, it can be expanded to many other
situations like testing hypotheses of correlation matrices or check whether the covariance
matrix has a particular structure.
We investigated the type-I-error for all developed tests and the power to detect deviations
from the null hypothesis for small sample sizes up to large ones in extensive simulation
studies.2021-01-01T00:00:00ZGaussian Process models and global optimization with categorical variablesKirchhoff, Dominikhttp://hdl.handle.net/2003/405412021-10-29T22:12:45Z2021-01-01T00:00:00ZTitle: Gaussian Process models and global optimization with categorical variables
Authors: Kirchhoff, Dominik
Abstract: This thesis is concerned with Gaussian Process (GP) models for computer experiments with both numerical and categorical input variables. The Low-Rank Correlation kernel LRCr is introduced for the estimation of the cross-correlation matrix – i.e., the matrix that contains the correlations of the GP given different levels of a categorical variable. LRCr is a rank-r approximation of the real but unknown cross-correlation matrix and provides two advantages over existing parsimonious correlation kernels: First, it lets the practictioner adapt the number of parameters to be estimated according to the problem at hand by choosing an appropriate rank r. And second, the entries of the estimated cross-correlation matrix are not restricted to non-negative values.
Moreover, an approach is presented that can generate a test function with mixed inputs from a test function having only continuous variables. This is done by discretizing (or “slicing”) one of its dimensions. Depending on the function and the slice positions, the slices sometimes happen to be highly positively correlated. By turning some slices in a specific way, the position and value of the global optimum can be preserved while changing the sign of a number of cross-correlations.
With these methods, a simulation study is conducted that investigates the estimation accuracy of the cross-correlation matrices as well as the prediction accuracy of the response surface among different correlation kernels. Thereby, the number of points in the initial design of experiments and the amount of negative cross-correlations are varied in order to compare their impact on different kernels.
We then focus on GP models with mixed inputs in the context of the Efficient Global Optimization (EGO) algorithm. We conduct another simulation study in which the distances of the different kernels' best found solutions to the optimum are compared. Again, the number of points in the initial experimental design is varied. However, the total budget of function evaluations is fixed. The results show that a higher number of EGO iterations tends to be preferable over a larger initial experimental design.
Finally, three applications are considered: First, an optimization of hyperparameters of a computer vision algorithm. Second, an optimization of a logistics production process using a simulation model. And third, a bi-objective optimization of shift planning in a simulated high-bay warehouse, where constraints on the input variables must be met. These applications involve further challenges, which are successfully solved.2021-01-01T00:00:00ZQANOVA: quantile-based permutation methods for general factorial designsDitzhaus, MarcFried, RolandPauly, Markushttp://hdl.handle.net/2003/400612022-01-25T07:26:20Z2021-02-24T00:00:00ZTitle: QANOVA: quantile-based permutation methods for general factorial designs
Authors: Ditzhaus, Marc; Fried, Roland; Pauly, Markus
Abstract: Population means and standard deviations are the most common estimands to quantify effects in factorial layouts. In fact, most statistical procedures in such designs are built toward inferring means or contrasts thereof. For more robust analyses, we consider the population median, the interquartile range (IQR) and more general quantile combinations as estimands in which we formulate null hypotheses and calculate compatible confidence regions. Based upon simultaneous multivariate central limit theorems and corresponding resampling results, we derive asymptotically correct procedures in general, potentially heteroscedastic, factorial designs with univariate endpoints. Special cases cover robust tests for the population median or the IQR in arbitrary crossed one-, two- and higher-way layouts with potentially heteroscedastic error distributions. In extensive simulations, we analyze their small sample properties and also conduct an illustrating data analysis comparing children’s height and weight from different countries.2021-02-24T00:00:00ZAnalyzing consistency and statistical inference in Random Forest modelsRamosaj, Burimhttp://hdl.handle.net/2003/395522020-09-29T01:40:50Z2020-01-01T00:00:00ZTitle: Analyzing consistency and statistical inference in Random Forest models
Authors: Ramosaj, Burim
Abstract: This thesis pays special attention to the Random Forest method as an ensemble learning technique
using bagging and feature sub-spacing covering three main aspects: its behavior as a
prediction tool under the presence of missing values, its role in uncertainty quantification and
variable screening. In the first part, we focus on the performance of Random Forest models in
prediction and missing value imputations while opposing it to other learning methods such as
boosting procedures. Therein, we aim to discover potential modifications of Breiman’s original
Random Forest in order to increase imputation performance of Random Forest based
models using the normalized root mean squared error and the proportion of false classification
as evaluation measures. Our results indicated the usage of a mixed model involving
the stochastic gradient boosting and a Random Forest based on kernel sampling. Regarding
inferential statistics after imputation, we were interested if Random Forest methods do deliver
correct statistical inference procedures, especially in repeated measures ANOVA. Our
results indicated a heavy inflation of type-I-error rates for testing no mean time effects. We
could furthermore show that the between imputation variance according to Rubin’s multiple
imputation rule vanishes almost surely, when repeatedly applying missForest as an imputation
scheme. This has the consequence of less uncertainty quantification during imputation
leading to scenarios where imputations are not proper. Closely related to the issue of valid
statistical inference is the general topic of uncertainty quantification. Therein, we focused on
consistency properties of several residual variance estimators in regression models and could
deliver theoretical guarantees that Random Forest based estimators are consistent. Beside
prediction, Random Forest is often used as a screening method for selecting informative features
in potentially high-dimensional settings. Focusing on regression problems, we could
deliver a formal proof that the Random Forest based internal permutation importance measure
delivers on average correct results, i.e. is (asymptotically) unbiased. Simulation studies
and real-life data examples from different fields support our findings in this thesis.2020-01-01T00:00:00ZA simulation study to compare robust tests for linear mixed-effects meta-regressionWelz, ThiloPauly, Markushttp://hdl.handle.net/2003/393442020-09-23T01:41:04Z2020-01-12T00:00:00ZTitle: A simulation study to compare robust tests for linear mixed-effects meta-regression
Authors: Welz, Thilo; Pauly, Markus
Abstract: The explanation of heterogeneity when synthesizing different studies is an important issue in meta‐analysis. Besides including a heterogeneity parameter in the statistical model, it is also important to understand possible causes of between‐study heterogeneity. One possibility is to incorporate study‐specific covariates in the model that account for between‐study variability. This leads to linear mixed‐effects meta‐regression models. A number of alternative methods have been proposed to estimate the (co)variance of the estimated regression coefficients in these models, which subsequently drives differences in the results of statistical methods. To quantify this, we compare the performance of hypothesis tests for moderator effects based upon different heteroscedasticity consistent covariance matrix estimators and the (untruncated) Knapp‐Hartung method in an extensive simulation study. In particular, we investigate type 1 error and power under varying conditions regarding the underlying distributions, heterogeneity, effect sizes, number of independent studies, and their sample sizes. Based upon these results, we give recommendations for suitable inference choices in different scenarios and highlight the danger of using tests regarding the study‐specific moderators based on inappropriate covariance estimators.2020-01-12T00:00:00ZAusreißeridentifikation für kategoriale und funktionale Daten im generalisierten linearen ModellRehage, Andréhttp://hdl.handle.net/2003/358502017-03-14T03:00:10Z2017-03-09T00:00:00ZTitle: Ausreißeridentifikation für kategoriale und funktionale Daten im generalisierten linearen Modell
Authors: Rehage, André
Abstract: In der vorliegenden Arbeit werden Verfahren zur Identifikation von Ausreißern in generalisierten linearen Modellen entwickelt. Der Fokus liegt dabei auf kategorialen und funktionalen Zielgrößen. In generalisierten linearen Modellen wird für die Zielgröße eine Verteilung aus der Exponentialfamilie angenommen. Somit können die Zielgrößen dahingehend analysiert werden, ob unter der Verteilungsannahme ungewöhnliche Werte realisiert werden. Hierzu wird das Konzept der α-Ausreißer herangezogen. Mit Hilfe robuster Kerndichteschätzer wird dieses Konzept auf Situationen erweitert, in denen kein Verteilungstyp angenommen wird. Ein wichtiges Ergebnis in dieser Arbeit betrifft die Ausreißeridentifikation einzelner Zellen in Kontingenztafeln, die durch loglineare Poissonmodelle beschrieben werden. Hierfür wird das Minimalmusterverfahren zu einem eindeutig bestimmten Ausreißeridentifizierer erweitert. Ein Minimalmuster besteht aus einer Teilmenge der Zellen einer Kontingenztafel, deren Elemente als potenziell ausreißerfrei aufgefasst werden. Die Performanz dieses Verfahrens wird in realen Datensätzen und Simulationsstudien beurteilt. Zur Wahl von Zellen einer Kontingenztafel, die Teil eines Minimalmusters sind, wird die Relevanz bestimmter geometrischer Strukturen, der sogenannten k-Schlingen, hervorgehoben. In funktionalen Daten können Ausreißeridentifizierer basierend auf Datentiefen definiert werden. Dabei liegt der Fokus der in der Literatur vorhandenen Datentiefen jedoch nicht auf der Form der Daten. Diese Lücke wird in dieser Arbeit zwei neue Pseudo-Datentiefen zur Identifikation von Form-Ausreißern geschlossen. Ihre Eigenschaften werden sowohl theoretisch als auch basierend auf echten sowie künstlichen Datensätzen analysiert und darüber hinaus im Kontext generalisierter linearer Modelle mit funktionaler Zielgröße beurteilt. Dabei wird auch eine eventuelle Fehlspezifikation des generalisierten linearen Modells berücksichtigt. Des Weiteren werden Verfahren zur Identifikation von Ausreißern in Gaußprozessen basierend auf dem Konzept der α-Ausreißer resp. Bagplots entwickelt.2017-03-09T00:00:00ZBlack-box optimization of mixed discrete-continuous optimization problemsHalstrup, Momchilhttp://hdl.handle.net/2003/357732017-02-02T03:00:10Z2016-01-01T00:00:00ZTitle: Black-box optimization of mixed discrete-continuous optimization problems
Authors: Halstrup, Momchil
Abstract: In numerous applications in industry it is becoming standard practice to study complex, real-world processes with the help of computer experiments - simulations. With increasing computing capabilities it has become customary to perform simulation studies beforehand, where the desired process characteristics can be optimized. Computer experiments which have only continuous inputs have been studied and applied with great success in the past in a large variety of different fields. However, many experiments in practice have mixed quantitative and qualitative inputs. Such mixed-input experiments have only recently begun to receive more attention, but the field of research is still very new.
Computer experiments very often take a long time to run, ranging from hours to days, making it impossible to perform direct optimization on the computer code. Instead, the simulator can be considered as a black-box function and a (meta-)model, which is cheaper to evaluate, is used to interpolate the simulation. In this thesis we develop models and optimization methods for experiments, which have purely continuous outputs, as well as for experiments with mixed qualitative-quantitative inputs.
The optimization of expensive to evaluate black-box functions is often performed with the help of model-based sequential strategies. A popular choice is the efficient global optimization (EGO) algorithm, which is based on the prominent Kriging metamodel and the expected improvement (EI) search criterion. Kriging allows for a great flexibility and can be used to approximate highly non-linear functions. It also provides a local uncertainty estimator at unknown locations, which, together with the EI criterion, can be used to guide the EGO algorithm to less explored regions of the search space. EGO based strategies have been successfully applied in numerous simulation studies. However, there are a few drawbacks of the EGO algorithm – for example both the Kriging model and the EI criterion operate under the normality assumption, and the classical Kriging model assumes stationarity – both of these assumptions are fairly restrictive and can lead to a substantial loss of inaccuracy, when they are violated. One further drawback of EGO is its inability to make adequate use of parallel computing. Moreover, the classical version of the EGO algorithm is only suitable for use in computer experiments with purely continuous inputs. The Kriging model uses the Euclidean distances in order to interpolate the unknown black-box function – making interpolation of mixed-input functions difficult.
In this work we address all of the drawbacks of the classical Kriging model and the powerful EGO described in the previous paragraph. We develop an assumption robust version of the EGO algorithm – called keiEGO, which does not rely on the Kriging model and the EI criterion. Instead, the robust alternatives – the kernel interpolation (KI) metamodel and the statistical lower bound (SLB) criterion are implemented. The KI and the SLB criterion are less sophisticated than Kriging and the EI criterion, but they are completely free of the normality and stationarity assumptions. The keiEGO algorithm is compared to the classical Kriging model based on a few synthetic function examples and also on a simulation case study of a sheet metal forming process developed by the IUL institute of the TU Dortmund University in the course of the collaborative research center 708. Furthermore, we develop a method for parallel optimization – called ParOF, based on a technique from the field of sensitivity analysis, called FANOVA graph. This method makes possible the use of parallel computations in the optimization with EGO but also manages to achieve a dimensionality reduction of the original problem. This makes modeling and optimization much easier, because of the (reverse) curse of dimensionality. The ParOF algorithm is also compared to the classical EGO algorithm based on synthetic functions and also on the same sheet metal forming case study mentioned before. The last part of this thesis is dedicated to EGO-like optimization of experiments with mixed inputs – thus we are addressing the last issue mentioned in the previous paragraph. We start by assessing different state of the art metamodels suitable for modeling and predicting mixed inputs. We then present a new class of Kriging models capable of modeling mixed inputs – called the Gower Kriging and developed in the course of this work. The Gower Kriging is also distance-based – it uses the Gower similarity measure, which constitutes a viable distance on the space of mixed quantitative-qualitative elements. With the help of the Gower Kriging we are able to produce a generalized EGO algorithm capable of optimization in this mixed space. We then perform a small benchmarking study, based on several synthetic examples of mixed-input functions of variable complexity. In this benchmark study we compare the Gower-Kriging-based EGO method to EGO variations implemented with other state of the art models for mixed data, based on their optimization capabilities.2016-01-01T00:00:00ZStatistische Modellierung und Optimierung multipler ZielgrößenRudak, Nikolaushttp://hdl.handle.net/2003/348852016-04-09T02:00:14Z2016-01-21T00:00:00ZTitle: Statistische Modellierung und Optimierung multipler Zielgrößen
Authors: Rudak, Nikolaus
Abstract: In vielen technischen Anwendungen, wie etwa beim thermischen Spritzen, werden Maschineneinstellungen
(Kovariablen) gesucht, die zu einem Produkt mit gewünschten Eigenschaften
(Zielvariablen) bei festgelegten Zielwerten führen. Die einzelnen Zielvariablen
werden als Zufallsvariablen aufgefasst und in einem Zielvariablenvektor zusammengefasst.
Es wird davon ausgegangen, dass sowohl der Erwartungswert als auch die Varianz
der Zielvariablen von Kovariablen abhängen. In der Regel können nicht alle Zielwerte
gleichzeitig erreicht werden, sondern lediglich ein guter Kompromiss. Zur Auswahl eines
Kompromisses kann die JOP-Methode herangezogen werden, bei der eine Risikofunktion
für eine ganze Reihe von Kostenmatrizen minimiert wird. Bisher wurde dabei angenommen,
dass die Einträge des Zielvariablenvektors unkorreliert sind. In dieser Arbeit wird
die JOP-Methode auf korrelierte Zielgrößen erweitert.
Zunächst werden vier unterschiedliche Modelle vorgestellt und erweitert, bei denen
sowohl der Erwartungswertvektor als auch die Kovarianzmatrix des Zielvariablenvektors
von Kovariablen abhängen. Die Schätzung des Erwartungswertvektors und der Kovarianzmatrix
auf Basis der vier genannten Modellvorstellungen wird in einer Simulationsstudie
untersucht und verglichen. Als Referenz gilt ein einfaches Vorgehen, bei dem für
jede Einstellung das arithmetische Mittel und die empirische Kovarianzmatrix berechnet
wird. Dabei stellt sich zwar kein klarer Favorit heraus, allerdings wird das einfache
Vorgehen immer von mindestens einem der übrigen Modelle übertroffen.
Im weiteren Verlauf wird die JOP-Methode auf korrelierte Zielgrößen erweitert. Es
wird eine Wahl von nichtdiagonalen Kostenmatrizen vorgeschlagen und die Pareto-
Optimalität der JOP-Methode nachgewiesen. Danach folgt die Vorstellung eines Algorithmus
der JOP-Methode für korrelierte Zielgrößen. Anschließend wird die JOPMethode
für korrelierte Zielgrößen auf einen Datensatz aus der Literatur sowie auf einen
im Rahmen des SFB 823 entstandenen Datensatz aus einem thermischen Spritzprozess
angewandt. Den Abschluss der Arbeit bildet eine Zusammenfassung und ein Ausblick.2016-01-21T00:00:00ZNew methods for the sensitivity analysis of black-box functions with an application to sheet metal formingFruth, Janahttp://hdl.handle.net/2003/340012015-08-12T20:12:18Z2015-01-01T00:00:00ZTitle: New methods for the sensitivity analysis of black-box functions with an application to sheet metal forming
Authors: Fruth, Jana
Abstract: The general field of the thesis is the sensitivity analysis of black-box functions. Sensitivity analysis studies how the variation of the output can be apportioned to the variation of input sources. It is an important tool in the construction, analysis, and optimization of computer experiments.
The total interaction index is presented, which can be used for the screening of interactions. Several variance-based estimation methods are suggested. Their properties are analyzed theoretically as well as on simulations.
A further chapter concerns the sensitivity analysis for models that can take functions as input variables and return a scalar value as output. A very economical sequential approach is presented, which not only discovers the sensitivity of those functional variables as a whole but identifies relevant regions in the functional domain.
As a third concept, support index functions, functions of sensitivity indices over the input distribution support, are suggested.
Finally, all three methods are successfully applied in the sensitivity analysis of sheet metal forming models.2015-01-01T00:00:00ZEchtzeit-Extraktion relevanter Information aus multivariaten Zeitreihen basierend auf robuster RegressionBorowski, Matthiashttp://hdl.handle.net/2003/298762015-08-12T23:53:11Z2013-01-28T00:00:00ZTitle: Echtzeit-Extraktion relevanter Information aus multivariaten Zeitreihen basierend auf robuster Regression
Authors: Borowski, Matthias
Abstract: Diese Arbeit befasst sich mit der Echtzeit-Signalextraktion aus uni- und multivariaten Zeitreihen sowie mit der Echtzeit-Überwachung der Zusammenhänge zwischen den univariaten Komponenten multivariater
Zeitreihen. Die in dieser Arbeit ntersuchten und entwickelten Methoden eignen sich zur Echtzeit-Anwendung auf hochfrequent gemessene instationäre Zeitreihen, die Ausreißer und Fehler mit wechselnder Variabilität aufweisen.
Ein Verfahren zur Echtzeit-Signalextraktion aus univariaten Zeitreihen wird entwickelt, welches auf der
Anpassung robuster Repeated Median-Regressionsgeraden in gleitenden Zeitfenstern gründet, deren Fensterbreite
entsprechend der aktuell vorliegenden Datensituation gewählt wird. Eine umfassende Vergleichsstudie zeigt die
Überlegenheit der neuen Methode gegenüber einem bereits bestehenden Signalfilter mit adaptiver
Fensterbreitenwahl.
Auf Basis des neu entwickelten Signalfilters wird eine Methodik zur Echtzeit-Überwachung der Zusammenhänge
zwischen den einzelnen Komponenten einer multivariaten Zeitreihe entwickelt. Dieses Verfahren bewertet zu
jedem Zeitpunkt den Zusammenhang zwischen zwei univariaten Zeitreihen anhand der aktuell vorliegenden Trends.
Bei diesem Ansatz resultiert ein Zusammenhang aus gleich bzw. ähnlich gerichteten Verläufen.
Das Verfahren zur Überwachung der Zusammenhänge wird mit dem neuen adaptiven Signalfilter kombiniert zu einer
multivariaten Prozedur zur umfassenden Extraktion relevanter Information in Echtzeit. Neben der multivariaten
Signalextraktion mit adaptiver Fensterbreitenwahl liefert dieses neue Verfahren für jede univariate
Zeitreihenkomponente eine Schätzung der Fehlervariabilität, zeigt zu jedem Messzeitpunkt die aktuell
bestehenden Zusammenhänge an und erkennt Sprünge und Trendwechsel in Echtzeit.2013-01-28T00:00:00ZModellierung und Kalibrierung von Computermodellen mit Anwendung auf einen UmformprozessKracker, Hilkehttp://hdl.handle.net/2003/289042015-08-12T17:25:53Z2011-07-06T00:00:00ZTitle: Modellierung und Kalibrierung von Computermodellen mit Anwendung auf einen Umformprozess
Authors: Kracker, Hilke
Abstract: Diese Arbeit beschäftigt sich mit der Modellierung und Kalibrierung von Computermodellen. Dazu
werden statistische Methoden untersucht, weiterentwickelt und auf ein praktisches Problem aus
der Umformung angewendet.
Zur Modellierung von Computermodellausgaben werden Gauß Prozesse herangezogen. Dabei wird das
Konzept der statistischen Abhängigkeit für die Modellierung von Funktionen eingesetzt. Neben
der Interpolation der vorliegenden Computerexperimente liefert diese Methode auch
Unsicherheitsintervalle für die Vorhersagen. Deren Überdeckungsgüte wird in dieser Arbeit anhand von Simulationen, Testfunktionen und einem Beispiel aus der Praxis erstmals
untersucht. Dabei zeigt sich, dass die Gauß Prozess Interpolation geeignete Unsicherheitsin
tervalle liefert, wenn sich die zu approximierende Funktion nicht zu stark von der Realisation
eines Gauß Prozesses unterscheidet.
Zentrales Thema dieser Arbeit ist die Kalibrierung von Computermodellen anhand von unbekannten
Parametern. Das Endprodukt ist dabei ein Vorhersagemodell für den physikalischen Prozess unter
Berücksichtigung von Beobachtungen aus Simulation und Experiment. Es werden zwei
unterschiedliche Ansätze aus der Literatur vorgestellt. Der erste Ansatz setzt ein modifiziertes
nichtlineares Regressionsverfahren ein. Kann die Realität nicht alleine über das Computermodell
beschrieben werden, liefert es jedoch nur bedingt geeignete Vorhersagen. Der zweite Ansatz
modelliert die Realität durch eine Addition von Computermodell und einer Verzerrung. Dieses
Verfahren wird in dieser Arbeit anhand von Testbeispielen illustriert und seine Sensitivität
gegenüber datenabhängigen und datenunabhängigen objektiven a priori Verteilungen untersucht.
Dabei erweisen sich datenabhängige a priori Verteilungen für die Varianzparameter als
geeignet.
In der Praxis besteht bei der Kalibrierung von Computermodellen in der Regel eine Modellunsi
cherheit, das heißt es ist nicht bekannt, ob ein verzerrtes oder ein unverzerrtes Computermodell
vorliegt. In dieser Dissertation wird eine statistische Methode zur Kalibrierung entwickelt, die
auch bei Modellunsicherheit eingesetzt werden kann und untersucht ob ein verzerrtes Com
putermodell vorliegt. Die Methode wird anhand von einigen Testbeispielen untersucht und es zeigt
sich, dass dieser Ansatz bei unverzerrtem Computermodell gegenüber der Kalibrierungsmethode mit
Verzerrungsfunktion bessere Ergebnisse liefert, ohne mit einem wesentlichen Effizienzverlust für
verzerrte Computermodelle einher zu gehen.
Die vorgestellten Methoden werden anschließend auf die Kalibrierung einer Rückfederungssi
mulation für einen Umformprozess angewendet. Dabei werden zwei Werkstoffe berücksichtigt und als
Kalibrierparameter einerseits numerische Parameter und andererseits Materialparameter
eingesetzt. Mit Hilfe der in dieser Arbeit entwickelten Methode kann gezeigt werden, dass die
Rückfederung nicht alleine durch das Computermodell mit geeignet gewählten Kalibrierparametern
beschrieben werden kann. Dies gilt selbst bei den Materialparametern, für die erwartet wurde,
dass sie die wesentliche Unsicherheit über die Rückfederung enthalten. Das Computermodell kann
den funktionalen Zusammenhang zwischen Rückfederung und physikalischen Parametern teilweise
approximieren. Aktuell sollte eine Vorhersage neben Simulationen jedoch auch stets physikalische
Experimente berücksichtigen. Durch die Analyse der erforderlichen Verzerrungsfunktion kann die
Abweichung lokalisiert werden und bietet so dem physikalischen Modellierer einen konkreten
Ansatzpunkt zur Verbesserung des Computermodells.2011-07-06T00:00:00ZIterative Identifikation von Lokations- und Dispersionsfaktoren bei nichtwiederholten PlänenAuer, Corinnahttp://hdl.handle.net/2003/288782015-08-12T17:36:09Z2011-06-29T00:00:00ZTitle: Iterative Identifikation von Lokations- und Dispersionsfaktoren bei nichtwiederholten Plänen
Authors: Auer, Corinna2011-06-29T00:00:00ZNeue Konzepte für die Planung und Analyse von ComputerexperimentenMühlenstädt, Thomashttp://hdl.handle.net/2003/276372015-08-12T17:11:00Z2011-03-02T00:00:00ZTitle: Neue Konzepte für die Planung und Analyse von Computerexperimenten
Authors: Mühlenstädt, Thomas2011-03-02T00:00:00ZDas Diskrepanzprinzip in der nichtparametrischen KurvenschätzungMildenberger, Thoralfhttp://hdl.handle.net/2003/275992015-08-12T22:55:30Z2011-02-02T00:00:00ZTitle: Das Diskrepanzprinzip in der nichtparametrischen Kurvenschätzung
Authors: Mildenberger, Thoralf
Abstract: In dieser Dissertation wird das Diskrepanzprinzip, ein Verfahren zur Glättungsparameterwahl in der nichtparametrischen Kurvenschätzung, untersucht. Diese Methode stammt ursprünglich aus der Theorie der inversen Probleme, wo sie eine der bekanntesten Methoden zur Regularisierungsparameterwahl darstellt. Die Grundidee ist, maximal zu glätten unter einer Nebenbedingung an die Anpassung an die Daten. Obwohl sich dieses Prinzip auch auf die nichtparametrische Kurvenschätzung anwenden lässt, ist es in der Statistik relativ unbekannt.
Für Kerndichteschätzer werden die bisher bekannten Resultate zum Verhalten der gewählten Bandbreite in einen gemeinsamen Rahmen eingeordnet und um neue ergänzt. Es wird auch gezeigt, dass die Bandbreitenwahl mit Hilfe des Diskrepanzprinzips für bestimmte Dichten zu inkonsistenten Schätzungen führen kann. Analoge Resultate werden für die Wahl der Binanzahl in regulären Histogrammen hergeleitet. In Simulationsstudien werden die einzelnen Varianten des Diskrepanzprinzips sowohl untereinander als auch mit Standardmethoden verglichen.
Die bislang für die nichtparametrische Regression vorgeschlagenen Versionen des Diskrepanzprinzips basieren meist auf der Residuenquadratsumme oder dem sogenannten Multiresolutionskriterium. Letzteres wird in dieser Arbeit ausführlich untersucht, wobei gezeigt wird, dass sich das Kriterium über eine spezielle Norm des Residualvektors formulieren lässt. Es werden einige geometrische Eigenschaften dieser Norm hergeleitet. In einer weiteren Simulationsstudie wird die Verwendung des Diskrepanzprinzips für Nadaraya-Watson-Kernschätzer und kubische Glättungssplines untersucht.2011-02-02T00:00:00ZExtremstellenverlust als Gütekriterium in der nichtparametrischen RegressionWeinert, Henrikehttp://hdl.handle.net/2003/264592015-08-13T02:14:26Z2009-10-21T08:59:34ZTitle: Extremstellenverlust als Gütekriterium in der nichtparametrischen Regression
Authors: Weinert, Henrike
Abstract: In dieser Arbeit wird ein neues Gütekriterium für den Vergleich verschiedener nichtparametrischer Regressionsmethoden erarbeitet. Die nichtparametrische Regression befasst sich damit, aus gegebenen Daten eine Signalfunktion zu schätzen. Zur Gegenüberstellung verschiedener Regressionsverfahren werden häufig Simulationsstudien durchgeführt, in denen die Verfahren auf Daten angewandt werden, deren zugrundeliegende Signalfunktion bekannt ist. Der Vergleich mehrerer Schätzfunktionen basiert auf Gütekriterien, wobei zumeist Lp-Normen verwendet werden. Dabei besteht eine Diskrepanz zwischen dem, was diese Normen messen, und der visuellen Beurteilung durch einen Betrachter, da die Normen nur den vertikalen Abstand von Signal- und Schätzfunktion verwenden. Ein Betrachter kann beispielsweise falsch geschätzte Extremwerte visuell sofort erfassen und zieht sie automatisch zur Bewertung der Schätzfunktion heran. Insbesondere für Anwendungen, bei denen das korrekte Identifizieren von Extremwerten von hoher Bedeutung ist, führen
klassische Gütekriterien wie die Lp -Normen zu Fehleinschätzungen bezüglich der Eignung von Regressionsverfahren.
In der vorliegenden Arbeit wird daher ein gänzlich neues Gütemaß für die Beurteilung der Anpassung an Signalfunktionen vorgeschlagen. Der neue Extremstellenverlust bewertet die korrekte Identifizierung von Extrema. Für eine Schätzfunktion wird dafür zunächst überprüft, ob ihre Extremstellen mit denen der Signalfunktion übereinstimmen. Daraufhin wird das Fehlverhalten
zu viel und zu wenig geschätzter Extremstellen in einem normierten Verlust zusammengefasst. Damit formalisiert das neue Kriterium
die visuelle Beurteilung durch einen Betrachter und ist geeignet, die Güte einer Regressionsmethode bezüglich ihrer Extremwerte in einem Verlustwert zu erfassen.2009-10-21T08:59:34ZAuswirkungen von beschränkter stochastischer Abhängigkeit auf statistische VerfahrenKwiecien, Roberthttp://hdl.handle.net/2003/262012015-08-12T16:51:08Z2009-06-23T07:20:18ZTitle: Auswirkungen von beschränkter stochastischer Abhängigkeit auf statistische Verfahren
Authors: Kwiecien, Robert
Abstract: Die Arbeit beinhaltet eine Analyse der Effekte, die durch Störungen stochastischer Unabhängigkeit bei statistischen Verfahren hervorgerufen werden können. Die Störungen stochastischer Unabhängigkeit sind hierbei durch quantitativ beschreibbare Beschränkungen stochastischer Abhängigkeit gegeben. Zu diesem Zweck werden quantitative Maße für Abhängigkeit vorgestellt.
Diese basieren sowohl auf klassischen Konzepten wie z.B. dem strong-mixing-Koeffizienten nach Rosenblatt, als auch auf neueren Konzepten, die auf bedingten Verteilungsfunktionen und bedingten Erwartungswerten aufbauen.
Die quantitative Beschreibung stochastischer Abhängigkeit ermöglicht es, die vom Ausmaß stochastischer Abhängigkeit hervorgerufenen Auswirkungen auf statistische Verfahren zu untersuchen.
Ein erster Schritt behandelt infinitesimale Abweichungen von stochastischer Unabhängigkeit, und die qualitative Robustheit statistischer Verfahren. Es wird gezeigt, dass sich bei geringer Abweichung von der stochastischen Unabhängigkeit der eingehenden Daten das Verhalten vieler statistischer Verfahren auch nur gering ändert.
Ein Großteil der Arbeit behandelt das asymptotische Verhalten statistischer Verfahren. So wird die Konsistenz der empirischen Verteilungsfunktion im Sinne des Glivenko-Cantelli-Satzes bei beschränkter stochastischer Abhängigkeit gezeigt. Darauf aufbauend wird die Konsistenz einiger Klassen von Punktschätzern, die bereits aus der robusten Statistik bekannt sind, bei Abhängigkeit gezeigt.
Darüber hinaus werden Methoden zur Bestimmung asymptotischer Verteilungen bzw. zur Bestimmung des schwachen Konvergenzverhaltens von Schätzern bei stochastischer Abhängigkeit geliefert. Zu diesem Zweck werden ein Zentraler Grenzwertsatz und ein abstrakter Funktionaler Zentraler Grenzwertsatz bei Abhängigkeit bewiesen. Anhand von Beispielen wird demonstriert, wie diese Resultate zur Bestimmung schwacher Konvergenz weiterer Schätzer und Statistiken verwendet werden können.2009-06-23T07:20:18ZSignal and variability extraction for online monitoring in intensive careSchettlinger, Karenhttp://hdl.handle.net/2003/260442015-08-12T16:46:20Z2009-03-11T11:02:01ZTitle: Signal and variability extraction for online monitoring in intensive care
Authors: Schettlinger, Karen
Abstract: This thesis proposes new methods for real-time signal and variability extraction, presents derivations of their robustness properties and discusses their value for practical applications to physiological time series. Although the proposed techniques are developed against the background of online monitoring in intensive care, they are also applicable to any other kind of time series. For Repeated Median regression on an equidistant grid, the distribution of the position and number of zero residuals is investigated, and the correlation structure between the residual signs is examined. For online signal extraction, an adaptive filter is proposed which essentially relies on a goodness-of-fit test based on residual signs from Repeated Median regression. After deriving suitable settings for this filter in the univariate case from a simulation study, the procedure is extended for application to multivariate time series. For online variability extraction, three approaches to scale estimation are considered. The robustness properties of the newly proposed regression-free and model-free techniques are derived, and the different approaches are compared via an extensive simulation study.2009-03-11T11:02:01ZDatengestützte Regelgenerierung für die Alarmgebung im Online-Monitoring von IntensivpatientenSieben, Wiebkehttp://hdl.handle.net/2003/260092015-08-12T16:55:58Z2009-02-02T09:45:21ZTitle: Datengestützte Regelgenerierung für die Alarmgebung im Online-Monitoring von Intensivpatienten
Authors: Sieben, Wiebke
Abstract: In dieser Dissertation wird die Eignung datengestützt generierter Alarmregeln für die Überwachung von Patienten auf der Intensivstation untersucht. Hierfür wird ein bekantes Klassifikationsverfahren modifiziert, so dass es Alarmregeln mit einer wählbar hohen Sensitivität erzeugt. Dieses neue Verfahren wird online an Patientenmonitoring-Daten getestet. Die Reduktion von Fehlalarmen im Patientenmonitoring auf der Intensivstation ist aufgrund von Fehlalarmraten von bis zu 90% notwendig. Eine einfache Schwellwertüberwachung der Vitalparameter ist jedoch trotz wissenschaftlicher Fortschritte gegenwärtiger Stand der Technik. In einer Anforderungsanalyse werden Bedingungen für die überführbarkeit neuer Verfahren in die Praxis ermittelt, unter deren Berücksichtigung ein Klassifikationsverfahren zur Alarmregelgenerierung gewählt wird. Mit dessen Hilfe können die Alarme des Standard-Patientenmonitors validiert, d.h. unterdrückt oder ausgegeben werden. Hier bilden umfangreiche Aufzeichnungen von Daten eines Standard-Patientenmonitors sowie klinische Annotationen die benötigte Datengrundlage. In der Datenvorverarbeitung werden, entsprechend der Vorgehensweise von ärzten, Charakteristika konstruiert, die den gesundheitlichen Verlauf eines Patienten kurz vor Auslösung eines Alarms wiedergeben. Sie werden zum einen aus lokalen linearen Regressionen und zum anderen aus Wavelet-Zerlegungen abgeleitet. Übliche Klassifikationsverfahren eignen sich nicht, um Alarmregeln mit einer wählbaren und kontrollierbaren Zielsensitivität zu generieren. Aus diesem Grund wird das häufig genutzte Klassifikationsverfahren "Random Forest" gemäß dem Neyman-Pearson-Prinzip modifiziert, um die Konstruktion von Alarmregeln mit einer vorgegebenen Sensitivität zu ermöglichen. Die Eignung dieses Verfahrens wird für Zielsensitivitäten von 95% und 98% gezeigt. Die vorgegebenen Sensitivitäten werden in den betrachteten Fällen im arithmetischen Mittel und Median bei geringer Variabilität in den Ergebnissen erreicht. Gleichzeitig können die Fehlalarme um bis zu 55% im Median reduziert werden. Charakteristika des gesundheitlichen Verlaufs können diese Ergebnisse nicht weiter steigern. Die Allgemeingültigkeit der erzeugten Alarmregeln wird anhand einer nach Patienten stratifizierten Stichprobe überprüft. In diesem Fall bleibt die Reduktion der Fehlalarme bei hohen Sensitivitäten deutlich hinter den bisherigen Ergebnissen zurück. Dies deutet darauf hin, dass die vorliegenden Daten nicht ausreichen, um allgemein gültige Regeln zu generieren. Das im Rahmen dieser Arbeit entwickelte Verfahren kann bei Erhebung weiterer Daten zur Alarmregelgenerierung für die Patientenüberwachung genutzt werden. Das vorgeschlagene Konzept, die Klassifikations-Entscheidung eines gebaggten Ensembles von Klassifizierern analog zu einem Neyman-Pearson-Test zu bilden, ist auf neue Fragestellungen leicht übertragbar und daher in vielen Anwendungsgebieten von Interesse.2009-02-02T09:45:21ZEntwicklung statistischer Tests mit computergestützter AlgebraKrampe, Annehttp://hdl.handle.net/2003/258852015-08-12T20:51:52Z2008-12-02T15:21:12ZTitle: Entwicklung statistischer Tests mit computergestützter Algebra
Authors: Krampe, Anne
Abstract: Im Fokus dieser Dissertation steht die Anwendung der computergestützten Algebra in der Statistik. Aus diesem Teilgebiet der Mathematik werden Methoden verwendet, um statistische Tests für eine Analyse struktureller Abhängigkeiten zwischen Komponenten eines multivariaten Zufallsvektors zu entwickeln. Zur Beschreibung von Abhängigkeits- bzw. Unabhängigkeitsbeziehungen werden log-lineare sowie graphische Modelle herangezogen. Für die Beurteilung der Anpassungsgüte eines Modells werden Anpassungstests wie der 2-Test und der Likelihood-Quotienten-Test verwendet. In der Praxis basieren diese traditionell auf asymptotischen Ergebnissen bzw. exakten Berechnungen, wobei die Approximation beispielsweise aufgrund eines zu geringen Stichprobenumfangs nicht gerechtfertigt bzw. ein entsprechender exakter Tests zu aufwändig sein kann. Diaconis und Sturmfels (1998) verbinden Methoden der computergestützten Algebra mit Markov Chain Monte Carlo-Verfahren, um aus der bedingten Verteilung einer diskreten Exponentialfamilie mit beobachteter suffizienter Statistik zu simulieren. Der Ansatz von Diaconis und Sturmfels wird in dieser Arbeit für die Entwicklung neuer algebraischer Tests genutzt. Liegen, wie z. B. bei Gutachterverlässlichkeitsstudien, der Untersuchung so genannte gepaarte Beobachtungen zugrunde, so sind häufig strukturelle übereinstimmungen der Realisationen von besonderem Interesse. Da das perfekte Symmetriemodell restriktiv ist und selten von einem Datensatz unterstützt wird, werden zusätzlich alternative Symmetriemodelle (bedingtes, diagonales, ordinales Quasi-Symmetriemodell) betrachtet. Für diese vier Modelle werden neue algebraische Anpassungstests vorgeschlagen. Häufig ist für eine Analyse kategorialer Daten nicht nur von Bedeutung, ob Abhängigkeiten zwischen Komponenten eines Zufallsvektors bestehen, sondern es interessiert zudem, wie stark diese Abhängigkeiten tatsächlich sind. Das Odds Ratio und ein zugehöriges Konfidenzintervall geben hierzu Aufschluss. Ausgehend von dem Spezialfall einer 2 × 2-Kontingenztafel wird ein algebraisches Konfidenzintervall für das Odds Ratio entwickelt, wobei das vorgestellte Konstruktionsprinzip beispielsweise auch für Konfidenzintervalle anderer Parameter wie das Relative Risiko oder das Odds Ratio einer 2 × 2 × K-Tafel, K 2 IN, anwendbar ist. Für die Analyse eines Datensatzes werden oftmals verschiedene Modelle geprüft. Algebraische Tests nach Diaconis und Sturmfels basieren auf eine separate Simulation für jedes betrachtete Modell, weshalb sie in der Regel zu aufwändig und daher für solche Fragestellungen ungeeignet sind. Weisen die interessierenden Modelle eine hierarchische Struktur auf, so kann der nötige Simulationsaufwand für algebraische Tests z. T. erheblich reduziert werden. Dazu wird bewiesen, dass die Simulation gemäß einem Modell ausreicht, um algebraische Tests für alle darauf aufbauenden Modelle durchzuführen. Das Vorgehen wird am Beispiel der Modellselektion für graphische Modelle sowie für die betrachteten Symmetriemodelle vorgestellt. Liegen der Analyse kategoriale Daten zugrunde, so haben sich algebraische Tests als wichtige Ergänzung zu den traditionellen asymptotischen und exakten Tests erwiesen. Es wird weiter gezeigt, dass algebraische Anpassungstests für gemischt stetige-diskrete Daten prinzipiell entwickelt werden können. Der nötige Simulationsaufwand scheint jedoch sehr groß, so dass alternative Verfahren für eine Anwendung in der Praxis geeigneter erscheinen.2008-12-02T15:21:12ZNichtparametrische Modellierung von Zeitreihen mit InfektionshäufigkeitenSchürmann, Christophhttp://hdl.handle.net/2003/257502015-08-13T00:55:52Z2008-07-22T09:07:23ZTitle: Nichtparametrische Modellierung von Zeitreihen mit Infektionshäufigkeiten
Authors: Schürmann, Christoph
Abstract: Die Analyse der Häufigkeiten, mit der eine Infektionskrankheit
auftritt, ist eine wesentliche Voraussetzung für die
epidemiologische Bewertung und effiziente Überwachung dieser
Krankheit innerhalb eines leistungsfähigen Gesundheitssystems.
Zeitreihen mit wöchentlichen Meldefallhäufigkeiten sind dabei von
besonderer Bedeutung. In dieser Arbeit wird dazu ein neues
Verfahren basierend auf Dekompositionsmodellen vorgestellt, deren
Komponenten mit nichtparametrischen Methoden geschätzt werden. Am
Beispiel der drei in Nordrhein-Westfalen im Zeitraum 2001 bis
2006 am häufigsten gemeldeten Infektionskrankheiten,
Campylobacteriose, Rotavirus-Infektion und Salmonellose, wird
gezeigt, dass dieser Ansatz eine gute und sinnvolle Modellierung
ermöglicht.
Grundlegend ist zunächst die Annahme, dass die Beobachtungen, ggf.
nach geeigneter Transformation, als Summe eines Signals und eines
zufälligen Fehlers in Form einer stationären Zeitreihe angesehen
werden können. Das Signal wird dann in weitere deterministische
Komponenten zerlegt, die einen Trend, saisonale, zyklische sowie
kalenderbedingte Effekte beschreiben. Aus den inhaltlichen
Eigenschaften dieser Bestandteile lassen sich strukturelle
Bedingungen an Schätzer ableiten. Es wird untersucht, mit welchen
nichtparametrischen Methoden wie Kernschätzern mit lokaler
Bandbreite, Adaptive Weights Smoothing Splines, Straffe Saite oder
Singular Spectrum Analysis Kandidatenfunktionen für die Schätzung
berechenbar sind, die diese Anforderungen erfüllen. Anhand
weiterer Kriterien, die für die Komponenten individuell formuliert
werden, kann die Schätzung unter den jeweiligen Kandidaten
bestimmt werden. Anschließend wird gezeigt, dass die nach
Subtraktion der geschätzten Komponenten signalbereinigte Zeitreihe
als Realisation eines ARMA-Prozesses niedriger Ordnung angesehen
werden kann. Die geschätzten Modelle weisen insgesamt eine hohe
Anpassungsgüte für die Beobachtungen und eine geeignete Glattheit
auf. Zudem erlauben sie eine intuitive und aussagekräftige
Interpretation der Daten.
Zum Vergleich mit einem häufig gewählten Ansatz wird die
Modellierung durch ein parametrisches Poissonregressionsmodell
herangezogen, in dem geeignete Kovariablen schrittweise durch ein
Modellselektionskriterium in die Regressionsgleichung
aufgenommen werden. Dieser Ansatz besitzt den Nachteil, dass die
möglichen Kovariablen nicht ohne strukturelle Annahmen gewählt
werden können und führt bei den betrachteten Beispielen zu einer
Überanpassung der Schätzung an die Daten.
Möglichkeiten zur Vorhersage der Häufigkeiten werden auf Grundlage
der nichtparametrischen Schätzung ebenfalls aufgezeigt.2008-07-22T09:07:23ZPlanung, Durchführung und Analyse einer klinischen Studie zur Bewertung und zum Vergleich von Alarmsystemen in der IntensivmedizinKuhls, Silviahttp://hdl.handle.net/2003/257362015-08-12T20:59:21Z2008-07-07T12:04:21ZTitle: Planung, Durchführung und Analyse einer klinischen Studie zur Bewertung und zum Vergleich von Alarmsystemen in der Intensivmedizin
Authors: Kuhls, Silvia
Abstract: In dieser Dissertation wird die Eignung neuer Alarm-Algorithmen für das intensivmedizinische Online-Monitoring untersucht. Hierfür wurde eine klinische Studie zur Erstellung eines klinisch annotierten Referenzdatensatzes geplant und durchgeführt, sowie eine statistische Validierungsmethodik entwickelt. Die neuen Verfahren wurden offline auf Basis des Referenzdatensatzes getestet.
Die derzeit auf Intensivstationen eingesetzten Schwellwertalarmsysteme lösen Alarme basierend auf einem Vergleich der gemessenen Vitalparameterwerte mit Alarmgrenzen aus. Durch Artefakte oder kurze Schwankungen um die Alarmgrenze werden sehr viele Fehlalarme ausgelöst, welche zu einer Desensibilisierung des medizinischen Personals führen. Die neuen Alarm-Algorithmen vergleichen dagegen ein Signal mit den Alarmgrenzen, welches durch Anwendung einer robusten Regressionsmethode in einem gleitenden Fenster aus den Zeitreihen extrahiert wird.
Der Referenzdatensatz für den Offline-Vergleich alter und neuer Alarm-Algorithmen enthält die sekündlich gemessenen Werte der überwachten Vitalparameter, die Alarme und Alarmeinstellungen des derzeit eingesetzten Alarmsystems und klinische Annotationen. In den Annotationen wurde anhand von Videoaufnahmen unter anderem beurteilt, ob während der aufgetretenen Alarmsituationen ein alarmrelevanter Zustand vorlag.
Es ist nachzuweisen, dass die neuen Alarm-Algorithmen den einfachen Schwellwertalarmen hinsichtlich der Sensitivität bezüglich der Erkennung alarmrelevanter Zustände nicht unterlegen aber gleichzeitig in Bezug auf die Spezifität überlegen sind. In dieser Arbeit werden die Konzepte von Sensitivität und Spezifität auf den Alarmsystem-Kontext übertragen. Bei der Auswahl von Signifikanztests für den Sensitivitäts- und Spezifitätsvergleich werden mögliche Abhängigkeiten zwischen den Beobachtungen für einen Patienten berücksichtigt.
Auf Basis einer Teilstichprobe des Referenzdatensatzes werden zunächst getrennt für die einzelnen Vitalparameter die geeignetsten Einstellungen für die neuen Alarm-Algorithmen bestimmt (Fensterbreite für die Signalextraktion, Zusatzregeln). Bei der Validierung kann für die ausgewählten Alarm-Algorithmen Folgendes gezeigt werden: Die neuen AlarmAlgorithmen für die arteriellen Blutdrücke und die Sauerstoffsättigung sind zwar hinsichtlich der Spezifität deutlich besser als das einfache Schwellwertalarmsystem, die Nicht-Unterlegenheit bezüglich der Sensitivität ist aber für den vorher gewählten noch akzeptablen Sensitivitätsunterschied von 5% nicht nachweisbar. Mit einem Sensitivitätsunterschied von ca. 10% und einer Reduzierung der Alarm-Häufigkeit um 45% stellen die neuen Alarme für die arteriellen Blutdrücke dennoch eine sinnvolle Alternative zu einfachen Schwellwertalarmen dar. Der erstellte Referenzdatensatz und die erarbeitete Validierungsmethodik können zudem zur Überprüfung weiterer neuer Alarm-Algorithmen verwendet werden.2008-07-07T12:04:21ZStatistische Analyse und Rattererkennung beim Einlippen-TiefbohrenBusch, Anita Silviahttp://hdl.handle.net/2003/222782015-08-12T16:34:40Z2006-04-07T11:56:54ZTitle: Statistische Analyse und Rattererkennung beim Einlippen-Tiefbohren
Authors: Busch, Anita Silvia
Abstract: In dieser Dissertation werden Möglichkeiten zur Rattererkennung beim Einlippen-Tiefbohren
auf Basis des Körperschallsignals untersucht.
Ziel der Arbeit ist es, eine Kontrollkarte zur frühzeitigen Erkennung des Einsetzens
von Rattern im Bohrprozess zu entwickeln.
Es wird festgestellt, dass sich das Rattern als Veränderung in den zweiten Momenten der Zeitreihen
von Körperschallsignalen widerspiegelt.
Möglichkeiten die Entwicklung der Varianz und der Korrelationsstruktur eines stochastischen Prozesses über die Zeit
zu verfolgen, bieten sich mit der fensterweisen oder adaptiven Schätzung von Spektraldichte,
spektraler Verteilungsfunktion, der Autokovarianzfunktion oder der Parameter von ARMA-Modellen.
Bei Rattern verändern sich diese Größen je nach Stärke der Störung graduell oder abrupt,
aber auch im ruhigen Prozess sind Veränderungen der entsprechenden Schätzwerte zu erkennen.
Auf diesen Charakteristika basieren somit diverse in dieser Arbeit dargestellte Verfahren
zur Erkennung spektraler Veränderungen in Zeitreihen.
Ein Großteil der Methoden zur Kontrolle des Spektralverhaltens setzt voraus,
dass die Veränderungen sprunghaft und groß im Vergleich zu sonstigem Rauschen sind.
Andere Verfahren, die geeignet sind, kleinere oder graduelle Veränderungen zu erkennen,
reagieren allerdings häufig sehr empfindlich auf kleine, irrelevante Schwankungen in den Charakteristika.
Für die Überwachung des Körperschallsignals sind daher viele dieser Verfahren nicht empfehlenswert.
Der Fokus dieser Arbeit liegt auf der Untersuchung der Spektraldichte und deren Schätzern.
Das Periodogramm und Abwandlungen davon sind einfach zu interpretieren und
erhalten die gesamte Information über die Autokovarianzstruktur der Zeitreihe.
Bei Betrachtung des Periodogramms in Blöcken über die Zeit wird eine hochdimensionale Zeitreihe erzeugt.
Es kann gezeigt werden, dass es bei Verwendung des SLEX-Periodogramms möglich ist,
in sich überschneidenden Blöcken sowohl in Zeit- als auch in Frequenzrichtung mit wachsender
Blockgröße asymptotisch unkorrelierte Werte zu erhalten.
In einer umfangreichen Untersuchung stellt sich die Itakura-Saito-Abweichung als ein in diesem Zusammenhang
besonders geeignetes spektrales Abweichungsmaß heraus, das genutzt werden sollte,
um die spektralen Veränderungen über die Zeit zu quantifizieren.
Auf der Basis von SLEX-Periodogrammen und der Itakura-Saito-Abweichung wird ein Konzept für eine Kontrollkarte erstellt,
das sich auf Vorbilder von klassischen multivariaten Kontrollkarten stützt.
Es zeigt sich in den untersuchten Beispielen und Simulationen, dass die hier entwickelten Kontrollkarten geeignet sind,
Rattern beim Anbohren und im laufenden Bohrprozess zu erkennen.2006-04-07T11:56:54ZRobustness concepts for sliced inverse regressionGenschel, Ulrikehttp://hdl.handle.net/2003/215232015-08-13T00:40:48Z2005-07-18T12:33:13ZTitle: Robustness concepts for sliced inverse regression
Authors: Genschel, Ulrike
Abstract: A typical difficulty with nonparametric regression with a large number of regressor variables is the so-called curse of dimensionality. That is, as the dimension of the regressor space increases, more data are needed to fill the space densely enough to accurately estimate an underlying regression function. As a remedy, various dimension reduction procedures, such as SIR, SIR II (Li, 1991), SAVE (Cook and Weisberg (1991), Cook (2000)), or MAVE (Xia et al. (2002)) have been proposed for identifying an appropriate, smaller subspace of the original regressor space before fitting an underlying regression function.
Because ultimately the estimation of a regression curve or link function relies crucially on the correct identification of the linear combinations that span the dimension reduction
subspace, robustness properties of a dimension reduction procedure become crucial to understand. That is, it is important to consider just how sensitive dimension reduction procedures and their subspace estimates are to data contamination.
The focus of this thesis is placed on a detailed investigation of the robustness properties of the dimension reduction procedure SIR (Li, (1991)). In particular, we emphasize on the finite sample behavior of the SIR procedure under data contamination, considering various types of contamination (i.e., directions of contamination) which may produce a “worst case” subspace estimate. We demonstrate that the data contamination scenarios that produce bad subspace estimates in SIR depend also on the covariance structure of the regressor variables as well as the dimension K of the final dimension reduction subspace.
We show that the type of data contamination that causes SIR to yield an erroneous subspace estimate can change depending on whether the covariance of the regressors is known or not.
Initial efforts to define a breakdown point concept for dimension reduction procedures in the finite sample case goes back to the dissertation of Hilker (1997) and involved canonical correlations as a “distance measure” between estimated and true regression
subspaces (cf. Hilker (1997); Becker (2001); Gather, Hilker and Becker (2002)). Hilker's work stipulated that breakdown occurs if one basis vector of an estimated subspace is orthogonal to the true subspace. However, this formulation of breakdown in dimension
reduction has some drawbacks. For one, it is arguably worse to estimate and select the entire orthogonal subspace of the true regression subspace of interest so that the previous concept of breakdown may not be adequate. Another problematic point is that
breakdown classically involves the use of an underlying metric in its definition, but canonical correlations as a measure of “closeness” between spaces do not constitute a metric.
The dissertation develops an alternative definition of breakdown in dimension reduction in the finite sample case and investigates an upper bound for the breakdown point in this situation. This formulation of breakdown uses an appropriate metric based on the Frobenius norm to measure the distance between subspaces and defines breakdown under data contamination when the distance between an estimated regression subspace and the true subspace is maximal under the metric. Because a subspace is characterized by its projection matrix, a suitable metric between spaces is possible through a matrix norm applied on the difference of two projection matrices. This gives a geometrically meaningful definition for the finite sample breakdown point of methods such as SIR.
This thesis also contains a simulation study used to numerically support our theoretical findings.; Ein bekanntes Phänomen bei der Schätzung nichtparametrischer Regressionsmodelle ist der sogenannte Fluch der Dimensionen. Dieser besagt, dass bei steigender Anzahl an Einflussvariablen, d.h. Dimension des Regressorraumes die benötigte Datenmenge für eine adequate Schätzung des zugrunde liegenden Modells exponentiell anwächst. Zur Umgehung dieser Problematik existieren dimensionsreduzierende Verfahren, die eine maßgebliche Reduktion der Dimension des Regressorraumes anstreben. Als Verfahren dieses Typs seien beispielsweise SIR, SIR II (Li, 1991), SAVE (Cook and Weisberg (1991), Cook (2000)), oder MAVE (Xia et al. (2002)) genannt, welche einen Unterraum, genannt e.d.r. Raum, des ursprünglichen Regressoraumes schätzen.
Eine korrekte Identifizierung dieses Unterraumes ist für die sich anschliessende Anpassung des Regressionsmodells konsequenterweise ausschlaggebend und Kentnisse über die Empfindlichkeit solcher dimensionsreduzierenden Verfahren gegenüber Kontamination der Daten sind daher von besonderem Interesse.
Die zentrale Fragestellung dieser Dissertation beschäftigt sich mit einer ausführlichen Analyse der Robustheitseigenschaften des dimensionsreduzierenden Verfahrens SIR (Li, 1991). Besonderer Augenmerk wird dabei auf das Verhalten des Verfahrens im endlichen Stichprobenfall unter Kontamination der Daten gelegt. Ziel der Arbeit ist es aufzuzeigen, welche Art von Datenkontamination eine sogenannte “worst case” Schätzung des e.d.r. Raumes verursacht. Dabei stellt sich heraus, dass für die Schätzung die Kentniss sowohl der Kovarianzstruktur des Regressorvektors, als auch der Dimension K des e.d.r. Raumes von Bedeutung ist.
Im Rahmen der Arbeit kann gezeigt werden, dass die Richtung, in welche eine Kontamination der Daten für das Erhalten einer „worst case“ Schätzung gelegt werden muss, entscheidend davon abhängt, ob die Kovarianzmatrix des Regressorvektors bekannt oder unbekannt ist.
Des Weiteren werden erste Ergebnisse zur geeigneten Definition des Bruchpunktverhaltens im endlichen Stichprobenfall aus der Dissertation von Hilker (1997) analysiert und auf den mehrdimensionalen Fall erweitert. Dabei hat sich herausgestellt, dass das von Hilker verwendete Distanzmaß der kanonischen Korrelation sowie die von ihm eingeführte Bruchpunktdefinition für die Erweiterung im mehrdimensionalen Fall nicht länger geeignet sind.
Eine alternative Bruchpunktdefinition für den endlichen Stichprobenfall wird daher vorgeschlagen, welche auf einer für Unterräume geeigeten Metrik basiert. Die in der Dissertation erzielten Ergebnisse werden durch eine Simulationsstudie gestützt.2005-07-18T12:33:13ZStatistische Extraktion relevanter Information aus multivariaten Online-Monitoring-Daten der IntensivmedizinLanius, Vivianhttp://hdl.handle.net/2003/201702015-08-13T02:34:54Z2005-02-09T00:00:00ZTitle: Statistische Extraktion relevanter Information aus multivariaten Online-Monitoring-Daten der Intensivmedizin
Authors: Lanius, Vivian
Abstract: In dieser Dissertation wird mit Hilfe multivariater statistischer Verfahren untersucht, wie im Online-Monitoring in der Intensivmedizin klinisch relevante Information aus Beobachtungen für Variablen des Herz-Kreislaufsystems extrahiert werden kann. Insbesondere ist eine Reduktion der erhobenen Daten auf wesentliche Informationen angestrebt. Zur Bearbeitung der Fragestellung werden zunächst dimensionsreduzierende Verfahren für multivariate Zeitreihen, wie Techniken der statischen und dynamischen Faktoranalyse bzw. Hauptkomponentenanalyse, herangezogen und hinsichtlich einer Anwendung im Intensivmonitoring diskutiert. Es wird gezeigt, dass sich die intensivmedizinischen Zeitreihen aufgrund von ausgeprägten strukturellen Mustern, wie Trends, spontanen Niveauänderungen und Ausreißern, global nicht durch ein einziges Modell beschreiben lassen. Faktoranalytische Ansätze sind nicht geeignet, da eine vernünftige Modellanpassung an die Daten nur lokal möglich ist und dabei meist sehr aufwendig ist. Für die Überwachung hochkomplexer physiologischer Vorgänge in Echtzeit werden möglichst einfache Methoden benötigt, die interpretierbare Rückschlüsse auf den Zustand der Patienten ermöglichen. Wenige gemeinsame statische Hauptkomponenten der hämodynamischen Beobachtungen erfassen bei einer guten Interpretierbarkeit einen größeren Anteil der Gesamtvarianz als eine subjektive Variablenselektion, enthalten jedoch nicht notwendigerweise kontinuierlich sämtliche klinisch relevante Information. Einen nützlichen Ansatz zur Informationsextraktion aus multivariaten hämodynamischen Zeitreihen bieten multivariate Signalextraktionsverfahren. In einem ersten Schritt werden hierbei glatte Signale, die die klinisch relevanten Strukturänderungen der Zeitreihen enthalten, von Beobachtungsrauschen und Artefakten getrennt. So werden die aufgezeichneten Monitor-Daten auf wesentliche Informationen reduziert. Aufgrund der diskreten Messung der klinischen Variablen ist eine lokale Anwendung von bekannten, affin äquivarianten und hochrobusten Regressionstechniken auf kleine Stichproben in jedem Zeitfenster im Online-Monitoring nicht möglich. Daher wird eine neue multivariate Signalextraktionsprozedur vorgeschlagen, die für die vorliegenden Daten eine praktikable Lösung darstellt. Die extrahierten Signale geben kontinuierlich Aufschluss über das lokale Niveau der betrachteten Vitalparameter, eine klinisch relevante Information. Zusätzlich können die in den Zeitreihen gefundenen lokalen Strukturen weiter genutzt werden, um schließlich mit Hilfe medizinischen Wissens Aussagen über den Zustand eines Intensivpatienten zu treffen.; This doctoral thesis is concerned with online monitoring data from intensive care medicine. The problem under investigation is the extraction of clinically relevant information from haemodynamic vital parameters by means of multivariate statistical methods. First, statistical methods for dimension reduction of multivariate time series, such as static and dynamic factor analysis or principal components analysis, are used. These are discussed with respect to application in intensive care monitoring. Time series in intensive care are found to show strong patterns, like periods of relative constancy, monotonic trends, abrupt level shifts and many measurement artefacts. Thus, global modelling of the data with time-invariant models or parameters is not feasible. Local modelling of the data by dynamic factor models is a complex task that involves a large number of unknown parameters. However, online monitoring of highly complex physiologic processes requires relatively simple methods that allow to draw interpretable conclusions about a patient's health state. Only a few common static principal components are required in order to explain the largest amount of total variability for the haemodynamic observations. Compared to a subjective variable selection these components give a better description of the data while being interpretable to the physician. A drawback is that, locally, these principal components do not necessarily contain all clinically relevant information. A useful approach for the extraction of relevant information from haemodynamic time series is given by methods of multivariate signal extraction. Here, smooth signals that contain the clinically relevant structure are separated from observational noise and artefacts. Thus, the recorded monitoring data are reduced to the relevant information. Robust multivariate regression functionals are needed for local trend approximation in a short moving time window. As the vital parameters are measured on a discrete scale with many patterns of relative constancy, local application of known, affine equivariant and highly robust techniques of regression on small samples is not possible. Therefore, a new procedure is proposed that offers a fast, highly robust and reliable solution for multivariate online signal extraction in intensive care. The resulting signals continuously present the local level of the vital parameters. Additionally, the local patterns found in the time series can be used to decide on the patient's health state by means of clinical knowledge.2005-02-09T00:00:00ZEmpirische Risiko-Minimierung für dynamische DatenstrukturenFender, Thomashttp://hdl.handle.net/2003/27882015-08-13T00:07:00Z2004-09-29T00:00:00ZTitle: Empirische Risiko-Minimierung für dynamische Datenstrukturen
Authors: Fender, Thomas
Abstract: Strukturen in Datensätzen sollen häufig durch einen funktionalen Zusammenhang dargestellt werden. Die Grundlage zur bestmöglichen Anpassung einer Funktion an die vorliegende Datenstruktur bezüglich eines geeignet gewählten Maßes ist in der Regel die Minimierung eines erwarteten Verlusts, des Risikos. Bei unbekannter Verteilung ist das empirische Risiko ein nahe liegender Ersatz. Bei unabhängig identisch verteilten Beobachtungen und nur geringen Voraussetzungen hat dieses empirische Risikominimierungsverfahren (ERM-Prinzip) gute Konsistenzeigenschaften. Die Theorie ist zusammen mit der darauf aufbauenden strukturellen Risiko-Minimierung die Grundlage für verschiedene Methoden der statistischen Lerntheorie, wie z.B. Support Vector Machines (SVM). Auf Grund der limitierenden Voraussetzungen des ERM-Prinzips ist es nicht zulässig, die SVM auf Daten mit Abhängigkeitsstrukturen anzuwenden. Die Analyse dynamischer, meist zeitlicher Strukturen nimmt aber einen immer größeren Platz in der modernen Datenanalyse ein, so dass eine Anwendung des Prinzips der empirischen Risiko-Minimierung auf solche Daten wünschenswert ist. Dazu muss die Theorie so erweitert werden, dass die Dynamik in den Daten als stochastischer Prozess auf den Fehlerterm innerhalb der Daten wirkt. In der vorliegenden Arbeit kann dafür die Konsistenz der empirischen Risiko-Minimierung durch Ausnutzen von Konsistenzsätzen der Martingal- und vor allem der Mixingal-Theorie nachgewiesen werden. Dadurch sind zahlreiche unterschiedliche Annahmen an die Abhängigkeitsstruktur in den Fehlern möglich. Zusätzlich ist für die Anwendung des ERM-Prinzips bei der Entwicklung von geeigneten Algorithmen eine exponentielle Konvergenzrate von entscheidender Bedeutung. Für Martingal- und auch Mixingal-Strukturen in den Daten können geeignete exponentielle Schranken nachgewiesen werden, die eine schnelle Konvergenz sicherstellen.Die empirische Risiko-Minimierung bildet somit auch bei Mixingal- und Martingal-Strukturen ein allgemeingültiges Prinzip. Damit kann der konzeptionell theoretische Teil der statistischen Lerntheorie nach Vapnik auch für dynamische Datenstrukturen genutzt werden.; We consider the task of finding a functional relationship in a set of data. Given an appropriate set of functions to choose from, this leads to the minimization of an expected loss, i.e. a risk, with respect to a suitable measure. In the case when the underlying probability distribution is unknown the empirical risk is an obvious estimator that can be employed for the minimization problem. This empirical risk minimization principle (ERM-principle) has good consistency properties in the case of independent and identically distributed observations. The theory together with the Structural Risk Minimization, which based on it, is the basis for different methods in the context of statistical learning theory, like Support Vector Machines (SVM).The limiting assumptions of the ERM-principle do not permit an application of the SVM on data with dependence structures. However, the analysis of dynamical, usually temporal structures becomes more and more important in modern data analysis and an application of empirical risk minimization to data of this kind is desirable. The extension of this principle for cases of time dependent data has to include the modeled dynamic structure in the data. Thereby the dynamics are not represented directly, but by modeling the errors in the data as a dynamical stochastic process. The proof of the consistency of the ERM-principle under these more general assumptions is given using consistency theorems for Martingales and Mixingales as well, such that different temporal structures in the errors are possible. In addition, an exponential convergence rate is of crucial importance for the application of the ERM-Principle and for the development of appropriate algorithms. Suitable exponential bounds are proven for Martingale and Mixingale structures as well, which guarantee fast convergence.Thus, empirical risk minimization constitutes a general principle with Mixingale or Martingale structures in the data and the conceptional theoretical part of the statistical learning theory can be used with independent data as well as with dynamical structures.2004-09-29T00:00:00ZRobustheitskonzepte und -untersuchungen für Schätzer konvexer KörperScholz, Sebastian Parishttp://hdl.handle.net/2003/27872015-08-13T00:05:21Z2003-01-17T00:00:00ZTitle: Robustheitskonzepte und -untersuchungen für Schätzer konvexer Körper
Authors: Scholz, Sebastian Paris
Abstract: In dieser Arbeit werden Schätzer für konvexe Körper auf ihr Bruchpunktverhalten untersucht, sowie Schätzer für konvexe Körper vorgeschlagen, die einen hohen Bruchpunkt aufweisen. Der finitesample Bruchpunkt für den Schätzer eines beliebigen Parameters gibt den kleinsten Anteil von Beobachtungen einer Stichprobe an, die ausgetauscht werdenmüssen, bevor dieser Schätzer 'zusammenbricht'. Der Zusammenbruch wird dabei basierend auf einer geeigneten Me trik auf dem Parameterraum definiert. In der hier betrachteten Situation sind die zu schätzenden Parameter der Verteilung konvexe Körper. Eine geeignete Metrik für konvexe Körper ist der Hausdorff Abstand. Entsprechend bricht ein Schätzer für einen konvexen Körper zusammen, wenn der Hausdorff Abstand zwischen den Schätzungen dieses konvexenKörpers basierend auf der regulären und der kontaminierten Stichprobe beliebig groß wird. Andererseits sollte ebenfalls von einem Zusammenbruch dieses Schätzers gesprochen werden, wenn er zu einem niedrigerdimensionalen Gebilde degeneriert. Dies geschieht, falls der Hausdorff Abstand zwischen denSchätzungen für die Polarmenge des konvexen Körpers basierend auf der regulären und der kontaminierten Stichprobe beliebig groß wird. Die in dieser Arbeit vorgestellte Definition betrachtet beide Arten des Zusammenbruchs und erlaubt somit die Untersuchung vorhandener Schätzer konvexer Körper bzgl. ihres Bruchpunktverhaltens. Beispiele konvexer Körper sind Liftzonoide und Zonoide von Verteilungen. Diese konvexenKörper weisen die Besonderheit auf, dass sie dem Erwartungswert eines zufälligen konvexen Körper ent sprechen. Sie können somit als Parameter einer Verteilung interpretiert werden. Liftzonoide erlauben zudem die eineindeutige Beschreibung einer Verteilung. Die bisherige Schätzung von Liftzonoiden bzw. Zonoiden basiert auf Polytopen, d.h. konvexen Hüllen einer endlichen Punktmenge. Es zeigt sich, dass bei dieser Art der Schätzung schon eine einzelne Beobachtung ausreicht, um die Schätzung im Sinne der vorgestellten Bruchpunktdefinition zusammen brechen zu lassen. Weiterhin werden zwei Arten von KonturToleranzbereichen vorgestellt. Die so genannten MahalanobisBereiche werden durch den Erwartungswert und der Kovarianz der zugrunde liegenden Verteilung eineindeutig bestimmt. Eine Schätzung dieser konvexen Körper ergibt sich basierend auf der Schätzung der entsprechenden Momente. Da es eine eineindeutige Zuordnung zwischen den ersten beiden Momenten der Verteilung und den MahalanobisBereichen gibt, wird das Bruchpunktverhalten der Schätzung dieses konvexenKörpers durch das Bruchpunktverhalten der Lokations und Kovarianzschätzer bestimmt. Des Weiteren wird ein KonturToleranzbereich eingeführt, der eng mit Liftzonoiden verbunden ist, die so genannten zonoiden Zonen. Auch hier 1 zeigt sich, dass die Schätzung der zonoiden Zonen gegenüber Ausreißern sehr anfällig ist, da schon eine einzelne Beobachtung ausreicht, um die Schätzung im Sinneder vorgeschlagenen Bruchpunktdefinition zusammen brechenzu lassen. Da keiner der betrachteten Schätzer die obere Bruchpunktschranke innerhalb seiner Schätzerklasse annimmt, werden vorhandene Schätzer konvexer Körper soweit modifiziert, dass sie den größten Bruchpunkt aufweisen. Dazu wird aus einer gegebenen Stichprobe eine geeignete Teilstichprobe bestimmt, die unter allen zulässigen Teilstichproben ein festgelegtes Variabilitätsmaß minimiert. Die so erhaltene Teilstichprobe wird zur Schätzung der interessierenden konvexen Körper verwendet. Dieses Prinzip ist anwendbar auf Schätzer, die auf Polytopen basieren. Die so erhaltenen Schätzer nehmen die obere Bruchpunktschranke innerhalb ihrer Schätzerklassen an. In dieser Arbeit wird außerdem ein weiteres Kriterium vorgeschlagen, welches auf dem Volumen des geschätzen Zonoids basiert (MZEKriterium). Dieses Volumen kann als Variabilitätsmaß aufgefasst werden. Wird ein konvexer Körper basierend auf derjenigen Stichprobe geschätzt, die das MZEKriterium minimiert, so weist auch dieser Schätzer den größten Bruchpunkt innerhalb seinerSchätzerklasse auf. Weiterhin wird das MZEKriterium zur Definition von Lokations bzw. Kovarianzschätzer benutzt.Die resultierenden Schätzer sind affin äquivariant undnehmen die oberen BruchpunktSchranken innerhalb ihrerSchätzerklassen an.; As notion for robustness, a finite sample breakdown point definition for estimators of convex bodies is presented by using ideas from convex geometry. The estimation of a convex body arises in variety of contexts, ranging confidence ellipsoids to the estimation of depth contours that emerge naturally out of the concept of data depth. It is frequently mentioned that the estimation of these convex bodies can be heavily influenced by outliers in the dataset. On the one hand, outliers may cause the estimated convex body to grow beyond any measure (explosion); on the other hand, the estimator may degenerate to a lower dimensional shape (implosion). Until now there has not existed a notion describing these e#ects appropriately. A new breakdown point definition is proposed. Based on the Hausdor#metric, this definition simultaneously takes into account the explosion and implosion of a convex body estimator. The proposed definition is appropriate to calculate the breakdown point of location and scale estimators as well. The breakdown points for several convex body estimators are calculated, such as contour of depth estimators and polytopebased estimators. It turns out that for many estimators only one bad observation can cause breakdown. To attain estimators of convex bodies with high breakdown point, new estimators are introduced based on a new half sample criterion (Minimum Zonoid Estimation Criterion (MZECriterion)). The criterion seeks the subsample that minimizes the volume of the estimated zonoid. This subsample is used to estimate the convex body. New multivariate a#ne equivariant location and scatter estimators are also introduced by using this MZEcriterion. These estimators attain the highest possible breakdown point for location and scatter estimators2003-01-17T00:00:00ZOn the estimation of smooth autoregressive parameter fields with applications in ophthalmologyKrahnke, Tillmannhttp://hdl.handle.net/2003/27862015-08-13T00:05:13Z2002-03-07T00:00:00ZTitle: On the estimation of smooth autoregressive parameter fields with applications in ophthalmology
Authors: Krahnke, Tillmann
Abstract: The focus of this doctoral thesis is on the analysis of data obtained from the multifocal ERG. An exploratory analysis of the data available is presented in Chapter 2. It is demonstrated that the data carry both spatial as well as temporal information. Therefore, a combination of techniques both from spatial statistics and time series analysis should be used to more adequately describe multifocal ERG data within a statistical framework.Ordinary least squares estimates for parameters from autoregressive time series models are the starting point. They are introduced in Chapter 3. It is seen there that a purely temporal analysis only partly describes the dynamics in the multifocal ERG data sets at hand, and that the spatial layout of the data should be accounted for explicitly.Chapter 4 therefore provides a spatial analysis of the data. Spatial smoothing is performed to remove noise inherent in the resulting estimators. The techniques of Kriging and SplineSmoothing are two candidates under study. They are introduced in Chapters 4 and 5, respectively. Applications to multifocal ERG data are added at the end of each of thesechapters, and arguments are given why modifications are desirable.A modified smoothing approach referred to as smoothing of AR-parameter fields is described in Chapter 6. It makes use of a fitting criterion that accounts both for spatial smoothness of the autoregressive parameter estimates as well as a satisfactory temporal fit to the observed data. It will be seen that the smoothed parameter estimates are well interpretable, while giving rise to only a small increase in the overall sum of squares for fit. Chapter 7 summarizes these results and gives some suggestions for future research. Empirical results obtained for the available data sets are combined in the appendix and complement the examples already described in the foregoing text.; Die vorgelegte Arbeit befasst sich mit der statistischen Analyse zeitlich-räumlicher Daten aus dem Bereich der Augenheilkunde. Zur näheren Untersuchung der sog. altersabhängigen Makula-Degeneration (AMD), einer Gruppe von Erkrankungen der Netzhaut, wurden mit Hilfe des sogenannten multifokalen Elektroretinogramms an der Augenklinik der Universität Essen Daten gesammelt, die die elektrophysiologische Reaktion der auf der Retina befindlichen Rezeptoren auf optische Reize widerspiegeln. Die dabei gewonnen Daten können als zeitlich-räumliche Datensätze betrachtet werden, die auf einem auf die Retina projezierten Gitter von 103 Teilflächen erhoben werden. Jeder Teilfläche ist dabei eine Zeitreihe der Länge 122 msec zuordnenbar. Vier derartiger Datensätze standen für eine Analyse zur Verfügung. Eigentliches Ziel der Essener Studie ist die nähere Charakterisierung der elektrophysiologischen Response bei verschiedenen Ausprägungen der AMD. Dies soll zu einer verbesserten Diagnose führen. Die vorliegenden Datensätze bieten einen ersten Einstieg zu dem Versuch, die zu beobachtenden Dynamiken statistisch näher zu beschreiben. Eine erste explorative Analyse bestätigte die Erfahrung aus der Medizin, dass sich sowohl räumliche als auch zeitliche Strukturen in den Daten erkennen lassen. Diese werden in der aktuellen medizinischen Literatur jedoch vorwiegend deskriptiv analysiert. Dabei werden in aller Regel nicht die gesamten zur Verfügung stehenden Daten verwendet, sondern lediglich abgeleitete Statistiken, wie etwa Amplituden, betrachtet. Dies führt zu einem Verlust an Informationen, der vermieden werden sollte.In dem Bestreben, die in der Praxis verwendeten Analysetechniken aus statistischer Sicht zu verbessern, wurden zunächst bekannte Verfahren der Zeitreihenanalyse und der räumlichen Statistik betrachtet. Speziell wurden autoregressive (AR) Modelle sowie Kriging-Verfahren verwendet. Während erstere eine kompakte Parametrisierung der zeitlichen Dynamiken durch wenige Parameter erlauben, führen Kriging-Verfahren zu optimalen räumlichen Prognosen. Jedoch sind dabei die Modellierung der räumlichen Kovarianzstruktur sowie Kenntnisse über die Grundstruktur des zugrundeliegenden räumlichen Trends erforderlich. Da letztere in der Regel nicht im vorhinein vorhanden sind, wurden Thin Plate Spline-Verfahren als Alternative betrachtet. Diese Verfahren entsprechen unter gewissen Modellannahmen dem Kriging, eignen sich aber besser zur Schätzung glatter lokaler Trendstrukturen. Die Spline-Schätzer lassen sich dabei über einen Kleinste-Quadrate-Ansatz mit integriertem Strafterm ableiten, in welchem die Glätte der geschätzten Trendfläche über Bedingungen an deren Ableitungen beeinflusst wird.Der in dieser Arbeit vorgestellte neue Ansatz besteht nun in einer direkten Verknüpfung von Techniken der Zeitreihenanalyse mit denen der Schätzung räumlicher Trends durch Splines. Um eine kompakte und zugleich gut interpretierbare Charakterisierung der in einem Datensatz zu beobachtenden Dynamiken zu erreichen, erfolgt eine Glättung nicht im Beobachtungsraum selbst. Stattdessen werden die abgeleiteten AR-Parameter, welche räumlich zu Parameterfeldern anordnenbar sind, selbst geglättet. Um dabei die eigentlichen Beobachtungen nicht außer acht zu lassen, wird als Kriterium zur optimalen Schätzung eine zeitlich-räumliche Quadratsumme mit entsprechendem Strafterm für die Glattheit der AR-Parameter eingeführt. Ausgangspunkt sind dabei die lokal (d.h. für jede einzelne Zeitreihe) geschätzten Kleinste-Quadrate-Schätzer der AR-Parameter, da diese per constructionem die optimale Anpassung an die Daten liefern. Im Ergebnis erhält man Schätzer mit optimaler Anpassung an die Daten, bei gleichzeitig vorgegebener Glattheit der geschätzten Parameterfelder. Eine geschlossen Darstellung der so geglätteten Schätzer kann angegeben werden. Ausdrücke für die Differenz des neuen Schätzers zum ursprünglichen Kleinste-Quadrate-Schätzer, sowie zu dem aus einer einfachen Glättung der AR-Parameter (ohne Berücksichtigung der zeitlichen Anpassung) abgeleiteten Schätzer werden angegeben. Ebenso lässt sich die Veränderung in der Summe der quadrierten Residuen geschlossen darstellen.Bei der Glättung mit Splines ist die Auswahl von besonderen Glättungsparametern notwendig. Neben der expliziten Auswahl durch den Datenanalysten lässt sich dieser Parameter auch automatisch mit Hilfe der Verallgemeinerten Kreuzvalidierung bestimmen. Dieser Ansatz wurde auf den neu eingeführten Schätzer übertragen und auf die vier Datensätze angewandt. Es zeigte sich dabei, dass die resultierende kreuzvalidierte Schätzung der AR-Parameter numerisch sehr aufwendig zu berechnen und zugleich bisweilen unbefriedigend ist, da u.U. sehr stark geglättet wird. Dies ist insbesondere dann der Fall, wenn die AR-Parameter aus der zugrundeliegenden Kleinste-Quadrate-Schätzung kaum räumlich variieren und stattdessen eine starke Variabilität im Verhältnis zu eventuellen Trendstrukturen zeigen. Eine direkte Auswahl der Glättungs-parameter erscheint in solchen Fällen möglicherweise eher angezeigt. Gute Ergebnisse ließen sich jedoch dann erzielen, wenn grobe Strukturen bereits in den räumlich angeordneten Kleinste-Quadrate-Schätzeren zu erkennen waren. Diese traten nach der Glättung durch Kreuzvalidierung umso deutlicher hervor.2002-03-07T00:00:00ZBruchpunkt und Bias zur Beurteilung multivariater AusreißeridentifizierungBecker, Claudiahttp://hdl.handle.net/2003/27852015-08-12T17:12:37Z1998-02-11T00:00:00ZTitle: Bruchpunkt und Bias zur Beurteilung multivariater Ausreißeridentifizierung
Authors: Becker, Claudia1998-02-11T00:00:00Z