Institut für Wirtschafts- und Sozialstatistik

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 20 of 33
  • Item
    Semiparametric estimation of INAR models using roughness penalization
    (2022-09-21) Faymonville, Maxime; Jentsch, Carsten; Weiß, Christian H.; Aleksandrov, Boris
    Popular models for time series of count data are integer-valued autoregressive (INAR) models, for which the literature mainly deals with parametric estimation. In this regard, a semiparametric estimation approach is a remarkable exception which allows for estimation of the INAR models without any parametric assumption on the innovation distribution. However, for small sample sizes, the estimation performance of this semiparametric estimation approach may be inferior. Therefore, to improve the estimation accuracy, we propose a penalized version of the semiparametric estimation approach, which exploits the fact that the innovation distribution is often considered to be smooth, i.e. two consecutive entries of the PMF differ only slightly from each other. This is the case, for example, in the frequently used INAR models with Poisson, negative binomially or geometrically distributed innovations. For the data-driven selection of the penalization parameter, we propose two algorithms and evaluate their performance. In Monte Carlo simulations, we illustrate the superiority of the proposed penalized estimation approach and argue that a combination of penalized and unpenalized estimation approaches results in overall best INAR model fits.
  • Item
    Statistical inference for the reserve risk
    (2023) Steinmetz, Julia; Jentsch, Carsten; Zähle, Henryk; Pauly, Markus
    The major part of the liability of an insurance company's balance belongs to the reserves. Reserves are built to pay for all future, known or unknown, claims that happened so far. Hence an accurate prediction of the outstanding claims to determine the reserve is important. For non-life insurance companies, Mack (1993) proposed a distribution-free approach to calculate the first two moments of the reserve. In this cumulative dissertation, we derive first asymptotic theory for the unconditional and conditional limit distribution of the reserve risk. Therefore, we enhance the assumptions from Mack's model and derive a fully stochastic framework. The distribution of the reserve risk can be split up into two additive random parts covering the process and parameter uncertainty. The process uncertainty part dominates asymptotically and is in general non-Gaussian distributed unconditional and conditional on the whole observed loss triangle or the last observed diagonal of the loss triangle. In contrast, the parameter uncertainty part is measurable with respect to the whole observed upper loss triangle. Properly inflated, the parameter uncertainty part is Gaussian distributed conditional on the last observed diagonal of the loss triangle, and unconditional, it leads to a non-Gaussian distribution. Hence, the parameter uncertainty part is asymptotically negligible. In total, the reserve risk has asymptotically the same distribution as the process uncertainty part since this part dominates asymptotically leading to a non-Gaussian distribution conditional and unconditional. Using the theoretical asymptotic distribution results regarding the distribution of the reserve risk, we can now establish bootstrap consistency results, where the derived distribution of the reserve risk serves as a benchmark. Splitting the reserve risk into two additive parts enables a rigorous investigation of the validity of the Mack bootstrap. If the parametric family of distributions of the individual development factors is correctly specified, we prove that the (conditional) distribution of the asymptotically dominating process uncertainty part is correctly mimicked by the proposed Mack bootstrap approach. On the contrary, the corresponding (conditional) distribution of the estimation uncertainty part is generally not correctly captured by the Mack bootstrap. To address this issue, we propose an alternative Mack bootstrap, which uses a different centering and is designed to capture also the distribution of the estimation uncertainty part correctly.
  • Item
    Reliability evaluation and an update algorithm for the latent Dirichlet allocation
    (2022-07) Rieger, Jonas; Jentsch, Carsten; Rahnenführer, Jörg
    Modeling text data is becoming increasingly popular. Topic models and in particular the latent Dirichlet allocation (LDA) represent a large field in text data analysis. In this context, the problem exists that running LDA repeatedly on the same data yields different results. This lack of reliability can be improved by repeated modeling and a reasonable choice of a representative. Further, updating existing LDA models with new data is another common challenge. Many dynamic models, when adding new data, also update parameters of past time points, thus do not ensure the temporal consistency of the results. In this cumulative dissertation, I summarize in particular my methodological papers from the two areas of improving the reliability of LDA results and updating LDA results in a temporally consistent manner for use in monitoring scenarios. For this purpose, I first introduce the state of research for each of the two areas. After explaining the idea of the corresponding method, I give examples of applications in which the method has already been used and explain the implementation as an R package. Finally, for both fields I provide an outlook on potential further research.
  • Item
    Forecasting US inflation using Markov dimension switching
    (2020-08-08) Prüser, Jan
    This study considers Bayesian variable selection in the Phillips curve context by using the Bernoulli approach of Korobilis (Journal of Applied Econometrics, 2013, 28(2), 204–230). The Bernoulli model, however, is unable to account for model change over time, which is important if the set of relevant predictors changes. To tackle this problem, this paper extends the Bernoulli model by introducing a novel modeling approach called Markov dimension switching (MDS). MDS allows the set of predictors to change over time. It turns out that only a small set of predictors is relevant and that the relevant predictors exhibit a sizable degree of time variation for which the Bernoulli approach is not able to account, stressing the importance and benefit of the MDS approach. In addition, this paper provides empirical evidence that allowing for changing predictors over time is crucial for forecasting inflation.
  • Item
    Statistik im Sozialismus
    (2021-06-18) Krämer, Walter; Leciejewski, Klaus
    Dieser Beitrag dokumentiert eine Tendenz totalitärer Gesellschaftssysteme, die Statistik und insbesondere Daten der Amtsstatistik als Stütze von Ideologien zu missbrauchen. Dieser Missbrauch wird oft durch westliche Medien unterstützt, die allzu blauäugig auf dergleichen Lügen hereinfallen. Hier versprechen das Internet und die leichte Verfügbarkeit von Massendaten aller Art, ein mögliches Gegengewicht zu werden. We establish a tendency in totalitarian regimes to use official statistical data for propaganda purposes. This is facilitated by an equally obvious tendency among western media to take such figures at face value. However, the big data revolution promises easy checks of such false claims and might help impeding such abuses.
  • Item
    Generalized binary vector autoregressive processes
    (2021-07-28) Jentsch, Carsten; Reichmann, Lena
    Vector-valued extensions of univariate generalized binary auto-regressive (gbAR) processes are proposed that enable the joint modeling of serial and cross-sectional dependence of multi-variate binary data. The resulting class of generalized binary vector auto-regressive (gbVAR) models is parsimonious, nicely interpretable and allows also to model negative dependence. We provide stationarity conditions and derive moving-average-type representations that allow to prove geometric mixing properties. Furthermore, we derive general stochastic properties of gbVAR processes, including formulae for transition probabilities. In particular, classical Yule–Walker equations hold that facilitate parameter estimation in gbVAR models. In simulations, we investigate the estimation performance, and for illustration, we apply gbVAR models to particulate matter (PM10, ‘fine dust’) alarm data observed at six monitoring stations in Stuttgart, Germany.
  • Item
    On the time-varying effects of economic policy uncertainty on the US economy
    (2020-09-11) Prüser, Jan; Schlösser, Alexander
    We study the impact of Economic Policy Uncertainty (EPU) on the US Economy by using a VAR with time‐varying coefficients. The coefficients are allowed to evolve gradually over time which allows us to discover structural changes without imposing them a priori. We find three different regimes, which match the three major periods of the US economy, namely the Great Inflation, the Great Moderation and the Great Recession. The initial impact on real GDP ranges between −0.2% for the Great Inflation and Great Recession and −0.15% for the Great Moderation. In addition, the adverse effects of EPU are more persistent during the Great Recession providing an explanation for the slow recovery. This regime dependence is unique for EPU as the macroeconomic consequences of Financial Uncertainty turn out to be rather time invariant.
  • Item
    Generalized binary time series models
    (2019-12-14) Jentsch, Carsten; Reichmann, Lena
    The serial dependence of categorical data is commonly described using Markovian models. Such models are very flexible, but they can suffer from a huge number of parameters if the state space or the model order becomes large. To address the problem of a large number of model parameters, the class of (new) discrete autoregressive moving-average (NDARMA) models has been proposed as a parsimonious alternative to Markov models. However, NDARMA models do not allow any negative model parameters, which might be a severe drawback in practical applications. In particular, this model class cannot capture any negative serial correlation. For the special case of binary data, we propose an extension of the NDARMA model class that allows for negative model parameters, and, hence, autocorrelations leading to the considerably larger and more flexible model class of generalized binary ARMA (gbARMA) processes. We provide stationary conditions, give the stationary solution, and derive stochastic properties of gbARMA processes. For the purely autoregressive case, classical Yule–Walker equations hold that facilitate parameter estimation of gbAR models. Yule–Walker type equations are also derived for gbARMA processes.
  • Item
    Identifizierung und Modellierung von räumlichen Abhängigkeiten mit Anwendung auf deterministische und probabilistische Windvorhersagen
    (2019) Hüsch, Marc; Krämer, Walter; Ligges, Uwe
    Die Dissertation beschäftigt sich mit statistischen Verfahren zur Identifizierung und Modellierung von räumlichen Abhängigkeitsstrukturen. Der Anwendungsfokus liegt dabei auf deterministischen und probabilistischen Windgeschwindigkeits- bzw. Windleistungsvorhersagen. Im ersten Teil der Dissertation wird untersucht, wie sich die räumliche Abhängigkeitsstruktur von deterministischen Windleistungsvorhersagefehlern im europäischen Festland für unterschiedliche Vorhersagehorizonte und verschiedene geographische Gegebenheiten unterscheidet. Aufgrund der hohen räumlichen und zeitlichen Auflösung der zugrundeliegenden Daten müssen die verwendeten statistischen Verfahren dabei sehr effizient sein. Für eine erste Analyse der räumlichen Abhängigkeitsstrukturen wird deshalb ein eigens entwickeltes, korrelationsbasiertes Clusteringverfahren für räumlich-zeitliche Datensätze verwendet. Es stellt sich heraus, dass räumliche Korrelationsstrukturen insbesondere für längere Vorhersagehorizonte ausgeprägt sind und außerdem vor allem in flachen, windreichen Regionen auftreten. Für eine noch detailliertere Analyse der räumlichen Abhängigkeitsstruktur wird zudem ein Ansatz basierend auf Copulas und Generalisierten Additiven Modellen vorgeschlagen. Mit dem Verfahren zeigt sich, dass auch sehr große Vorhersagefehler häufig gemeinsam in einem räumlichen Kontext auftreten. Speziell in diesen Situationen können hohe aggregierte Vorhersagefehler resultieren, die für Energiemarkt-teilnehmer und Übertragungsnetzbetreiber ein erhöhtes Risiko darstellen. Um die Vorhersageunsicherheit bereits im Vorfeld besser abschätzen zu können, wird in der Praxis daher häufig auf probabilistische Vorhersagen bzw. meteorologische Ensemble-Vorhersagen zurückgegriffen. Hier stellt sich die Frage, wie die Qualität von verschiedenen probabilistischen Vorhersagen für mehrere Standorte unter Berücksichtigung von räumlichen Abhängigkeitsstrukturen sinnvoll bewertet werden kann. Unter Verwendung von gängigen multivariaten Bewertungsregeln werden im abschließenden Teil der Dissertation verschiedene Schwierigkeiten aufgezeigt, die bei einem Vergleich der Qualität von multivariaten probabilistischen Vorhersagen auftreten können. Mit Hilfe einer empirischen Analyse und einer Sensitivitätsanalyse wird verdeutlicht, dass fehlspezifizierte räumliche Abhängigkeitsstrukturen von den Bewertungsregeln zum Teil nur aufgrund von unterschiedlichen Vorhersagestrukturen nicht korrekt identifiziert werden.
  • Item
    Optimale Versuchsplanung für Model-Averaging Schätzer
    (2019) Alhorn, Kira; Krämer, Walter; Dette, Holger; Müller, Christine
    Durch eine optimale Planung von Versuchen kann statistische Unsicherheit verringert werden, etwa durch die Minimierung der Varianz eines Schätzers. Hierbei wird meist jedoch angenommen, dass das Modell, das den funktionalen Zusammenhang zwischen den Einflussgrößen und dem Versuchsergebnis beschreibt, bekannt ist. Wir betrachten in dieser Arbeit den Fall, dass lediglich eine Klasse möglicher Kandidatenmodelle vorliegt, welche diesen Zusammenhang beschreiben können. Wir schlagen neue Versuchsplanungskriterien zur Schätzung eines Zielparameters vor, welche diese Unsicherheit bezüglich des wahren Modells berücksichtigen. Dazu betrachten wir Model-Averaging Schätzer, welche ein gewichtetes Mittel der Schätzer in den einzelnen Kandidatenmodellen sind. Dabei gehen wir davon aus, dass die Gewichte zur Berechnung des Model-Averaging Schätzers fest sind. Model-Averaging Schätzer sind im Allgemeinen nicht unverzerrt, sodass ein optimaler Versuchsplan den mittleren quadratischen Fehler eines solchen minimiert. Zunächst betrachten wir Kandidatenmodelle, welche der Annahme der sogenannten lokalen Alternativen genügen. Diese Modelle sind jeweils verschachtelt und es ergeben sich handliche Ausdrücke für den asymptotischen mittleren quadratischen Fehler des Model-Averaging Schätzers. Wir bestimmen lokal und Bayes-optimale Versuchspläne zur Model-Averaging Schätzung eines Zielparameters und leiten notwendige Bedingungen für die Optimalität numerisch bestimmter Versuchspläne her. Die Ergebnisse werden anhand verschiedener Beispiele illustriert und wir zeigen mittels Simulationen, dass die Bayes-optimalen Versuchspläne den mittleren quadratischen Fehler des Model-Averaging Schätzers im Vergleich zu anderen Versuchsplänen um bis zu 45% reduzieren können. Wir schlagen zudem eine adaptive Vorgehensweise vor, bei der die Model-Averaging Gewichte basierend auf Ergebnissen aus vorherigen Versuchen bestimmt werden. Im Weiteren verzichten wir auf die Annahme lokaler Alternativen und leiten die asymptotische Verteilung von Model-Averaging Schätzern für nicht-verschachtelte Modelle her. Dabei muss das wahre Modell nicht unter den Kandidatenmodellen sein. Wir illustrieren die theoretischen Resultate anhand von Simulationen und bestimmen anschließend lokal und Bayes-optimale Versuchspläne zur Model-Averaging Schätzung eines Zielparameters, welche den asymptotischen mittleren quadratischen Fehler des Schätzers minimieren. Wir zeigen anhand von Beispielen, dass diese Versuchspläne die Präzision von Model-Averaging Schätzern deutlich erhöhen können. Zusätzlich verbessern diese Versuchspläne auch Schätzer nach Modellselektion, sowie Model-Averaging Schätzer mit zufälligen Gewichten. Zudem bestimmen wir erneut adaptive Versuchspläne, welche in verschiedenen Schritten die Model-Averaging Gewichte aktualisieren.
  • Item
    Sequenzielle Erkennung von Strukturbrüchen in der Varianzstruktur von multivariaten Zeitreihen
    (2017) Pape, Katharina; Wied, Dominik; Krämer, Walter
    In dieser Arbeit werden zwei sequenzielle Verfahren zur Detektion von Strukturbrüchen in den Varianzen von Zufallsvektoren vorgestellt. Um Referenzwerte zu erhalten, nutzen beide Verfahren die Information aus einer historischen Stichprobe, die als frei von Strukturbrüchen angenommen wird und die schon zu Beginn der eigentlichen Überwachungsphase vorliegt. Die Referenzwerte können mit Schätzwerten verglichen werden, die auf dem stückweise anwachsenden Datensatz des Überwachungszeitraums beruhen. Somit basieren die Detektorwerte auf der Information des historischen Zeitraums und werden für jeden Zeitpunkt des Überwachungszeitraums mit Hilfe der neu hinzugewonnenen Information aktualisiert. Anschließend können die Detektorwerte mit einer passend skalierten Grenzfunktion verglichen werden, wobei ein Überschreiten der Grenzfunktion durch die Detektorwerte das Vorliegen eines Strukturbruchs in der jeweils betrachteten Größe anzeigt. Das erste Verfahren ist ein nichtparametrischer Strukturbruchtest, dessen Detektor auf den Differenzen von Varianzschätzern aus der historischen Stichprobe und aus den Daten des Überwachungszeitraums basiert. Unter der Nullhypothese, dass sich der Vektor der Varianzen während des gesamten Überwachungszeitraums nicht ändert, ist davon auszugehen, dass sich aus den Daten des Überwachungszeitraums bestimmte Varianzschätzer nur geringfügig von aus der historischen Stichprobe ermittelten Schätzwerten unterscheiden. Starke Fluktuationen hingegen, wie sie durch sehr unterschiedliche Schätzwerte hervorgerufen werden, sprechen für das Vorliegen eines Strukturbruchs in der betrachteten Zeitreihe. Das zweite Verfahren ist ein parametrischer Test auf eine Änderung des Parametervektors im multivariaten GARCH-Modell mit dynamischer bedingter Korrelation (DCC-Modell) von Engle. Strukturbrüche in den Modellparametern können dabei nicht nur Änderungen in den bedingten und unbedingten Varianzen hervorrufen, sondern auch in der bedingten und unbedingten Kovarianz- und Korrelationsstruktur. Dies erlaubt eine weitreichende Detektion von strukturellen Änderungen in dieser Art von Modell, die beispielsweise für die Modellierung von Aktienrenditen gut geeignet ist. Das Verfahren basiert auf den Scores der Gaußschen Quasi-Loglikelihoodfunktion. Unter der Annahme eines konstanten Parametervektors sollten die Beiträge zum Gradienten der Quasi-Loglikelihoodfunktion für den aus der historischen Stichprobe ermittelten Parameterschätzer und für Beobachtungen aus dem Überwachungszeitraum nicht viel stärker schwanken als dies für die Werte aus dem historischen Zeitraum beobachtet wurde. Da für beide betrachteten Methoden die Stoppzeit in der Regel nicht mit dem eigentlichen Bruchpunkt zusammenfällt, werden außerdem zwei Schätzer vorgestellt, mit denen nach dem Nachweis der bloßen Präsenz eines Strukturbruchs auch dessen Lage geschätzt werden kann. Für beide betrachteten Verfahren beziehungsweise die verwendeten Detektoren werden asymptotische Eigenschaften unter der Nullhypothese und der Alternative eines Strukturbruchs zu einem unbekannten Zeitpunkt im Überwachungszeitraum hergeleitet. In beiden Fällen streben die Folgen der Detektorwerte unter der Nullhypothese gegen multivariate Gaußprozesse. Außerdem wird das Verhalten in endlichen Stichproben mit Hilfe von Simulationen und Anwendungen auf echte Daten, in diesem Fall logarithmierte Eintagesrenditen der Kurswerte von verschiedenen Aktien, untersucht.
  • Item
    On modeling financial risk with tail copulas
    (2015) Jäschke, Stefan; Krämer, Walther; Wied, Dominik
    This thesis is a cumulative one, comprising three peer-reviewed and published papers. The first article studies, for the first time in the literature, the dependence of extreme events in energy markets. It is shown that adopting general copula inference techniques (applying a goodness-of-fit test for copulas to the whole support of the bivariate distribution) can be very misleading for modeling the joint tail behavior. Moreover, the advantage of tail copulas over the single tail dependence coefficients is emphasized. The objective of the second article is the modeling of stochastic tail dependence in energy and commodity markets. The essential part is the application of a newly introduced partial derivatives multiplier bootstrap goodness-of-fit test for tail copulas. The findings are then compared to a traditional copula fit. Finally, the article provides a comprehensive backtesting framework for the risk measures Value-at-Risk and Expected Shortfall. As suspected, the best tail copula model slightly outperforms the traditional copula fit. The third article develops asymptotic tests for detecting structural breaks in the tail dependence of multivariate time series. In particular, to obtain asymptotic properties, a new limit result for the sequential empirical tail copula process is derived. Moreover, an elaborated simulation study investigates the finite sample properties of the proposed testing procedures. In the observed behavior, the tests are slightly conservative combined with reasonable power properties. The study further reveals that the asymptotic behavior of the estimator based on time series residuals is the same as the one based on independent and identically distributed observations.
  • Item
    Statistical problems of time varying volatility in economic time series
    (2014-04-30) Messow, Philip; Linnemann, Ludger; Krämer, Walter
  • Item
    Reduced Form Credit Risk Models and the Second Dimension Risk Premium
    (2013-10-02) Vogt, Jonas; Wied, Dominik; Krämer, Walter
    Die vorliegende Dissertation beschäftigt sich mit Kreditrisiko-Modellen "reduzierter Form" (Reduced Form Credit Risk Models) zur Analyse staatlicher Kreditrisiken. In diesen Modellen wird der Insolvenzprozess dem Namen entsprechend in reduzierter Form modelliert: Erste Sprünge von Poisson-Prozessen sollen hier Kreditereignisse darstellen. Auf eine tiefergehende Abbildung der finanziellen Situation der Einheit wird verzichtet und die Modelle für verschiedene Einheiten unterscheiden sich lediglich in den Sprungintensitäten der jeweiligen Poisson- Prozesse. Die Intensitäten bzw. die Intensitätsprozesse, die die Modelle für bestimmte Einheiten charakterisieren, können entweder als deterministisch oder als stochastisch modelliert werden. Im letzteren Fall werden die Modelle in der Regel als "doppel stochastisch" (doubly stochastic) bezeichnet. Dabei werden die Intensitätsprozesse als Diffusionsprozesse modelliert. In dieser Dissertation werden technische Grundlagen und die Funktionsweise dieser Modelle erörtert. Weiterhin wird im wahrscheinlichkeitstheoretischen Rahmen dargestellt, wie man anhand dieser Modelle analysieren kann, welche Rolle eine mögliche Stochastik der Kreditausfallswahrscheinlichkeit bei der Bildung von Kreditwertpapierpreisen spielt. Eine Strategie zur Schätzung solcher Modelle unter zwei Massen anhand von Zeitreihendaten wird ebenfalls diskutiert und evaluiert. Anhand dieser Strategie werden Modelle für verschiedene europ äische Länder geschätzt. Basierend darauf wird im Hinblick auf die europäische Finanzkrise analysiert, welche Rolle die Stochastik der Ausfallwahrscheinlichkeit bei der Bildung von Kreditkosten für diese Länder spielt. Weiterhin wird in diesem Zusammenhang evaluiert, wie gut die Modellierung der Kreditkosten anhand von Kreditrisiko-Modellen reduzierter Form für diese Länder funktioniert und wie gut die geschätzten Modelle zur Prognose von Kreditwertpapierpreisen geeignet sind.
  • Item
    Kontrollkarten auf Basis archimedischer Copulas
    (2013-02-19) Lockow, Editha; Weihs, Claus; Krämer, Walter
  • Item
    CDS und Ausfallwahrscheinlichkeitskorrelationen in Krisenzeiten
    (2013-01-28) Bassi Mbobda, Carlos Armand; Krämer, Walter; Weißbach, Rafael; Wied, Dominik
    Die Arbeit beschäftigt sich mit der Abhängigkeitsmodellierung im Kreditportfolio. Mit der Einführung von Basel II (1. Januar 2007) wird die Annahme der a priori stochastischen Unabhängigkeit von Finanztiteln im Kreditportfolio fallen gelassen, da sich in der Realität Ausfallereignisse zweier Schuldner gegenseitig beeinflussen bzw. gemeinsame Ursachen für den Ausfall von Krediten existieren, was eine Unterschätzung der Soll-Kapitalanforderung zur Folge hat. In zunehmendem Maße hat sich der Bedarf an dieser Abhängigkeitsmodellierung auf statistische Modelle fokussiert. Dabei stellt die Korrelation von Ausfallwahrscheinlichkeiten eine Herausforderung bei der statistischen Modellierung dar. Kreditderivate kommen als wichtige Messungen für die Quantifizierung von Ausfallwahrscheinlichkeiten in Frage. Innerhalb des Marktes für Kreditderivate sind CDS (Credit Default Swaps) die wichtigsten, verbreitetsten und einfachsten Produkte und bilden die wesentliche und relevante Information für das Kreditgeschäft ab. Sie haben außerdem den Vorteil, dass sie sich kaum durch Illiquidität beeinflussen lassen. Aus den CDS-Kursen wird deshalb die Ausfallwahrscheinlichkeitskorrelation ermitteln. In Krisenzeiten scheinen Korrelationen im Portfolio instabil zu sein und müssen deshalb sorgfältig modelliert werden. Panel-Regressionen werden hier vorgeschlagen, um eine adäquate Schätzung dieser Schlüsselgröße zu geben. Dabei bewirken die zufälligen unternehmensspezifischen und zeitspezifischen Effekte, dass CDS-Prämien über die Zeit beziehungsweise über Unternehmen korreliert sind. Angesicht der Bedeutung dieser zufälligen Effekte (da sie einen direkten Einfluss auf die Korrelation haben) werden unterschiedliche Methoden zur Schätzung von Modellparametern, nämlich die Maximum-Likelihood- und restringierte Maximum-Likelihood-Methode sowie die Bayesianische Methode eingesetzt. Neben der Normalverteilung wird eine Polya-Baum-Mischung-Verteilung für die zufälligen Effekte angenommen, sodass Einflüsse von restriktiven parametrischen Modellen auf Schlussfolgerungen vermieden werden können. Die Fehler werden außerdem durch einen autoregressiven Prozess modelliert. Unter dieser Annahme wird die Existenz von Maximum-Likelihood- und restringierten Maximum-Likelihood-Schätzern in der Arbeit untersucht. Desweiteren werden Formeln für die Berechnung der Korrelation im Kontext der Panel-Regressionen, die stilisierten Fakten der Abhängigkeit gerecht werden, hergeleitet. Als Modell für die Schätzung von Ausfallwahrscheinlichkeitskorrelationen wird ein dynamisches Modell mit zufälligen zeitspezifischen Effekten vorgeschlagen. Die resultierenden Ergebnisse zeigen, dass die CDS-Prämien einzelner Banken sowohl untereinander, als auch über die Zeit – und zwar mit einer Querschnittkorrelation von 0,36 sowie einer Ein-Tages-Abhängigkeit von 0,70 – signifikant und hoch korreliert sind. Dies deutet einerseits auf einen höheren Ansteckungseffekt über Banken sowie andererseits auf einen starken linearen Zusammenhang zwischen aufeinanderfolgenden CDS-Prämien innerhalb einer Bank in Krisenzeiten hin. Die relativ höhere Längsschnittkorrelation korrespondiert vermutlich mit der Erfahrung vieler Unternehmen, bei denen bei Schieflagen und Insolvenzen Managementfehler und Unregelmäßigkeiten als Hauptursachen identifiziert werden konnten (vergleiche Hamerle und Rösch (2003)).
  • Item
    Ein Score-Test auf Messfehler in Ratingmigrationen
    (2012-07-13) Voß, Sebastian; Krämer, Walter; Rahnenführer, Jörg
  • Item
    Dynamische frailties in Zählprozessen mit Anwendung auf Ratingmigrationen
    (2011-09-28) Walter, Ronja Anna; Krämer, Walter; Fried, Roland; Weißbach, Rafael
    Im Bankwesen gibt es seit Basel II neben den Ratings der großen Ratingagenturen auch interne Ratings, die von den Banken selbst erstellt werden. Diese haben den Vorteil, dass sie jederzeit veränderbar sind und somit Ratinghistorien der Schuldner als zeitstetige Markoff-Prozesse ansehen lassen. Migrationsintensitäten zwischen den Ratingklassen lassen sich also mit Hilfe von Zählprozessen schätzen. Hat man Ratingklassen in Kalenderzeit, so sind diese über die Konjunktur korreliert. Die Korrelation kann über eine aus der Überlebenszeitanalyse bekannten Frailty modelliert werden. Das bedeutet, dass die Migrationsintensität einen zufälligen Faktor enthält. Üblicherweise ist dieser Faktor gamma- oder log-normalverteilt. In der Arbeit wird aber von zwei anderen Möglichkeiten ausgegangen: als erstes von einer betaverteilten Frailty, die sich zu jedem Migrationszeitpunkt verändert, und als zweites von einem AR(1)-Prozess, der sich zu den selben Zeitpunkten erneuert. Der AR(1)-Prozess hat im Gegensatz zur betaverteilten Frailty den Vorteil, dass er autokorreliert ist jedoch den Nachteil, dass die Intensitäten theoretisch negativ werden können. Das Problem bei einer solchen Modellierung ist, dassdie Likelihood einem hochdimensionalen Integral entspricht. Delloye et al. (2006), Koopman et al. (2008) und Duffie et al. (2009) lösen dieses Problem, indem sie aufwändige numerische Verfahren zur Schätzung der Parameter verwenden. Hier geschieht das mit Hilfe einer Laplace-Approximation, die das Integral annähert. Danach gibt es trotzdem keine geschlossene Form der Schätzer, man benötigt jedoch nur noch einen einfach Newton-Raphson Algorithmus um Schätzwerte zu finden. In Simulationen wird das Verhalten der Schätzer überprüft. Die Basisintensität lässt sich gut schätzen. Ein einfacher Schätzer, der die Frailty ignoriert, liefert aber genauso gute, teilweise bessere Ergebnisse. Die Parameter der Frailtyverteilung dagegen lassen sich bei der AR(1)-Verteilung gar nicht schätzen, und auch bei der betaverteilten Frailty funktioniert dies nur unabhänging von den Daten. Hier führt ein Teil des Korrekturterms der Laplace-Approximation, der nicht von den Beobachtungen abhängt, dazu, dass in der Likelihood ein Peak entsteht. Ohne den Peak wären auch in diesem Fall der Parameter der Betaverteilung nicht schätzbar. Somit ist die Laplace-Approximation zumindest bei einem so hochdimensionalen Problem wie dem betrachteten wenig geeignet um die Likelihood anzunähern. In einem Portfolio der WestLB kann gezeigt werden, dass die Migrations- und Ausfallhäufigkeit von der Konjunktur abhängt. Die gefundenen Schätzer unterscheiden sich ähnlich wie in den Simulation kaum von einem einfachen Schätzer und auch unterschiedliche Werte für die Parameter der Frailtyverteilung verursachen kaum Veränderungen des Schätzers. Nur bei gemeinsamer Schätzung der Parameter im Fall der betaverteilten Frailty wird der Schätzer deutlich kleiner. Dieses Verhalten konnte aber auch in den Simulationen beobachtet werden, in denen der gemeinsame Schätzer die Basisintensität immer deutlich unterschätzte.
  • Item
    Statistische Modelle mit nicht-ignorierbar fehlender Zielgröße und Anwendung in der reject inference
    (2011-04-28) Bücker, Michael; Krämer, Walter; Weihs, Claus
    Statistische Modelle zur Prognose von Kreditausfällen vernachlässigen in der Regel die Beobachtungen derjenigen Kunden, denen erst gar kein Kredit gewährt wurde. Denn für diese abgelehnten Kreditnehmer ist schließlich die Zielgröße unbekannt, das heißt die Bank hat üblicherweise keine Information über die Zahlungsmoral dieser Antragsteller im Falle einer Zusage. Die Vernachlässigung beeinflusst die Schätzung solcher Modelle nicht, solange die fehlenden Daten „missing at random” (MAR) sind, das bedeutet, falls die Ausfallwahrscheinlichkeit bei gegebenen Kovariablen für akzeptierte und abgelehnte Kunden dieselbe ist. In der Praxis ist diese Annahme dann sinnvoll, wenn der Kreditgeber seine Vergabeentscheidung einzig auf Basis eines statistischen Modells trifft. Allerdings ist ein solches Vorgehen in Deutschland nicht legitim. Das Bundesdatenschutzgesetz untersagt die rein automatisierte Gewährung von Krediten, ohne dass eine Person in den Entscheidungsprozess einbezogen wird. Das kann zur Folge haben, dass bei zwei Kunden mit ansonsten identischen Ausprägungen aller Prädiktoren dem einen ein Kredit gewährt wird, dem zweiten jedoch nicht. Anders ausgedrückt ist die Wahrscheinlichkeit für die Bewilligung eines Kredits bei gegebenen Regressoren nicht identisch mit derWahrscheinlichkeit bei gegebenen Regressoren und dem Wissen über die eventuelle spätere Rückzahlung, falls die Beurteilung durch einen Bankangestellten zusätzliche Information über letztere liefert. Dann sind die fehlenden Beobachtungen nicht-ignorierbar fehlend oder „missing not at random” (MNAR). Die vorliegende Arbeit schlägt einen neuen Ansatz zur Bewältigung der oben beschriebenen „Reject Inference” vor. Er basiert auf Qin, Leung und Shao (2002), die bei Vorliegen nichtignorierbar fehlender Daten die vorliegenden Beobachtungen so gewichten, dass sie deren Erwartungswert konsistent schätzen können. Dazu verwenden sie ein parametrisches Modell für das Fehlen und nutzen zudem die Theorie der Empirischen Likelihood. In statistischen Modellen wie Generalisierten Linearen Modellen liefert dieselbe Gewichtung der Likelihood unter nicht allzu restriktiven Annahmen konsistente und asymptotisch normalverteilte Parameterschätzer. Damit können Logistische Regressionsmodelle im Kreditscoring unverzerrt geschätzt werden, auch wenn Vergabeentscheidung und Kreditausfall bei gegebenen Regressoren korrelieren. Mit Hilfe eines Hausman-Test lässt sich die Hypothese des nicht-ignorierbaren Fehlens untersuchen. In Simulationen erweist sich die vorgeschlagene Testprozedur als zuverlässig. Eine Anwendung auf Daten von fast zehntausend Privatkunden einer großen deutschen Bank zeigt, dass das neue Schätzverfahren zu signifikant unterschiedlichen Parameterschätzungen gegenüber konventionellen Methoden führt, sowohl im ökonomischen als auch im statistischen Sinne. Zahlreiche weitere Anwendungsmöglichkeiten des neuen Schätzers sind denkbar, da fehlende Daten in der Praxis immer wieder auftreten und die Ursache dafür oft unbekannt ist