Weihs, ClausJastrow, Malte2021-09-082021-09-082021http://hdl.handle.net/2003/40489http://dx.doi.org/10.17877/DE290R-22361Mischverteilungsmodelle (Mixture Models) dienen allgemein zur Anpassung zusammengesetzter Verteilungen an Daten, in denen einzelne Gruppen von Beobachtungen unterschiedlichen Verteilungen folgen. Durch die Modellierung der Gruppenzugehörigkeiten als latente Variable sind diese Modelle darüber hinaus ein populäres Verfahren zur Clusteranalyse (unüberwachtes Lernen). Dabei werden die Gruppen, denen Beobachtungen zugeordnet werden sollen, durch unterschiedlich parametrisierte Verteilungskomponenten repräsentiert. Die Verteilungsparameter der einzelnen Komponenten, sowie deren Mischungsverhältnis können mittels Maximum-Likelihood-Prinzip geschätzt werden. Wie in der Literatur beschrieben, kann die Likelihood-Funktion bereits für die Mischung zweier Normalverteilungskomponenten zahlreiche Optima aufweisen, wenn sich die zugrundeliegenden Varianzen stark unterscheiden. Im Rahmen dieser Dissertation wird das Problem der Multimodalität zunächst für Mischungen verschiedener Verteilungen durch grafische Darstellungen verdeutlicht. Anschließend wird systematisch der Einfluss der zugrundeliegenden Parameter der Mischverteilungsmodelle untersucht. Dabei ergibt sich, dass die Multimodalität maßgeblich mit dem Abstand zwischen den Varianzparametern der beiden Mischungskomponenten ansteigt. Anhand einer umfangreichen Simulationsstudie wird untersucht, wie gut der üblicherweise verwendete EM-Algorithmus Normalverteilungsmischungen mit unterschiedlicher Komplexität der Likelihood optimieren kann. Es stellt sich heraus, dass EM gegenüber allgemeinen Black-Box-Optimierungsalgorithmen, die spezielle Ansätze zum Überwinden lokaler Optima verfolgen, im Vorteil ist, da die in jedem Schritt verwendete konkrete Zuordnung der Daten zu den Verteilungskomponenten eine erhebliche Vereinfachung der Zielfunktion verursacht. Darüber hinaus wird mit der Methode der Clusterstartpunkte für EM eine für den Anwendungsfall relevante Methode vorgeschlagen, um möglichst viele lokale Optima einer multimodalen Likelihood-Funktion zu identifizieren. Dies gelingt deutlich besser als mit der häufig praktizierten Verwendung von Zufallsstartpunkten für EM und kann einen entscheidenden Beitrag zur Bewertung eines globalen Optimierungsergebnisses in der Praxis liefern.deMixture modelsEM-AlgorithmusGlobale OptimierungClustering310Multimodale Likelihood-Funktionen in MischverteilungsmodellenTextMultimodale VerteilungMaximum-Likelihood-SchätzungGlobale Optimierung