Authors: Kasper, Daniel
Title: Faktorenanalyse auf dem Prüfstand
Other Titles: Zum Zusammenhang zwischen der Verteilung der Fähigkeitswerte und der Schätzgenauigkeit klassischer Faktorenmodelle
Language (ISO): de
Abstract: In der Erziehungswissenschaft im Allgemeinen und der empirischen Bildungsforschung im Besonderen werden (auch) Erhebungsinstrumente zur Untersuchung von fachspezifischen Sachverhalten eingesetzt. Da in diesen Fällen der Erkenntnisgewinn unter anderem von der Beschaffenheit der Erhebungsinstrumente abhängt, sollten die Instrumente vorher definierte Qualitätsanforderungen erfüllen. Insoweit es sich bei den Erhebungsinstrumenten um quantitative Messverfahren handelt, sind diese Anforderungen in verschiedenen Testtheorien beschrieben. Nach den Testtheorien stellt die Validität des Messverfahrens ein wesentliches Gütekriterium dar (American Psychological Association, 1954, 1966). Ein Teilaspekt der Validität ist die faktorielle Struktur des Messinstrumentes (Lienert & Raatz, 1998). Die faktorielle Struktur eines Messinstrumentes wird durch die Faktorenanalyse bestimmt. Allerdings gibt es eine Reihe unterschiedlicher Faktorenmodelle, die nicht zu gleichen Ergebnissen führen müssen. Außerdem erfüllen viele Messinstrumente der Erziehungswissenschaft nicht die Voraussetzungen der Faktorenanalyse (Micceri, 1989). Bei derzeitigem Forschungsstand bleibt unklar, wie sich die Verletzung der Voraussetzungen auf die Schätzgüte der Faktorenmodelle auswirkt. Dieses gilt vor allem, wenn die von vielen Faktorenmodellen vorausgesetzte Normalverteilung der Messwerte nicht angenommen werden kann, was insbesondere für die als kriteriumsorientierte Messung bezeichneten Verfahren zutrifft (Glaser, 1963). Das primäre Ziel der Dissertation ist es deswegen zu überprüfen, wie sich die Verletzung der Voraussetzung normalverteilter Messwerte auf die Schätzgüte der Faktorenmodelle auswirkt. Damit liefert diese Doktorarbeit einen Hinweis darauf, wie gut unterschiedliche Faktorenmodelle zur Beurteilung der faktoriellen Validität von kriteriumsorientierten Tests geeignet sind. Auch wenn sich das primäre Ziel der Dissertation auf die Analyse von kriteriumsorientierten Testdaten bezieht, ergeben sich aus der Dissertation starke Implikationen für andere, diskret skalierte Messinstrumente der empirischen Bildungsforschung, wie etwa jene die bei Large-Scale-Assessment-Studien wie PISA (OECD, 2009), PIRLS (Mullis, Martin, Kennedy, Trong & Sainsbury, 2009) oder TIMSS (Mullis et al., 2005) verwendet werden, weil diese Messinstrumente zumindest in Bezug auf die Skalierung und Verteilung der Testwerte sehr ähnliche Eigenschaften aufweisen wie kriteriumsorientierte Testdaten. Auf manifester Datenebene ergeben sich also kaum Unterschiede zwischen kriteriumsorientierten Tests und anderen in der empirischen Bildungsforschung eingesetzten Instrumenten. Differenzen lassen sich damit bestenfalls im Bereich der Konstruktion der Messinstrumente und der den Messinstrumenten zugrundeliegenden Konstrukte finden. Dessen ungeachtet lässt sich schon aufgrund der Ähnlichkeit von kriteriumsorientierten Testdaten und anderen in der empirischen Bildungsforschung üblichen Messdaten ein sekundäres und allgemeineres Ziel der Dissertation formulieren: Es soll überprüft werden, wie sensibel verschiedene Faktorenmodelle hinsichtlich ihrer Schätzgüte auf rechtssteil verteilte Testdatensätze reagieren.
Subject Headings: Faktorenanalyse
Faktorielle Struktur
Kriteriumsorientierte Tests
Large scale assessment
Latente Variablen
Normalverteilung
Strukturgleichungsmodelle
Subject Headings (RSWK): Faktorenanalyse
Kriteriumsbezogener Test
Latente Variable
Normalverteilung
Schulleistungsmessung
Strukturgleichungsmodell
URI: http://hdl.handle.net/2003/29735
http://dx.doi.org/10.17877/DE290R-5395
Issue Date: 2012-10-31
Appears in Collections:Institut für Schulentwicklungsforschung

Files in This Item:
File Description SizeFormat 
Dissertation.pdfDNB3.51 MBAdobe PDFView/Open


This item is protected by original copyright



All resources in the repository are protected by copyright.