Wolfert, CarlNeumann, IreneSommerhoff, Daniel2025-11-172025-11-172025http://hdl.handle.net/2003/4425810.17877/DE290R-26026E-Assessments stellen häufig „ähnliche“ Versionen mathematischer Aufgaben bereit und nehmen diese teils als in ihrer Schwierigkeit vergleichbar an. Es fehlt jedoch bisher an einer theoretischen Beschreibung und Systematisierung jener Vergleichbarkeit, sowie entsprechenden empirischen Untersuchungen. Ein Framework zur Systematisierung „ähnlicher“ Aufgabenversionen wird in diesem Beitrag vorgestellt und empirisch anhand einer quantitativen Befragung mit 105 Mathematikstudierenden evaluiert. Die Ergebnisse stützen das Framework tendenziell und werden im Vortrag detailliert diskutiert.deGesellschaft für Didaktik der MathematikBeiträge zum Mathematikunterricht; 58Übergang Schule HochschuleLeistungsmessung und -bewertungDiagnoseQuantitative Studie510Randomisierte Aufgaben für E-Assessments - Empirische Prüfung eines SchwierigkeitsmodellsConferencePaper