Full metadata record
DC FieldValueLanguage
dc.contributor.advisorFink, Gernot A.-
dc.contributor.authorRicharz, Jan-
dc.date.accessioned2012-01-19T07:13:05Z-
dc.date.available2012-01-19T07:13:05Z-
dc.date.issued2012-01-19-
dc.identifier.urihttp://hdl.handle.net/2003/29287-
dc.identifier.urihttp://dx.doi.org/10.17877/DE290R-3260-
dc.description.abstractDiese Dissertation umfasst die Konzeption einer berührungslosen und nutzerunabhängigen visuellen Klassifikation von Armgesten anhand ihrer räumlich-zeitlichen Bewegungsmuster mit Methoden der Computer Vision, der Mustererkennung und des maschinellen Lernens. Das Anwendungsszenario ist hierbei ein intelligenter Konferenzraum, der mit mehreren handelsüblichen Kameras ausgerüstet ist. Dieses Szenario stellt aus drei Gründen eine besondere Herausforderung dar: Für eine möglichst intuitive Interaktion ist es erstens notwendig, die Erkennung unabhängig von der Position und Orientierung des Nutzers im Raum zu realisieren. Somit werden vereinfachende Annahmen bezüglich der relativen Positionen von Nutzer und Kamera weitgehend ausgeschlossen. Zweitens wird ein realistisches Innenraumszenario betrachtet, bei dem sich die Umgebungsbedingungen abrupt ändern können und sehr unterschiedliche Blickwinkel der Kameras auftreten. Das erfordert die Entwicklung adaptiver Methoden, die sich schnell an derartige Änderungen anpassen können bzw. in weiten Grenzen dagegen robust sind. Drittens stellt die Verwendung eines nicht synchronisierten Multikamerasystems eine Neuerung dar, die dazu führt, dass während der 3D-Rekonstruktion der Hypothesen aus verschiedenen Kamerabildern besonderes Augenmerk auf den Umgang mit dem auftretenden zeitlichen Versatz gelegt werden muss. Dies hat auch Folgen für die Klassifikationsaufgabe, weil in den rekonstruierten 3D-Trajektorien mit entsprechenden Ungenauigkeiten zu rechnen ist. Ein wichtiges Kriterium für die Akzeptanz einer gestenbasierten Mensch-Maschine-Schnittstelle ist ihre Reaktivität. Daher wird bei der Konzeption besonderes Augenmerk auf die effiziente Umsetzbarkeit der gewählten Methoden gelegt. Insbesondere wird eine parallele Verarbeitungsstruktur realisiert, in der die verschiedenen Kameradatenströme getrennt verarbeitet und die Einzelergebnisse anschließend kombiniert werden. Im Rahmen der Dissertation wurde die komplette Bildverarbeitungspipeline prototypisch realisiert. Sie umfasst unter anderem die Schritte Personendetektion, Personentracking, Handdetektion, 3D-Rekonstruktion der Hypothesen und Klassifikation der räumlich-zeitlichen Gestentrajektorien mit semikontinuierlichen Hidden Markov Modellen (HMM). Die realisierten Methoden werden anhand realistischer, anspruchsvoller Datensätze ausführlich evaluiert. Dabei werden sowohl für die Personen- als auch für die Handdetektion sehr gute Ergebnisse erzielt. Die Gestenklassifikation erreicht Klassifikationsraten von annähernd 90% für neun verschiedene Gesten.de
dc.language.isodede
dc.subjectComputer-Visionde
dc.subjectDynamische Armgestende
dc.subjectGestenerkennungde
dc.subjectIntelligente Umgebungende
dc.subjectMehrkamerasystemde
dc.subjectMensch-Maschine-Interaktionde
dc.subjectMustererkennungde
dc.subjectZeigegestende
dc.subject.ddc004-
dc.titleVideobasierte Gestenerkennung in einer intelligenten Umgebungde
dc.typeTextde
dc.contributor.refereeMüller, Heinrich-
dc.date.accepted2011-12-14-
dc.type.publicationtypedoctoralThesisde
dcterms.accessRightsopen access-
Appears in Collections:Mustererkennung in Eingebetteten Systemen

Files in This Item:
File Description SizeFormat 
Dissertation.pdfDNB29.9 MBAdobe PDFView/Open


This item is protected by original copyright



This item is protected by original copyright rightsstatements.org