Lindanis, Meret Björk (2021) Bewegungsnachverfolgung in 3D-Punktwolken am Beispiel von verdeckten Händen. ["eprint_fieldopt_thesis_type_bachelor" not defined], Carl-von-Ossieztky Universität Oldenburg.

[img]
Preview
- Other

Volltext (5Mb)

Abstract

Robotersysteme wie beispielsweise Operationsroboter unterstützen medizinisches Fachpersonal bei ihren (spezifischen) Tätigkeiten und können potenziell auch pflegerische Tätigkeiten, insbesondere körperlich schwere Arbeiten wie Patientenumlagerungen, unterstützen oder gänzlich übernehmen. Um die Bewegungen des Pflegepersonals mit Robotern nachbilden zu können, müssen diese zunächst digital erfasst werden. Hierfür werden Human Motion Capture Systeme eingesetzt. Um eine möglichst authentische Ausführung der Bewegungsabläufe zu gewährleisten, wurde für die Erhebung der Positionsdaten in dieser Arbeit ein optisches, markerloses System gewählt und die Bewegungsabläufe mit der Microsoft Azure Kinect als Videosequenz aufgenommen. In der Pflege sind die Hände und Handgelenke ein wichtiges Instrument zur Interaktion und sind daher das vorrangige Ziel in der Nachverfolgung der pflegerischen Bewegungsabläufe. Wegen des meist engen körperlichen Kontakts zwischen Pflegekräften und Patientinnen oder Patienten während der Interaktion sind die Hände für eine optische Nachverfolgung in den Videosequenzen häufig nicht sichtbar, sodass sie in der Bildverarbeitung nicht ohne weiteres erkannt und nachverfolgt werden können. Um diesem Problem zu begegnen, wird in der vorgestellten Arbeit mit Open3D eine Software für ein Annotationstool entwickelt, bei dem in generierten Punktwolken die räumlichen Positionen der Handgelenke manuell durch die Nutzerinnen oder Nutzer geschätzt und annotiert werden. Aufgrund der sequenziell erfolgten Annotation bleiben die Handgelenke verschiedener Personen unterscheidbar, sodass beliebig viele Handgelenke im gleichen Datensatz markiert werden können. Die so erzeugten Daten aus dem Annotationstool können in Form von Trajektorien zur weiteren Nutzung bei der Entwicklung und Programmierung von Pflegerobotern zur Verfügung gestellt werden. Eine Evaluierung der manuellen Annotationsmethode wurde in Form eines Vergleichs mit Daten zweier etablierter Verfahren zur Positionsschätzung durchgeführt. Hierfür wurden das Microsoft Azure Kinect Body Tracking SDK sowie der Captiv Motion-Capture-Anzug von TEA ausgewählt. Das Annotationstool erzeugte in beiden Vergleichen weitgehend ähnliche Trajektorien, sowohl für sichtbare als auch für verdeckte Handgelenke.

["eprint_fieldname_title_plus" not defined]

Motion Tracking in 3D Point Clouds Using the Example of Hidden Hands

["eprint_fieldname_abstract_plus" not defined]

Robot systems, such as surgical robots, support healthcare professionals in their (specific) activities and can potentially support or take over care activities, especially physically demanding tasks such as patient rearrangements. In order to be able to recreate the movements of the nursing staff with robots, they must first be recorded digitally. Human Motion Capture Systems are used for this purpose. In order to ensure the most authentic execution of the motion sequences, an optical, markerless system was chosen for the collection of the position data in this work and the motion sequences were recorded as a video sequence with the Microsoft Azure Kinect. The hands and wrists are an important instrument for interaction in healthcare and are therefore the primary goal in tracking nursing movements. Due to the usually close physical contact between nurses and patients during the interaction, the hands are often not visible for optical tracking in the video sequences. Therefore they cannot be easily recognized and tracked in image processing. To address this problem, the presented work develops software for an annotation tool with Open3D in which the spatial positions of the wrists are manually estimated and annotated in generated point clouds by the users. Due to the sequential annotation the wrists of different persons remain distinguishable, so that any number of wrists can be annotated in the same data set. The data generated from the annotation tool in this way can be made available in form of trajectories for further use in the development and programming of care robots. An evaluation of the manual annotation method was carried out in form of a comparison with data from two established position estimation methods. For this purpose the Microsoft Azure Kinect Body Tracking SDK and the Captiv Motion Capture suit from TEA were selected. In both comparisons the annotation tool produced very similar trajectories, for both visible and occluded wrists.

Item Type: Thesis (["eprint_fieldopt_thesis_type_bachelor" not defined])
Uncontrolled Keywords: Trajektorien, Nachverfolgung, Annotation, Handgelenke, Hände, Verdeckung
Subjects: Generalities, computers, information > Computer science, internet
Technology, medicine, applied sciences > Medicine and health
Divisions: School of Computing Science, Business Administration, Economics and Law > Department of Computing Science
Date Deposited: 02 Mar 2021 10:21
Last Modified: 04 Mar 2021 12:29
URI: https://oops.uni-oldenburg.de/id/eprint/4970
URN: urn:nbn:de:gbv:715-oops-50513
DOI:
Nutzungslizenz:

Actions (login required)

View Item View Item

Document Downloads

More statistics for this item...