Bitte benutzen Sie diese Referenz, um auf diese Ressource zu verweisen: doi:10.22028/D291-40347
Volltext verfügbar? / Dokumentlieferung
Titel: Dilated Temporal Fully-Convolutional Network for Semantic Segmentation of Motion Capture Data
VerfasserIn: Cheema, Noshaba
Hosseini, Somayeh
Sprenger, Janis
Herrmann, Erik
Du, Han
Fischer, Klaus
Slusallek, Philipp
Sprache: Englisch
Verlag/Plattform: arXiv
Erscheinungsjahr: 2018
DDC-Sachgruppe: 004 Informatik
400 Sprache, Linguistik
Dokumenttyp: Sonstiges
Abstract: Semantic segmentation of motion capture sequences plays a key part in many data-driven motion synthesis frameworks. It is a preprocessing step in which long recordings of motion capture sequences are partitioned into smaller segments. Afterwards, additional methods like statistical modeling can be applied to each group of structurally-similar segments to learn an abstract motion manifold. The segmentation task however often remains a manual task, which increases the effort and cost of generating large-scale motion databases. We therefore propose an automatic framework for semantic segmentation of motion capture data using a dilated temporal fully-convolutional network. Our model outperforms a state-of-the-art model in action segmentation, as well as three networks for sequence modeling. We further show our model is robust against high noisy training labels.
DOI der Erstveröffentlichung: 10.48550/arXiv.1806.09174
URL der Erstveröffentlichung: https://arxiv.org/abs/1806.09174
Link zu diesem Datensatz: urn:nbn:de:bsz:291--ds-403477
hdl:20.500.11880/36294
http://dx.doi.org/10.22028/D291-40347
Datum des Eintrags: 21-Aug-2023
Bemerkung/Hinweis: Poster
Fakultät: MI - Fakultät für Mathematik und Informatik
Fachrichtung: MI - Informatik
Professur: MI - Prof. Dr. Philipp Slusallek
Sammlung:SciDok - Der Wissenschaftsserver der Universität des Saarlandes

Dateien zu diesem Datensatz:
Es gibt keine Dateien zu dieser Ressource.


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.