Bitte benutzen Sie diese Referenz, um auf diese Ressource zu verweisen: doi:10.22028/D291-36103
Volltext verfügbar? / Dokumentlieferung
Titel: Compositional Generalization Requires Compositional Parsers
VerfasserIn: Weißenhorn, Pia
Yao, Yuekun
Donatelli, Lucia
Koller, Alexander
Sprache: Englisch
Verlag/Plattform: arXiv
Erscheinungsjahr: 2022
Dokumenttyp: Sonstiges
Abstract: A rapidly growing body of research on compositional generalization investigates the ability of a semantic parser to dynamically recombine linguistic elements seen in training into unseen sequences. We present a systematic comparison of sequence-to-sequence models and models guided by compositional principles on the recent COGS corpus (Kim and Linzen, 2020). Though seq2seq models can perform well on lexical tasks, they perform with near-zero accuracy on structural generalization tasks that require novel syntactic structures; this holds true even when they are trained to predict syntax instead of semantics. In contrast, compositional models achieve near-perfect accuracy on structural generalization; we present new results confirming this from the AM parser (Groschwitz et al., 2021). Our findings show structural generalization is a key measure of compositional generalization and requires models that are aware of complex structure.
DOI der Erstveröffentlichung: 10.48550/arXiv.2202.11937
URL der Erstveröffentlichung: https://arxiv.org/abs/2202.11937
Link zu diesem Datensatz: hdl:20.500.11880/32885
http://dx.doi.org/10.22028/D291-36103
Datum des Eintrags: 5-Mai-2022
Bemerkung/Hinweis: Preprint
Fakultät: P - Philosophische Fakultät
Fachrichtung: P - Sprachwissenschaft und Sprachtechnologie
Professur: P - Prof. Dr. Alexander Koller
Sammlung:SciDok - Der Wissenschaftsserver der Universität des Saarlandes

Dateien zu diesem Datensatz:
Es gibt keine Dateien zu dieser Ressource.


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.