Bitte benutzen Sie diese Referenz, um auf diese Ressource zu verweisen:
Volltext verfügbar? / Dokumentlieferung
doi:10.22028/D291-36103
Titel: | Compositional Generalization Requires Compositional Parsers |
VerfasserIn: | Weißenhorn, Pia Yao, Yuekun Donatelli, Lucia Koller, Alexander |
Sprache: | Englisch |
Verlag/Plattform: | arXiv |
Erscheinungsjahr: | 2022 |
Dokumenttyp: | Sonstiges |
Abstract: | A rapidly growing body of research on compositional generalization investigates the ability of a semantic parser to dynamically recombine linguistic elements seen in training into unseen sequences. We present a systematic comparison of sequence-to-sequence models and models guided by compositional principles on the recent COGS corpus (Kim and Linzen, 2020). Though seq2seq models can perform well on lexical tasks, they perform with near-zero accuracy on structural generalization tasks that require novel syntactic structures; this holds true even when they are trained to predict syntax instead of semantics. In contrast, compositional models achieve near-perfect accuracy on structural generalization; we present new results confirming this from the AM parser (Groschwitz et al., 2021). Our findings show structural generalization is a key measure of compositional generalization and requires models that are aware of complex structure. |
DOI der Erstveröffentlichung: | 10.48550/arXiv.2202.11937 |
URL der Erstveröffentlichung: | https://arxiv.org/abs/2202.11937 |
Link zu diesem Datensatz: | hdl:20.500.11880/32885 http://dx.doi.org/10.22028/D291-36103 |
Datum des Eintrags: | 5-Mai-2022 |
Bemerkung/Hinweis: | Preprint |
Fakultät: | P - Philosophische Fakultät |
Fachrichtung: | P - Sprachwissenschaft und Sprachtechnologie |
Professur: | P - Prof. Dr. Alexander Koller |
Sammlung: | SciDok - Der Wissenschaftsserver der Universität des Saarlandes |
Dateien zu diesem Datensatz:
Es gibt keine Dateien zu dieser Ressource.
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.