Bitte benutzen Sie diese Referenz, um auf diese Ressource zu verweisen: doi:10.22028/D291-38667
Volltext verfügbar? / Dokumentlieferung
Titel: Unsupervised Pidgin Text Generation By Pivoting English Data and Self-Training
VerfasserIn: Chang, Ernie
Ifeoluwa Adelani, David
Shen, Xiaoyu
Demberg, Vera
Sprache: Englisch
Verlag/Plattform: arXiv
Erscheinungsjahr: 2020
DDC-Sachgruppe: 400 Sprache, Linguistik
Dokumenttyp: Sonstiges
Abstract: West African Pidgin English is a language that is significantly spoken in West Africa, consisting of at least 75 million speakers. Nevertheless, proper machine translation systems and relevant NLP datasets for pidgin English are virtually absent. In this work, we develop techniques targeted at bridging the gap between Pidgin English and English in the context of natural language generation. %As a proof of concept, we explore the proposed techniques in the area of data-to-text generation. By building upon the previously released monolingual Pidgin English text and parallel English data-to-text corpus, we hope to build a system that can automatically generate Pidgin English descriptions from structured data. We first train a data-to-English text generation system, before employing techniques in unsupervised neural machine translation and self-training to establish the Pidgin-to-English cross-lingual alignment. The human evaluation performed on the generated Pidgin texts shows that, though still far from being practically usable, the pivoting + self-training technique improves both Pidgin text fluency and relevance.
URL der Erstveröffentlichung: https://arxiv.org/abs/2003.08272
Link zu diesem Datensatz: urn:nbn:de:bsz:291--ds-386677
hdl:20.500.11880/34855
http://dx.doi.org/10.22028/D291-38667
Datum des Eintrags: 5-Jan-2023
Bemerkung/Hinweis: Preprint
Fakultät: MI - Fakultät für Mathematik und Informatik
Fachrichtung: MI - Informatik
Professur: MI - Prof. Dr. Vera Demberg
Sammlung:SciDok - Der Wissenschaftsserver der Universität des Saarlandes

Dateien zu diesem Datensatz:
Es gibt keine Dateien zu dieser Ressource.


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.