Bitte benutzen Sie diese Referenz, um auf diese Ressource zu verweisen: doi:10.22028/D291-30974
Volltext verfügbar? / Dokumentlieferung
Titel: Improving Variational Encoder-Decoders in Dialogue Generation
VerfasserIn: Shen, Xiaoyu
Su, Hui
Niu, Shuzi
Demberg, Vera
Sprache: Englisch
Titel: Proceedings of the 2018 AAAIACM Conference on AI, Ethics, and Society
Seiten: 9
Verlag/Plattform: ACM
Erscheinungsjahr: 2018
Erscheinungsort: New York, NY
Titel der Konferenz: AIES 2018
Konferenzort: New Orleans, Louisiana, USA
Dokumenttyp: Konferenzbeitrag (in einem Konferenzband / InProceedings erschienener Beitrag)
Abstract: Variational encoder-decoders (VEDs) have shown promising results in dialogue generation. However, the latent variable distributions are usually approximated by a much simpler model than the powerful RNN structure used for encoding and decoding, yielding the KL-vanishing problem and inconsistent training objective. In this paper, we separate the training step into two phases: The first phase learns to autoencode discrete texts into continuous embeddings, from which the second phase learns to generalize latent representations by reconstructing the encoded embedding. In this case, latent variables are sampled by transforming Gaussian noise through multi-layer perceptrons and are trained with a separate VED model, which has the potential of realizing a much more flexible distribution. We compare our model with current popular models and the experiment demonstrates substantial improvement in both metric-based and human evaluations.
Link zu diesem Datensatz: hdl:20.500.11880/29740
http://dx.doi.org/10.22028/D291-30974
ISBN: 978-1-4503-6012-8
Datum des Eintrags: 24-Sep-2020
Fakultät: MI - Fakultät für Mathematik und Informatik
Fachrichtung: MI - Informatik
Professur: MI - Prof. Dr. Vera Demberg
Sammlung:SciDok - Der Wissenschaftsserver der Universität des Saarlandes

Dateien zu diesem Datensatz:
Es gibt keine Dateien zu dieser Ressource.


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.