Policy domain prediction from party manifestos with adapters and knowledge enhanced transformers


Yu, Hsiao-Chu ; Rehbein, Ines ; Ponzetto, Simone Paolo


[img] PDF
2023.konvens-main.23.pdf - Veröffentlichte Version

Download (445kB)

URL: https://aclanthology.org/2023.konvens-main.23/
URN: urn:nbn:de:bsz:180-madoc-676940
Dokumenttyp: Konferenzveröffentlichung
Erscheinungsjahr: 2023
Buchtitel: The 19th Conference on Natural Language Processing (KONVENS 2023) : proceedings of the conference, September 18-22, 2023
Seitenbereich: 229-244
Veranstaltungstitel: KONVENS 2023, Konferenz zur Verarbeitung natürlicher Sprache
Veranstaltungsort: Ingolstadt, Germany
Veranstaltungsdatum: 18.-22.8.2023
Herausgeber: Georges, Munir ; Herygers, Aaricia ; Friedrich, Annemarie ; Roth, Benjamin
Ort der Veröffentlichung: Stroudsburg, PA
Verlag: Association for Computational Lingustics, ACL
ISBN: 979-8-89176-029-5
Verwandte URLs:
Sprache der Veröffentlichung: Englisch
Einrichtung: Fakultät für Wirtschaftsinformatik und Wirtschaftsmathematik > Sonstige - Fakultät für Wirtschaftsinformatik und Wirtschaftsmathematik
Fakultät für Wirtschaftsinformatik und Wirtschaftsmathematik > Information Systems III: Enterprise Data Analysis (Ponzetto 2016-)
Fachgebiet: 004 Informatik
Freie Schlagwörter (Englisch): adapters , knowledge-enhanced transformers , policy domain prediction , political text analysis
Abstract: Recent work has shown the potential of knowledge injection into transformer-based pretrained language models for improving model performance for a number of NLI benchmark tasks. Motivated by this success, we test the potential of knowledge injection for an application in the political domain and study whether we can improve results for policy domain prediction, that is, for predicting fine-grained policy topics and stance for party manifestos. We experiment with three types of knowledge, namely (1) domain-specific knowledge via continued pre-training on in-domain data, (2) lexical semantic knowledge, and (3) factual knowledge about named entities. In our experiments, we use adapter modules as a parameter-efficient way for knowledge injection into transformers. Our results show a consistent positive effect for domain adaptation via continued pre-training and small improvements when replacing full model training with a task-specific adapter. The injected knowledge, however, only yields minor improvements over full training and fails to outperform the task-specific adapter without external knowledge, raising the question which type of knowledge is needed to solve this task.




Dieser Eintrag ist Teil der Universitätsbibliographie.

Das Dokument wird vom Publikationsserver der Universitätsbibliothek Mannheim bereitgestellt.




Metadaten-Export


Zitation


+ Suche Autoren in

+ Download-Statistik

Downloads im letzten Jahr

Detaillierte Angaben



Sie haben einen Fehler gefunden? Teilen Sie uns Ihren Korrekturwunsch bitte hier mit: E-Mail


Actions (login required)

Eintrag anzeigen Eintrag anzeigen