連續(xù)關(guān)系抽取從連續(xù)的非穩(wěn)態(tài)數(shù)據(jù)流中逐步學(xué)習(xí)關(guān)系知識,在新增訓(xùn)練數(shù)據(jù)時保持模型的穩(wěn)定。我中心大數(shù)據(jù)部提出了一個DP-CRE框架,將訓(xùn)練目標(biāo)解耦為舊知識的保存與新知識的獲取兩個任務(wù),并通過分析新關(guān)系出現(xiàn)時數(shù)據(jù)嵌入空間的改變,改進了知識的保存和獲取過程,實現(xiàn)了從非平穩(wěn)數(shù)據(jù)流中增量學(xué)習(xí)關(guān)系知識,為連續(xù)關(guān)系抽取提供了新思路。實驗結(jié)果表明該模型在多項指標(biāo)上均取得顯著提高。
該研究成果被The 2024 Joint International Conference on Computational Linguistics,Language Resources and Evaluation(LERC-COLING24,CCF B類)接受。論文第一作者為大數(shù)據(jù)部碩士研究生黃夢依,導(dǎo)師為杜一研究員。
該成果得到重點研發(fā)計劃青年科學(xué)家項目和國家自然科學(xué)基金優(yōu)秀青年科學(xué)基金項目等支持。
解耦的連續(xù)關(guān)系抽取框架
相關(guān)成果:Mengyi Huang,Meng Xiao,Ludi Wang,Yi Du. DP-CRE: Continual Relation Extraction via Decoupled Contrastive Learning and Memory Structure Preservation[C].// LREC-COLING 2024: The 2024 Joint International Conference on Computational Linguistics,Language Resources and Evaluation,2024.(Accepted)
責(zé)任編輯:郎楊琴