直播 | ACL 2021论文解读:提升预训练语言模型实体与关系理解的统一框架
「AI Drive」是由 PaperWeekly 和 biendata 共同發起的學術直播間,旨在幫助更多的青年學者宣傳其最新科研成果。我們一直認為,單向地輸出知識并不是一個最好的方式,而有效地反饋和交流可能會讓知識的傳播更加有意義,從而產生更大的價值。
本期 AI Drive,我們邀請到清華大學計算機系博士生秦禹嘉,為大家在線解讀其發表于 ACL 2021 的最新工作:ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning。對本期主題感興趣的小伙伴,6 月 17 日(周四)晚 7 點,我們準時相約 PaperWeekly B 站直播間。
直播信息
預訓練語言模型在各種下游自然語言處理 任務中表現出卓越的性能。然而,傳統的預訓練目標并沒有明確地對文本中的關系事實進行建模,這對于文本理解至關重要。為了解決這個問題,我們提出了一種新穎的對比學習框架 ERICA,以深入了解文本中的實體及實體間關系。
具體來說,我們定義了兩個新的預訓練任務來更好地理解實體和關系:1)實體區分任務,用于區分給定的頭實體和關系可以推斷出哪個尾實體;2)關系判別任務,在語義上區分兩個關系是否接近,這其中涉及復雜的關系推理。實驗結果表明,ERICA 可以在多種語言理解任務上,尤其是在低資源設定下提升典型 PLM(例如 BERT 和 RoBERTa)的性能。
論文標題:
ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning
論文鏈接:
https://arxiv.org/abs/2012.15022
代碼鏈接:
https://github.com/thunlp/ERICA
本次分享的具體內容有:?
預訓練語言模型的背景
實體與關系理解
統一的增強預訓練語言模型實體與關系理解的框架
總結
嘉賓介紹
?秦禹嘉?/ 清華大學博士生?
秦禹嘉,清華大學計算機系一年級博士生。導師劉知遠副教授。主要研究方向為預訓練語言模型,信息抽取,閱讀理解等。以第一作者身份在 ACL / ICLR / TASLP 等會議/期刊上發表多篇論文。
直播地址?& 交流群
本次直播將在 PaperWeekly B 站直播間進行,掃描下方海報二維碼或點擊閱讀原文即可免費觀看。線上分享結束后,嘉賓還將在直播交流群內實時 QA,在 PaperWeekly 微信公眾號后臺回復「AI Drive」,即可獲取入群通道。
B 站直播間:
https://live.bilibili.com/14884511
合作伙伴
????
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的直播 | ACL 2021论文解读:提升预训练语言模型实体与关系理解的统一框架的全部內容,希望文章能夠幫你解決所遇到的問題。
                            
                        - 上一篇: 河北省邯郸市复兴区邮编号是什么
 - 下一篇: 英国帝国理工出品:SSIM对抗攻击