论文浅尝 | Improved Neural Relation Detection for KBQA
Yu M, Yin W, Hasan K S, etal. Improved Neural Relation Detection for Knowledge Base QuestionAnswering[J]. 2017.
論文鏈接:https://arxiv.org/pdf/1704.06194.pdf
概要
本文提出了一種基于不同粒度對(duì)關(guān)系和問題進(jìn)行文本匹配的關(guān)系檢測(cè)的模型(HR-BiLSTM,Hierarchical Residual-BiLSTM)。并將這種關(guān)系檢測(cè)的模型應(yīng)用到 KBQA 中,通過實(shí)體連接和關(guān)系檢測(cè)模塊的互補(bǔ)來提高整體的準(zhǔn)確率。在實(shí)驗(yàn)中,本文提出的模型能夠達(dá)到很好的結(jié)果。
?
關(guān)系檢測(cè)
關(guān)系檢測(cè)被作為一個(gè)文本匹配問題,即計(jì)算問題文本和不同關(guān)系文本的相似度,然后根據(jù)相似度對(duì)關(guān)系進(jìn)行排序。本文提出了 HR-BiLSTM 模型來計(jì)算問題文本和關(guān)系文本的相似度,其結(jié)構(gòu)如下
圖中主要包含兩個(gè)模塊。如圖所示,左半部分是問題的向量表示模塊,主要的方法是使用 stacked BiLSTM 提取得到問題的不同粒度的表示,然后通過殘差連接融合 stacked BiLSTM 中不同層次提取得到的隱藏層表示,最后通過 max pooling 得到定長(zhǎng)的問題的向量表示。模型的右半部分是關(guān)系的向量表示模塊,關(guān)系文本對(duì)應(yīng)的 relation-level(整個(gè)關(guān)系文本作為一個(gè)t oken)表示和 word-level(關(guān)系文本中的每一個(gè)詞語(yǔ)作為一個(gè) token)表示分別被兩個(gè)不同的 BiLSTM 處理,得到對(duì)應(yīng)的隱藏層表示,之后通過 max polling 得到定長(zhǎng)的關(guān)系表示。問題和關(guān)系的相似度可以使用問題向量表示和關(guān)系向量表示之間的余弦距離表示,訓(xùn)練的損失函數(shù)是 rank loss。
KBQA
使用關(guān)系檢測(cè)模型,可以進(jìn)一步提高 KBQA 的準(zhǔn)確率,主要的思路是在傳統(tǒng)的實(shí)體連接-關(guān)系檢測(cè)的兩步過程中,使用關(guān)系檢測(cè)的結(jié)果對(duì)實(shí)體連接的結(jié)果進(jìn)行調(diào)整,具體算法如下所示
實(shí)驗(yàn)結(jié)果
本文在 SimpleQuestion 和 WebQuestion 上進(jìn)行了實(shí)驗(yàn)。
關(guān)系檢測(cè)實(shí)驗(yàn)結(jié)果如下所示
KBQA實(shí)驗(yàn)結(jié)果如下所示
筆記整理:王旦龍,浙江大學(xué)碩士,研究方向?yàn)橹R(shí)圖譜,文本分類。
OpenKG.CN
中文開放知識(shí)圖譜(簡(jiǎn)稱OpenKG.CN)旨在促進(jìn)中文知識(shí)圖譜數(shù)據(jù)的開放與互聯(lián),促進(jìn)知識(shí)圖譜和語(yǔ)義技術(shù)的普及和廣泛應(yīng)用。
轉(zhuǎn)載須知:轉(zhuǎn)載需注明來源“OpenKG.CN”、作者及原文鏈接。如需修改標(biāo)題,請(qǐng)注明原標(biāo)題。
點(diǎn)擊閱讀原文,進(jìn)入 OpenKG 博客。
總結(jié)
以上是生活随笔為你收集整理的论文浅尝 | Improved Neural Relation Detection for KBQA的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: 论文浅尝 | Open world Kn
- 下一篇: 一篇文章带你熟悉 TCP/IP 协议(网
