操屁眼的视频在线免费看,日本在线综合一区二区,久久在线观看免费视频,欧美日韩精品久久综

新聞資訊

    for , AAAI 2016

    ad/12195/12023

    LSTM 是一個經典的孿生網絡模型,它將需要對比的兩句話分別通過不同的 LSTM 進行編碼,并采用兩個 LSTM 最后一個時間步的輸出來計算曼哈頓距離,并通過 MSE loss 進行反向傳導。

    Multi- for , IJCAI 2017

    BiMPM 是一個經典的交互式模型,它將兩句話用不同的 Bi-LSTM 模型分別編碼,并通過注意力的方式使得當前句子的每一個詞都和另一個句子中的每一個詞建立交互關系(左右句子是對稱的過程),從而學習到更深層次的匹配知識。在交互之后,再通過 Bi-LSTM 模型分別編碼,并最終輸出。

    對于交互的過程,作者設計了四種交互方式,分別為:

    句子 A 中每個詞與句子 B 的最后一個詞進行交互

    句子 A 中每個詞與句子 B 的每個詞進行交互,并求 -wise

    通過句子 A 中的詞篩選句子 B 中的每一個詞,并將句子 B 的詞向量加權求和,最終于 A 詞對比

    與 c 幾乎一致,只不過將加權求和操作變成 -wise

    具體的交互形式是由加權的余弦相似度方式完成。

    其中文本語義相似度計算方法研究,Wk 是參數矩陣,可以理解為 的 query 或者 key,v1 和 v2 分別是要進行交互的兩個詞文本語義相似度計算方法研究,這樣計算 l 次余弦相似度,就會得到 m 向量(一個 l 維向量)。

    BERT: Pre- of Deep for

    BERT 可以認為是語義相似度任務的分水嶺。BERT 論文中對 STS-B 數據集進行有監督訓練,最終達到了 85.8 的 值。這個分數相較于后續絕大部分的改進工作都要高,但 BERT 的缺點也很明顯。對于語義相似度任務來說:

    在有監督范式下,BERT 需要將兩個句子合并成一個句子再對其編碼,如果需要求很多文本兩兩之間的相似度,BERT 則需要將其排列組合后送入模型,這極大的增加了模型的計算量。

    在無監督范式下,BERT 句向量中攜帶的語義相似度信息較少。從下圖可以看出,無論是采用 CLS 向量還是詞向量平均的方式,都還比不過通過 GloVe 訓練的詞向量求平均的方式要效果好。

    基于以上痛點,涌現出一批基于 BERT 改進的優秀工作。

    -BERT: using BERT-, EMNLP 2019

    -BERT 是一篇采用孿生 BERT 架構的工作。-BERT 作者指出,如果想用 BERT 求出 10000 個句子之間兩兩的相似度,排列組合的方式在 V100 GPU 上測試需要花費 65 小時;而如果先求出 10000 個句子,再計算余弦相似度矩陣,則只需要花費 5 秒左右。因此,作者提出了通過孿生網絡架構訓練 BERT 句向量的方式。

    -BERT 一共采用了三種 loss,也就是三種不同的方式訓練孿生 BERT 架構,分別為 Cross- loss,MSE loss 以及 loss,模型圖如下:

    On the from Pre- , EMNLP 2020

    BERT-flow 是一篇通過對 BERT 句向量做后處理的工作。作者認為,直接用 BERT 句向量來做相似度計算效果較差的原因并不是 BERT 句向量中不包含語義相似度信息,而是其中包含的相似度信息在余弦相似度等簡單的指標下無法很好的體現出來。

    首先,作者認為,無論是 還是 ,其實都是在最大化給定的上下文與目標詞的共現概率,也就是 Ct 和 Xt 的貢獻概率。 與 的目標函數如下:

    因此,如果兩句話預測出的 Xt 一致,那么兩句話的 Ct 向量很有可能也是相似的!考慮如下兩句話:

    今天中午吃什么?

    今天晚上吃什么?

    通過這兩句話訓練出的語言模型都通過上下文預測出了“吃“這個字,那說明這兩句話的句向量也很可能是相似的,具有相似的語義信息。

    其次,作者通過觀察發現,BERT 的句向量空間是各向異性的,且高頻詞距離原點較近,低頻詞距離較遠,且分布稀疏。因此 BERT 句向量無法體現出其中包含的相似度信息。

    因此,作者認為可以通過一個基于流的生成模型來對 BERT 句向量空間進行映射。具體來說,作者希望訓練出一個標準的高斯分布,使得該分布中的點可以與 BERT 句向量中的點一一映射。由于該方法采用的映射方式是可逆的,因此就可以通過給定的 BERT 句向量去映射回標準高斯空間,然后再去做相似度計算。由于標準高斯空間是各向同性的,因此能夠將句向量中的語義相似度信息更好的展現出來。

    : of , EMNLP 2021

    是一篇基于對比學習的語義相似度模型。首先,對比學習相較于文本對之間的匹配,可以在拉近正例的同時,同時將其與更多負例之間的距離拉遠,從而訓練出一個更加均勻的超球體向量空間。作為一類無監督算法,對比學習中最重要的創新點之一是如何構造正樣本對,去學習到類別內部的一些本質特征。

    采用的是一個極其樸素,性能卻又出奇的好的方法,那就是將一句話在訓練的時候送入模型兩次,利用模型自身的 來生成兩個不同的 作為正例進行對比。模型圖如下:

    : A for Self- , ACL 2021

    同樣也是一篇基于對比學習的文本相似度工作。 是采用多種數據增強的方式來構造正例的。其中包括對抗攻擊,打亂文本中的詞順序,以及 。這里需要注意的是,雖然 與 都采用了 ,但 的數據增強操作只停留在 layer,而 則是采用了 BERT 所有層中的 。此外,作者實驗證明,在這四種數據增強方式中,Token 和 Token 是最有效的。

    for , AAAI 2018

    注:由于本人工作中涉及的業務主要為智慧醫療,因此會有傾向的關注醫療人工智能領域的方法和模型。

    MACSE 是一篇針對醫學文本的句向量表征工作,雖然其主要關注的是 QA 任務,但他的句向量表征方式在文本相似度任務中同樣適用。

    醫學文本區別于通用文本的一大特征就是包含復雜的多尺度信息,如下:

    因此,我們就需要一個能夠關注到醫學文本多尺度信息的模型。

    在本文中,通過多尺度的卷積操作,就可以有效的提取到文本中的多尺度信息,并且通過注意力機制對多尺度信息進行加權,從而有效的關注到特定文本中在特定尺度上存在的重要信息。

    實驗結果匯總

    以下為眾多基于 BERT 改進的模型在標準數據集上測試的結果,出自 論文:

    可以看到,BERT-flow 相較于原生 BERT 提升了將近 10 個點,而基于對比學習的工作又要比基于后處理的工作的效果好很多。此外需要注意的是,在這里 -BERT 被歸為了有監督模型中。這是因為 -BERT 雖然沒有用到 STS 標簽,但訓練時用的是 NLI 數據集,也用到了 NLI 中人工打標的標簽,因此 作者將 -BERT 歸為了有監督模型中。

    好了,以上就是文本語義相似度領域的研究脈絡和進展,希望能對大家有所幫助。當然 2022 年也有不少優秀的工作出現,不過這一部分就留到以后吧!

    審核編輯 :李倩

網站首頁   |    關于我們   |    公司新聞   |    產品方案   |    用戶案例   |    售后服務   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權所有