操屁眼的视频在线免费看,日本在线综合一区二区,久久在线观看免费视频,欧美日韩精品久久综

新聞資訊

    電路與系統(tǒng)學(xué)報(bào)Vol.11 No.4 2006 , 2006 文章編號(hào):1007-0249 (2006) 04-0051-05 說話人識(shí)別模型失配下的似然得分補(bǔ)償變換 南京工程學(xué)院通信系,江蘇 南京 ;2. 東南大學(xué) 無線電工程系,江蘇 南京 ) 摘要:基于與文本無關(guān)說話人識(shí)別最常用的模型——高斯混合模型(GMM)的輸出幀似然概率的統(tǒng)計(jì)特性,提出 了一種非線性變換方法——似然得分補(bǔ)償法。理論分析和實(shí)驗(yàn)結(jié)果表明:與常用的最大似然(ML)變換相比,該方法 20%。結(jié)果還表明:似然得分補(bǔ)償法基本克服了在與文本無關(guān)說話人識(shí)別系統(tǒng)中,當(dāng)說話人的個(gè)性特征不斷變化、環(huán)境對(duì)系統(tǒng)識(shí)別構(gòu)成影響從而導(dǎo)致識(shí)別模型失配情況下,需要對(duì)模型的得分進(jìn)行補(bǔ)償?shù)木窒蕖?關(guān)鍵詞:與文本無關(guān)說話人識(shí)別;混合高斯模型;似然得分補(bǔ)償變換 中圖分類號(hào):TN912.34 文獻(xiàn)標(biāo)識(shí)碼:A 引言語(yǔ)音是人的自然屬性之一,由于各個(gè)說話人發(fā)音器官的生理差異以及后天形成的發(fā)音習(xí)慣等行為 差異的影響,每個(gè)人的語(yǔ)音中蘊(yùn)含著與眾不同的個(gè)人特征 。說話人識(shí)別就是著眼于提取包含在語(yǔ)音信號(hào)中的個(gè)人特征,以達(dá)到識(shí)別說話人的目的。

    說話人識(shí)別按其被輸入的測(cè)試語(yǔ)音來分可以分為與文 本有關(guān)和與文本無關(guān)的說話人識(shí)別。而與文本無關(guān)的說話人識(shí)別在今天無疑有著更廣泛的應(yīng)用。 對(duì)于與文本無關(guān)的說話人識(shí)別,由于說話人的個(gè)性特征具有長(zhǎng)時(shí)變動(dòng)性,而且其發(fā)音常常與環(huán)境、 說話人情緒、說話人健康有密切關(guān)系 ,實(shí)際過程中還可能引入背景噪聲等干擾,這些都是與文本無關(guān)說話人識(shí)別的識(shí)別率得不到進(jìn)一步提高的主要因素。為了降低這些因素的影響,人們從事了大量的 研究說話人識(shí)別 模型包括,這些研究可分為三個(gè)方面:一、語(yǔ)音降噪,這一方面是研究的熱點(diǎn),譜減法 [2,3] 是對(duì)靜態(tài)噪聲最 常用的方法,由于通常說話人是在非靜態(tài)噪聲環(huán)境下,譜減法帶來了嚴(yán)重的 MUSIC 噪聲 [2,3] ,所以 C.Tradj 等人對(duì)帶噪語(yǔ)音采用 維傅氏變換,然后進(jìn)行 濾波。二、模型優(yōu)化,松井等人 把魯棒的距離尺度DIM (- )應(yīng)用于說話人識(shí)別,把 GMM 的各高斯分布的兩端用一定值(如 等提出了基于最近冒名者的模型, 等人基于結(jié)構(gòu)背景模型提出了一種結(jié)構(gòu)高斯混合模型。三、對(duì)模型輸出的似然概率(得分)進(jìn)行處理,當(dāng)說話人的個(gè)性特征不斷變化、語(yǔ)音與噪聲不能很好地分離或者降噪算法對(duì)語(yǔ)音有損傷、模型不能很 好地匹配時(shí),需要對(duì)似然概率(得分)進(jìn)行補(bǔ)償 ,[10] 提出了采用說話人背景模型的平均似 然函數(shù)來計(jì)算得分; Furui[11] 提出了基于后驗(yàn)概率的模型。

    詐騙電話識(shí)別模型_識(shí)別聰明人的說話_說話人識(shí)別 模型包括

    [12] 將整個(gè)語(yǔ) 句分成若干幀,計(jì)算每幀得分,從而獲得總得分,通過實(shí)驗(yàn)得出識(shí)別率有大的提高。Chen Ke [13] 等人 基于最小風(fēng)險(xiǎn)對(duì)得分進(jìn)行了判決獲得了滿意的結(jié)果。雖然以上沒有考慮目標(biāo)模型和非目標(biāo)模型的幀似 然概率的特性,但同時(shí)也說明對(duì)模型輸出的似然概率進(jìn)行變換,可以提高識(shí)別率。 在基于 GMM 的說話人識(shí)別中,一般來說,通過降噪處理后,目標(biāo)模型得分高的幀要多于其它非 目標(biāo)模型 [16,18,19] ,本文著眼于這一點(diǎn),對(duì)幀似然概率先進(jìn)行歸一化,然后對(duì)得分進(jìn)行部分和平均即似 然得分補(bǔ)償法,以提高系統(tǒng)的穩(wěn)健性,從而進(jìn)一步提高識(shí)別率的方法。理論推導(dǎo)和實(shí)驗(yàn)結(jié)果分析表明, 該方法確實(shí)能夠提高基于GMM 的與文本無關(guān)說話人識(shí)別系統(tǒng)的識(shí)別率。 收稿日期:2004-08-12修訂日期:2004-11-16 基金項(xiàng)目:國(guó)家自然基金(NO:),教育部博士點(diǎn)基金(NO:)和教育部“新世紀(jì)優(yōu)秀人才支持計(jì)劃” 52 電路與系統(tǒng)學(xué)報(bào) 第11 是混合權(quán)值。完整的GMM 。每個(gè)成員密度是一個(gè)D維變量的高斯分布函數(shù),形式如下: 對(duì)于一個(gè)長(zhǎng)度為T的測(cè)試語(yǔ)音時(shí)間序列 ,它的GMM概率可以寫作: 對(duì)幀似然概率的似然得分補(bǔ)償變換在說話人識(shí)別中,一般來說,目標(biāo)模型得分高的幀要多于其它非目標(biāo)模型 [12,14,15] 。

    說話人識(shí)別 模型包括_詐騙電話識(shí)別模型_識(shí)別聰明人的說話

    然而,在本文 的研究中通過觀察發(fā)現(xiàn),由于說話人的個(gè)性特征的長(zhǎng)時(shí)變動(dòng)或者噪聲等干擾的影響,某些測(cè)試幀對(duì)于 目標(biāo)模型的得分小于非目標(biāo)模型的得分(稱為壞幀),這些壞幀對(duì)于非目標(biāo)模型的得分可能比較高,無 形之中,非目標(biāo)模型的總得分拉近甚至有可能超過目標(biāo)模型的得分,從而引起了誤判。為了降低壞幀 的影響,設(shè)想將前幾幀的得分平均值作為當(dāng)前得分值的得分補(bǔ)償,拉近當(dāng)前觀測(cè)值與實(shí)際值之間的距 離,以降低干擾對(duì)幀得分的影響,從而提高識(shí)別率。 根據(jù)上面的分析,本文引入一種非線性變換,該非線性變換方法定義如下: 對(duì)于第 為了縮短同一說話人各幀得分之差,引入補(bǔ)償,計(jì)算當(dāng)前時(shí)刻的前K個(gè)時(shí)刻該模型的得分均值: 稱以上的變換為似然得分補(bǔ)償法。下面來分析該方法在干擾下的特性。為簡(jiǎn)單分析起見,設(shè)只存在兩個(gè)模型 個(gè)時(shí)刻平均得分。可見,模型的幀得分不僅與當(dāng)前時(shí)刻的似然概率有關(guān),而且還與前1 時(shí)刻的似然概率有關(guān)。 在GMM (10)而對(duì)于似然得分補(bǔ)償法,為了計(jì)算的方便,令 ti 包永強(qiáng)等:說話人識(shí)別模型失配下的似然而概率補(bǔ)償變換53 log[10 00 10 log[20 10 20 log[11 01 11 log[21 11 21 (11)合并,整理,去對(duì)數(shù)得: 2111 11 11 01 21 20 10 10 10 00 20 21 11 20 10 2111 11 01 20 10 10 00 1111 10 10 01 11 21 20 00 10 21 11 20 10 2111 11 01 20 10 10 00 (12)式(10)歸一化可得: 21 11 20 10 (13)假設(shè)干擾影響了第2 幀,導(dǎo)致 20 ,如果不采用變換,目標(biāo)模型得分,非目標(biāo)模型的 得分 ,當(dāng)?shù)竭_(dá)一定程度,會(huì)導(dǎo)致: 21 11 20 10 (14)會(huì)直接導(dǎo)致了誤判決。

    說話人識(shí)別 模型包括_識(shí)別聰明人的說話_詐騙電話識(shí)別模型

    對(duì)式(12)來說,即使式(14)成立,如果后面兩項(xiàng)大于0 的話,仍有可能使總得分大于0。 下面進(jìn)行分析: 1)對(duì)第三項(xiàng)來說,當(dāng) 20 時(shí),使得第三項(xiàng)的值得以,但第三項(xiàng)為 項(xiàng),影響可以忽略不計(jì); 2)第二項(xiàng)中,很明顯, 20 的系數(shù)大于0。當(dāng)20 以有效地抵消了干擾帶來的目標(biāo)模型得分的損失。進(jìn)一步分析:假設(shè), 11 11 10 10 >0(多數(shù)情況下,目標(biāo)模型的幀得分均值要大于非目標(biāo)模型的幀得分均值),易知,受到干擾的影響, 20 要小于21 ,一般情況下,第2項(xiàng)的值大于0。 從而使得目標(biāo)模型的總得分可能大于非目標(biāo)模型的總得分。 通過上面的分析,似然得分補(bǔ)償法能夠有效地降低噪聲和干擾對(duì)幀似然概率的影響,從而可以進(jìn) 一步降低誤識(shí)別率。 實(shí)驗(yàn)結(jié)果與分析為了檢驗(yàn)提出的方法的有效性,本文進(jìn)行了比較實(shí)驗(yàn)。實(shí)驗(yàn)一將似然得分補(bǔ)償法與最大似然變換 法進(jìn)行比較,得出無噪聲環(huán)境下采用似然得分補(bǔ)償法的識(shí)別率情況;實(shí)驗(yàn)二是將似然得分補(bǔ)償法與 WMR [12] 方法(方法一)以及文獻(xiàn) 16 提出的排序加權(quán)變換法(方法二)在噪聲環(huán)境下進(jìn)行比較得出噪 聲環(huán)境下,采用似然得分補(bǔ)償法的識(shí)別率情況。實(shí)驗(yàn)中采用 NTT 數(shù)據(jù)庫(kù)。

    識(shí)別聰明人的說話_詐騙電話識(shí)別模型_說話人識(shí)別 模型包括

    NTT 數(shù)據(jù)庫(kù)包括 35 個(gè)說話 人(22 男,13 女)的記錄。它是分 個(gè)時(shí)期持續(xù)10個(gè)月收集得到的。訓(xùn)練時(shí)使用十句語(yǔ)料,五句對(duì) 所有說話人都相同,五句則各不相同,但都來自同一時(shí)期。測(cè)試時(shí)采用來自同一時(shí)期的十句語(yǔ)料。每 句話的平均持續(xù)時(shí)間為 秒。語(yǔ)音信號(hào)經(jīng)12kHz 采樣, 的預(yù)加重,窗長(zhǎng)21.33ms,窗移8ms LPC分析,然后從 14 LPC系數(shù)中求出 12 階的倒譜系數(shù)和 12 階倒譜系數(shù)作 為說話人識(shí)別的特征參數(shù)。 給出了M=16 時(shí)采用似然得 分補(bǔ)償變換的 GMM 的識(shí)別率。從表 中可看出,與不采用變換相比,似然得分補(bǔ)償變換可以得到比較高的識(shí) 一定時(shí),a必須在一合適的范圍之內(nèi),才能獲得很高的識(shí)別率,與最大似然變換相比,當(dāng) =0.01時(shí)采用似然得分補(bǔ)償變換的識(shí)別率提高了 96.4%-95.5%=0.9%說話人識(shí)別 模型包括,從而誤識(shí)率降低 0.010.05 0.1 0.01 0.05 0.1 0.01 0.05 0.1 分補(bǔ)償法95.9 96.2 93.6 96.4 96.0 84.5 94.5 92.2 83.6 最大似然變換 95.5 54 電路與系統(tǒng)學(xué)報(bào) 第11 。合理選擇參數(shù),還可以進(jìn)一步提高識(shí)別率。

    識(shí)別聰明人的說話_說話人識(shí)別 模型包括_詐騙電話識(shí)別模型

    實(shí)驗(yàn) 中可看出與最大似然變換相比,似然得分補(bǔ)償法的識(shí)別率得到了提高,其主要原因是讓各模型的得分進(jìn)一步穩(wěn)定并拉開了距離,由于目標(biāo)說話人對(duì)應(yīng)的好幀 較多,明顯占優(yōu),從而實(shí)現(xiàn)了對(duì)目標(biāo)說話人的得分進(jìn)行了補(bǔ)償,并且有效地降低了對(duì)非目標(biāo)說話人對(duì) 應(yīng)的模型的得分,從而提高了識(shí)別率。 為了在噪聲環(huán)境下測(cè)試似然得分補(bǔ)償變換的性能,進(jìn)行了實(shí)驗(yàn) 2,該實(shí)驗(yàn)在前端不進(jìn)行降噪處理。 實(shí)驗(yàn) 使用的噪聲數(shù)據(jù)是日本電子協(xié)會(huì)標(biāo)準(zhǔn)噪聲數(shù)據(jù)庫(kù)中的行駛中的汽車(組,一般道路)內(nèi) 的噪聲(平穩(wěn)噪聲)和展覽會(huì)中的展示隔間內(nèi)的噪聲(非平穩(wěn)噪聲)。這些噪聲被按一定的信噪比(SNR) 疊加進(jìn)無噪語(yǔ)音中組成帶噪語(yǔ)音。識(shí)別結(jié)果如表2 所示。 看出:1)非線性變換方法的識(shí)別結(jié)果都比最大似然變換方法要好不少;2)三種非線性方法的識(shí)別結(jié)果差別不大,但似然得分 補(bǔ)償法要略好一點(diǎn)。 實(shí)驗(yàn)中發(fā)現(xiàn),相關(guān)幀數(shù)K 不宜過大,否則不僅不會(huì)明顯提 高識(shí)別率,甚至?xí)绊懽R(shí)別率的提高,當(dāng)K 時(shí),系統(tǒng)識(shí)別率就改善不大;同樣a 的選擇也非常重要,一般取a =0.01 左右。 通過表 1、2,發(fā)現(xiàn)似然得分補(bǔ)償法確實(shí)能夠提高系統(tǒng)識(shí)別 率。在噪聲環(huán)境下,與其他非線性方法相比,識(shí)別率也有一定的提高。

    以上的討論都是在語(yǔ)音前端沒 有采用有效的降噪方法情況下給出的,只有當(dāng)語(yǔ)音前端采取有效的降噪措施和采用合適的識(shí)別模型時(shí), 整個(gè)系統(tǒng)才有可能獲得高的識(shí)別率。 小結(jié)在基于 GMM 的與文本無關(guān)的說話人識(shí)別中,實(shí)際環(huán)境和個(gè)人因素一直是影響識(shí)別率提高的原因, 大多數(shù)研究集中在前端處理,但在說話人識(shí)別后端處理方面,國(guó)內(nèi)外研究不多。本文從各模型幀似然 概率的統(tǒng)計(jì)特性出發(fā),提出了一種新的幀似然概率變換方法——似然得分補(bǔ)償法。理論分析和實(shí)驗(yàn)結(jié) 果表明,似然得分補(bǔ)償法能夠提高識(shí)別率。也就是說對(duì)說話人識(shí)別系統(tǒng)的后端處理也能夠提高系統(tǒng)性 語(yǔ)音信號(hào)處理[M].北京: 機(jī)械工業(yè)出版社, 2003. 236-253. . Using . , Rafik . Noise Two- 2003.61-64. . : 2002.320-323. Koh. Using 2-D , 2003, 11(6): 717-724. 古井貞熙.VQ、離散/連續(xù) HMM によるテキスト獨(dú)立話者認(rèn)識(shí)法の比較 電子情報(bào)通信學(xué)會(huì)論文志[C].1994, J77-A(4): 601-607 using Log- Score . , 1980, , Toby . Text- . , 2003, 11(5):447-456. , . ′00 2000.1069-1072. [10] , . , 1995. 91-108. [11] Furui. 10名說話人的平均識(shí)別率 (汽車內(nèi)的噪聲數(shù)據(jù))SNR 識(shí)別 方法 1020 最大似然變換31.9 55.5 83.9 95.5 方法一 48.3 71.4 88.2 95.8 方法二 47.8 73.6 86.6 96.1 分補(bǔ)償法52.3 81.6 90.2 96.4 包永強(qiáng)等:說話人識(shí)別模型失配下的似然而概率補(bǔ)償變換55 391-394. [12] .Text- using frame level IEICE,1996, 96(17): 37-44. [13] Chen Ke. , 2003. 329-346 [14] Rose. text- using . , 1995, 72-83.[15] ,. using - , 1995, 17(1-2): 97-116. [16] 戴紅霞, 采用幀概率變換的與文本無關(guān)說話人識(shí)別系統(tǒng)的實(shí)現(xiàn)[J].電聲技術(shù), 2004, 40-42作者簡(jiǎn)介:包永強(qiáng)(1973-),男,江蘇江陰人,博士,研究方向?yàn)檎Z(yǔ)音信號(hào)處理;趙力,男,江蘇南京人,教授, 博導(dǎo),研究方向?yàn)檎Z(yǔ)音信號(hào)處理;鄒采榮,男,江蘇昆山人,教授,博導(dǎo),副校長(zhǎng),研究方向?yàn)樾盘?hào)處理; score under model BAO Yong-qiang -rong ring, , , China , , , China :Based tic model (GMM) which - model, score non- ratio 20% -(ML) . s, noise . shows . Key words: text- ; model; score 50 PANG Yan-wei, LIU Zheng-kai, YU Neng-hai, ZHANG Qian g , China,Hefei , China based (LDA) (SVD) , when . , LDA-based has () , . LDA,SVD has , . can . can face rate. Key words: face ; ; LDA; SVD;

網(wǎng)站首頁(yè)   |    關(guān)于我們   |    公司新聞   |    產(chǎn)品方案   |    用戶案例   |    售后服務(wù)   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區(qū)    電話:010-     郵箱:@126.com

備案號(hào):冀ICP備2024067069號(hào)-3 北京科技有限公司版權(quán)所有