首页 > 专利 > 重庆大学 > 基于基音周期混合特征参数的声纹识别方法专利详情

基于基音周期混合特征参数的声纹识别方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2015-05-25
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2015-10-07
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2019-05-28
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2035-05-25
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201510268390.5 申请日 2015-05-25
公开/公告号 CN104900235B 公开/公告日 2019-05-28
授权日 2019-05-28 预估到期日 2035-05-25
申请年 2015年 公开/公告年 2019年
缴费截止日
分类号 G10L17/02G10L17/04 主分类号 G10L17/02
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 6
权利要求数量 7 非专利引证数量 1
引用专利数量 5 被引证专利数量 0
非专利引证 1、杨瑞请,刘光远.“基于BPSO的四种生理信号的情感状态识别”《.计算机科学》.2008,第35卷(第3期),第137-138页. 鲍焕军 郑方“.基于GMM-UBM和SVM说话人辨认系统及融合的分析”《.清华大学学报(自然科学版)》.2008,第48卷(第S1期),全文. 周国鑫,高勇“.基于GMM-UBM模型的说话人辨识研究”《.无线电工程》.2014,第44卷(第12期),第15-17页. 曹红兵 等.“无线传感网中多传感器特征融合算法研究”《.电子与信息学报》.2010,第32卷(第1期),Fenghua Wang,Li Yang“.SPEAKERVERIFICATION SYSTEM USING THE COMBINATIONOF FEATURE PARAMETERS BASED ON C#”. 《Broadband Network and MultimediaTechnology 2010 3rd IEEE InternationalConference》.2010,第883-885页. 郭慧娟.声纹识别的特征参数提取《.太原师范学院学报(自然科学版)》.2008,第7卷(第1期), zhifeng Wang ET AL“.A GMM-UBM basedalgorithm for Identifying RecordingDevice”《.IEEE》.2011,;
引用专利 CN104112165A、CN102800316A、CN103219998A、CN103236260A、JP特开2006-48058A 被引证专利
专利权维持 7 专利申请国编码 CN
专利事件 转让 事务标签 公开、实质审查、授权、权利转移
申请人信息
申请人 第一申请人
专利权人 重庆大学 当前专利权人 芽米科技(广州)有限公司
发明人 李勇明、谢文宾、王品、刘玉川、徐莎 第一发明人 李勇明
地址 重庆市沙坪坝区沙坪坝正街174号 邮编 400044
申请人数量 1 发明人数量 5
申请人所在省 重庆市 申请人所在市 重庆市沙坪坝区
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
重庆为信知识产权代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
陈千
摘要
本发明提供了一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、ΔLPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法对多维特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM‑UBM模型对测试语音进行识别。与单一的语音信号特征参数进行声纹识别相比,采用组合特征参数并使用GMM‑UBM模型的声纹识别系统,有效地提高了声纹识别的识别准确率和系统稳定性。
  • 摘要附图
    基于基音周期混合特征参数的声纹识别方法
  • 说明书附图:[转续页]
    基于基音周期混合特征参数的声纹识别方法
  • 说明书附图:图1
    基于基音周期混合特征参数的声纹识别方法
  • 说明书附图:图2
    基于基音周期混合特征参数的声纹识别方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-02-12 专利权的转移 登记生效日: 2021.02.02 专利权人由重庆大学变更为芽米科技(广州)有限公司 地址由400044 重庆市沙坪坝区沙坪坝正街174号变更为510530 广东省广州市黄埔区科丰路85号801房
2 2019-05-28 授权
3 2015-10-07 实质审查的生效 IPC(主分类): G10L 17/02 专利申请号: 201510268390.5 申请日: 2015.05.25
4 2015-09-09 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于基音周期组合特征参数的声纹识别方法,其特征在于,包括如下步骤:
S1:语音信号的采集输入;
S2:语音信号的预处理,主要包括预加重、分帧和加窗处理;
S3:语音信号组合特征参数提取:提取基音周期、LPCC、△LPCC、能量、能量的一阶差分以及GFCC特征参数共同组合成多维特征向量,其中:LPCC为线性预测倒谱系数,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;
S4:利用离散二进制粒子群优化算法对步骤S3中的多维特征向量进行筛选,将GMM-UBM识别过程中等错误率作为评价函数,选取使得等错误率最小的特征向量作为声纹识别的特征向量,其中所述GMM-UBM为高斯混合模型与通用背景模型相结合的说话人识别模型;
S5:使用GMM-UBM训练得到说话人的声音模型,即将语音库随机选取相应数量的语音训练得到通用背景模型UBM,然后利用最大后验准则自适应得到不同说话人的声音模型;
S6:提取经粒子群优化算法筛选后的测试语音的特征参数,利用步骤S5训练得到的GMM-UBM模型,计算出对数概率得分,选择概率得分最大者,即为目标说话人;
在步骤S4所述的离散二进制粒子群优化算法中,每个粒子的适应度按照以下方式计算:
其中函数: Ai表示
多维特征向量中的第i维参量,Aj表示多维特征向量中的第j维参量,C是说话人的类别,i和j遍历于多维特征向量中的所有维数,H1(Aj)表示确定C之前Aj的熵,H1(C)表示确定Aj之前C的熵,H1(Aj|C)表示确定C之后Aj的熵,H2(Ai)表示确定Aj之前Ai的熵,H2(Aj)表示确定Ai之前Aj的熵,H2(Ai|Aj)表示确定Aj之后Ai的熵;
所述基音周期特征参数提取时,以m/N为步长对语音帧抽样,同时以生成在[1,2]之间的随机数作为抽样点值的倍数矩阵K相乘,获得新的语音帧,然后设定两个备选基音周期之间的路径转移权值为:
然后采用遗传算法,使得两个备选基音周期之间的路径转移权值作为适应度值,通过不断的改变倍数矩阵K的值,使得适应度值最大,然后获得该语音帧信号对应的峰值大小为R(τ),然后获得基音周期T0;
其中m为获得的语音帧的点数,N为语音帧个数,R1(τi)为第一个备选基音周期在第i个点的自相关函数峰值,R2(τj)为第二个备选基音周期在第j个点的自相关函数峰值。

2.根据权利要求1所述的基于基音周期组合特征参数的声纹识别方法,其特征在于,步骤S3中提取1维基音周期,12维LPCC,12维△LPCC,1维能量参数,1维一阶差分能量参数,22维GFCC参数,共同组成的49维特征向量。

3.根据权利要求1或2所述的基于基音周期组合特征参数的声纹识别方法,其特征在于,步骤S4中离散二进制粒子群优化算法的具体步骤包括:
A1:装载训练数据集,设置初始化参数;
A2:随机产生初始群体,并为每个粒子生成随机初始化速度,设置粒子个体极值和群体的全局极值;
A3:评价每个粒子的适应值;
A4:对每个粒子,将其适应值与粒子个体极值的适应值进行比较,如果其适应值优于粒子个体极值的适应值,则将当前粒子的位置作为粒子个体极值;
A5:对每个粒子,将其适应值与群体全局极值的适应值进行比较,如果其适应值优于群体全局极值的适应值,则将当前粒子的位置作为群体全局极值;
A6:更新粒子速度和位置;
A7:判断迭代次数是否达到最大值,如果达到,则进入步骤A8,否则跳转到步骤A3;
A8:把最终的群体全局极值转换为对应的特征子集。

4.根据权利要求3所述的基于基音周期组合特征参数的声纹识别方法,其特征在于,步骤A6中更新粒子速度按照以下公式进行:
式中:
表示第n次迭代时第i个粒子第d维的速度, 表示第n+1次迭代时第i个粒子第d维的速度, 表示第n次迭代时第i个粒子第d维的值, 表示第n次迭代时第i个粒子的粒子个体极值第d维的值, 表示第n次迭代时群体全局极值在第d维的值,d=1,2,...,D表示粒子的维度,总共D维,i=1,2,...,m,m为种群规模,w为惯性权重,c1是粒子跟踪自己历史最优值的权重系数,c2是粒子跟踪群体最优值的权重系数,r1、r2是[0,1]之间的随机数。

5.根据权利要求3所述的基于基音周期组合特征参数的声纹识别方法,其特征在于,更新粒子位置按照以下方法进行:
针对第n+1次迭代时第i个粒子第d维的值而言,先按照 计算位置状
态改变概率;然后随机产生一个(0,1)之间的随机数rand(),如果 则
否则
其中 表示第n次迭代时第i个粒子第d维的速度, 表示第n+1次迭代时第i个粒子第d维的值。

6.根据权利要求1所述的基于基音周期组合特征参数的声纹识别方法,其特征在于,步骤S2中预加重滤波器的参数u取0.95,分帧采用的帧长为256,帧移为100,窗函数采用汉明窗。

7.根据权利要求1所述的基于基音周期组合特征参数的声纹识别方法,其特征在于,步骤S1中利用录音软件Cool Edit录制小语音库,去除静音段,并将噪声衰减10dB,其中采用频率为16KHz,量化比特为16bit的wav文件。
说明书

技术领域

[0001] 本发明涉及语音信号处理领域,具体涉及一种基于基音周期混合特征参数的声纹识别方法。

背景技术

[0002] 在当今信息时代的前提下,作为信息安全的重要组成部分之一的身份识别技术引来了新的挑战。传统的密码识别由于算法的局限性与硬软件解密技术的上升已经展现出了它的弊端。作为身份识别的新技术之一,声纹识别技术,因其独特的方便性、经济性及准确性等优点,受到人们越来越多的重视。
[0003] 声纹识别,就是从说话人的一段语音中提取出说话人的个性特征,通过对个人特征的分析与识别,从而达到对说话人进行辨认或者确认的目的。说话人识别并不注意语音信号的内容,而是希望从语音信号中提取个人的特征,由于每个人独特的声道特性和发音特点,使得说话人的语音信号具有区别于其他说话人的特征,这就是声纹识别的基本依据。
[0004] 声纹识别的关键技术,主要是语音信号的特征参数提取和识别模型的建立。最常用的语音信号的特征参数有两种:一种是根据语音信号的检测周期,基音周期是语音信号处理中最重要的参数之一,它携带着非常重要的语音信息在噪声环境中能体现优势;另一种是根据语音信号的全极点模型得到的线性预测倒谱系数(LPCC),反映了说话人声道的生理结构差异。LPCC特征参数的提取,是基于语音信号为自回归信号的假设,利用线性预测分析从而获得倒谱参数。LPCC参数的最大优点是它能够极为精确地估计语音参数,用很少的参数有效而又正确地表现语音波形机器频谱的性质,而且计算效率高,且对元音有较好的表示能力,它缺点在于不能体现辅音的个性特征,抗噪声性能较差,识别率容易受环境的影响。GFCC参数是根据人耳耳蜗的听觉响应特性模拟而来, 通过Gammatone滤波器模拟人耳处理声音的过程,即Gammatone滤波器倒谱系数,在说话人识别系统中的表现要优于LPCC。因此,采用基音周期、LPCC、GFCC组合特征参数,能够有效地取长补短,使得声纹识别系统具有较好的识别率和稳定性。
[0005] 目前声纹识别系统中的模式匹配方法主要有概率统计方法、动态时间规整(DTW)、矢量量化(VQ)、隐马尔可夫模型(HMM)、人工神经网络方法(ANN)、支持向量机(SVM)、动态贝叶斯网络(DBN)技术以及这些方法的组合技术等。
[0006] 目前在文本无关说话人识别中,概率统计方法使用较为普遍,特别是高斯组合模型(GMM),利用语音中的说话人信息在短时间内较为平稳,通过对稳态特征如基音、声门增益等的统计分析,可以利用均值、方差等统计量和概率密度函数进行分类判决。但是训练语音不足时,基于GMM的声纹识别系统的识别率急剧下降。为了克服因训练语音不够的而不能够很好的刻画说话人的语音特征的缺陷,而引入了通用背景模型(UBM),从而产生了基于GMM-UBM的说话人识别。

发明内容

[0007] 本申请通过提供一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、△LPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法BPSO对语音信号组合特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM-UBM模型对测试语音进行识别,以解决现有技术中利用单一语音参数进行声纹识别的识别准确率不高以及声纹识别系统不稳定的技术问题。
[0008] 为解决上述技术问题,本申请采用以下技术方案予以实现:
[0009] 一种基于基音周期混合特征参数的声纹识别方法,包括如下步骤:
[0010] S1:语音信号的采集输入;
[0011] S2:语音信号的预处理,主要包括预加重、分帧和加窗处理;
[0012] S3:语音信号组合特征参数提取:提取基音周期、LPCC、△LPCC、能量、能量的一阶差分以及GFCC特征参数共同组合成多维特征向量,其中:LPCC为线性预测倒谱系数,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;
[0013] S4:利用离散二进制粒子群优化算法对步骤S3中的多维特征向量进行筛选,将GMM-UBM识别过程中等错误率作为评价函数,选取使得等错误率最小的特征向量作为声纹识别的特征向量,其中所述GMM-UBM为高斯混合模型与通用背景模型相结合的说话人识别模型;
[0014] S5:使用GMM-UBM训练得到说话人的声音模型,即将语音库随机选取相应数量的语音训练得到通用背景模型UBM,然后利用最大后验准则自适应得到不同说话人的声音模型;
[0015] S6:提取经粒子群优化算法筛选后的测试语音的特征参数,利用步骤S5训练得到的GMM-UBM模型,计算出对数概率得分,选择概率得分最大者,即为目标说话人。
[0016] 其中步骤S1中利用录音软件Cool Edit录制小语音库,去除静音段,并将噪声衰减10dB,其中采用频率为16KHz,量化比特为16bit的wav文件,语音与文本无关的连续语音。
[0017] 步骤S2中的语音信号的预处理,主要包括预加重、分帧和加窗处理。
[0018] 1、预加重:由于语音信号的平均功率谱受声门激励和口鼻辐射的影响,高倍频大约在800Hz以上按6dB/倍频跌落,所以求语音信号频谱,频率越高对应的成分越小,高频部分的频谱也越难求,为此要进行预加重处理。其目的是要提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中, 能用同样的信噪比求频谱。预加重一般在语音信号数字化之后,且预加重滤波器是一阶的,其滤波器的实现形式:H(z)=1-u*z-1,其中u一般在(0.9,1)之间。截取一段语音信号,其中采样频率为16Khz,量化比特位为16,随意选取256个采样值。
[0019] 2、分帧、加窗:由于语音信号具有短时平稳性,预处理完成后需对语音信号进行分帧、加窗处理,便于用短时分析技术对语音信号进行处理。通常情况下,每秒钟的帧数约为33~100帧,分帧既可采用连续分段的方法,也可采用交叠分段的方法,但后者可以使帧与帧之间平滑过渡,保持其连续性。前一帧和后一帧的交叠部分称为帧移,帧移和帧长的比值一般取为(0~1/2)。一边将语音信号用可移动有限长度的窗口进行截取即分帧,通常采用的窗函数有矩形窗(Rectangular)、汉明窗(Hamming)和汉宁窗(Hanning)等。
[0020] 语音信号经过预处理之后,将提取特征参数,特征参数的选择应当满足几个原则:第一,易于从语音信号中提取特征参数;第二,不容易被模仿;第三,不随时间和空间变化,具有相对的稳定性;第四,能够有效识别不同的说话人。目前说话人确认系统主要依靠语音的低层次声学特征来进行识别,这些特征可分为时域特征和变换域特征。在本发明的步骤S3中,语音信号组合特征参数提取:即提取提取1维基音周期,12维LPCC,12维△LPCC,1维能量参数,1维一阶差分能量参数,22维GFCC参数,共同组成的49维特征向量。
[0021] 1、基音周期特征参数提取的具体步骤如下:
[0022] (1)令语音信号表示为s(n),语音的归一化自相关函数的表示为
[0023]
[0024] (2)去均值
[0025] 当语音信号在分析窗里有非零均值或有非常低的低频噪声出现时,归一化 自相关函数在所要求的所有延迟上都产生高的相关。于是,在计算ρ(τ)时首先减掉均值,减去均值的信号为s'(n)=s(n)-μ               (2)
[0026]
[0027] (3)时域基音周期粗估计及基音平滑
[0028] 由于语音信号呈现准周期性,在与该帧波形具有较强相似性的地方,R(τ)会出现峰值,但是这些峰值中还需要进一步判断才能确定基音周期。于是获得的语音帧的点数为m,以m/N为步长对语音帧抽样,同时以生成在[1,2]之间的随机数作为抽样点值的倍数矩阵K相乘,获得新的语音帧,对语音信号的每一帧作相应的处理。
[0029] 由于语音信号的平稳性,基音周期曲线也是平滑的,相邻之间的基音周期也是连续的。由于基音周期一般不会发生突变,在度量转移时,周期的值越接近,转移的概率就越大。两个备选基音周期之间的路径转移权值为
[0030]
[0031] 采用遗传算法,使得两个备选基音周期之间的路径转移权值作为适应度值,通过不断的改变倍数矩阵K的值,使得适应度值最大,然后获得该语音帧信号对应的峰值大小为R(τ),然后获得基音周期T0。
[0032] 2、短时归一化能量特征参数提取的具体步骤如下:
[0033] (1)给定语音段中的长度为N的一帧{Si(n),n=1,2,…,N},计算该帧的短时对数能量的公式如下,其中L是语音段的帧数。
[0034]
[0035] (2)由于不同语音段不同语音帧的能量差别比较大,为了使其能够于前 面的倒谱系数一起作为向量计算,需要进行归一化处理。 其中Emax=maxEl,即语音段中最大的对数能量。
[0036] 3、LPCC特征参数提取的具体步骤如下:
[0037] (1)求解线性预测LPC:在线性预测(LPC)分析中,声道模型表示为式(6)的全极点模型,
[0038] 式中p是LPC分析的阶数,ak为线性预测系数(k=1,2,…,p),A(z)为逆滤波器。LPC的分析就是求解线性预测系数ak,本发明采用基于自相关的递推求解公式法(即Durbin算法)。
[0039] (2)求LPC的倒谱系数LPCC:已预处理的语音信号x(n)复倒谱 定义为x(n)的Z变换的对数反Z变换,即为:
[0040]
[0041] 只考虑X(z)的模,忽略它的相位,就得到信号的倒谱c(n)为:
[0042] c(n)=Z-1(log|X(z)|)                              (8)
[0043] LPCC不是由输入语音信号x(n),而是由LPC系数an得到的。LPCC参数Cn的递推公式:
[0044]
[0045] 4、动态特征参数:△LPCC、一阶差分能量参数提取的具体步骤如下:
[0046] 前面介绍的LPCC、能量特征参数只表征了语音谱的及时信息,属于静态参数。实验表明,语音谱的动态信息中也包含有与说话人有关的信息,可以用来提高说话人识别系统的识别率。
[0047] (1)语音倒谱的动态信息是表征语音特征参数随时间变化的规律。语音倒谱随时间的变化可用下式表达:
[0048]
[0049] 公式中,cm表示第m阶倒谱系数,n和k表示倒谱系数在时间轴上的序号。h(k)(k=-K,-K+1,…,K-1,K)为长度是2K+1的窗函数,它通常是对称的。正交多项式的一阶系数Δcm(n)如式(10)所示。
[0050] (2)实际应用中窗函数多采用矩形窗,K通常取2,此时动态参数就称为当前帧的前两帧和后两帧参数的线性组合。所以按照式(10)可以得到LPCC、能量的一阶动态参数。
[0051] 5、GFCC特征参数提取的具体步骤如下:
[0052] (1)对预处理后的语音信号进行短时傅里叶变换,得到其频谱。这里采用快速傅里叶变换FFT来对每一帧语音信号进行离散余弦变换DCT。先将每一帧时域信号x(n)后补若干个0以形成长度为N(本发明中取N=256)的序列,然后对其进行快速傅立叶变换,最后得到线性频谱X(k)。X(k)与x(n)之间的转换公式为:
[0053] (2)获得Gammatone滤波器组,Gammatone滤波器是一个标准的耳蜗听觉滤波器,该滤波器的时域脉冲响应为:
[0054] g(t)=Atn-1e-2πbtcos(2πfi+φi)U(t),t≥0,1≤i≤N    (12)
[0055] 式中,A为滤波器增益,fi是滤波器的中心频率,U(t)是阶跃函数,φi是相位,为了简化模型,令φi为0,n是滤波器的阶数,实验表明n=4时能够很好的模拟人耳耳蜗的滤波特性。
[0056] bi是滤波器的衰减因子,它决定了脉冲响应的衰减速度,并与滤波器的带宽有关,bi=1.019ERB(fi),在听觉心理学中,
[0057]
[0058] 式中,N为滤波器的个数,本发明采用的是N=64,即由64个Gammatone滤波器叠加成的带通滤波器组实现耳蜗模型。各滤波器组的中心频率在ERB域上等间距分布,整个滤波器组的频率覆盖范围为80Hz-8000Hz,每个中心频率的计算公式如下:
[0059]
[0060] 其中fH为滤波器截止频率,vi是滤波器重叠因子,用来指定相邻滤波器之间重叠百分比。每个滤波器中心频率确定后,相应的带宽可由式(14)获得。
[0061] (3)Gammatone滤波器组滤波。对步骤(1)得到的功率谱X(k)取平方得到能量谱,然后用Gammatone滤波组Gm(k)进行滤波处理。得到对数频谱s(m),用来压缩语音谱的动态范围,并将频域中噪声的乘性成分转化成加性成分。
[0062]
[0063] (4)对对数频谱s(m)进行离散余弦变换DCT,得到GFCC参数G(n)。
[0064]
[0065] 步骤S3中提取的组合特征参数可能含有说话人个性特征、话语信息特征等较大的冗余量,所以采用离散粒子群优化算法筛选出能够表征说话人语音个性特征的特征向量,同时也减少了特征量的维度,提高了系统运行的效率和识别率。
[0066] 进一步地,利用离散粒子群优化算法算法对组合特征进行筛选的具体步骤 如下:
[0067] A1:装载训练数据集,设置初始化参数;
[0068] A2:随机产生初始群体,并为每个粒子生成随机初始化速度,设置粒子个体极值和群体的全局极值;
[0069] A3:评价每个粒子的适应值;
[0070] A4:对每个粒子,将其适应值与粒子个体极值的适应值进行比较,如果其适应值优于粒子个体极值的适应值,则将当前粒子的位置作为粒子个体极值;
[0071] A5:对每个粒子,将其适应值与群体全局极值的适应值进行比较,如果其适应值优于群体全局极值的适应值,则将当前粒子的位置作为群体全局极值;
[0072] A6:更新粒子速度和位置;
[0073] A7:判断迭代次数是否达到最大值,如果达到,则进入步骤A8,否则跳转到步骤A3;
[0074] A8:把最终的群体全局极值转换为对应的特征子集。
[0075] 步骤A3的每个粒子的适应度按照以下方式计算:
[0076]
[0077] 其中函数:Ai表示多维特征向量中的第i维参量,Aj表示多维特征向量中的第j维参量,C是说话人的类别,i和j遍历于多维特征向量中的所有维数,H1(Aj)表示确定C之前Aj的熵,H1(C)表示确定Aj之前C的熵,H1(Aj|C)表示确定C之后Aj的熵,H2(Ai)表示确定Aj之前Ai的熵,H2(Aj)表示确定Ai之前Aj的熵,H2(Ai|Aj)表示确定Aj之后Ai的熵。
[0078] 步骤A6中更新粒子速度按照以下公式进行:
[0079]
[0080]
[0081] 式中: 表示第n次迭代时第i个粒子第d维的速度, 表示第n+1次迭代时第i个粒子第d维的速度, 表示第n次迭代时第i个粒子第d维的值, 表示第n次迭代时第i个粒子的粒子个体极值第d维的值, 表示第n次迭代时群体全局极值在第d维的值,d=1,2,...,D表示粒子的维度,总共D维,i=1,2,...,m,m为种群规模,w为惯性权重,c1是粒子跟踪自己历史最优值的权重系数,c2是粒子跟踪群体最优值的权重系数,r1、r2是[0,1]之间的随机数。
[0082] 步骤A6中更新粒子位置按照以下方法进行:
[0083] 针对第n+1次迭代时第i个粒子第d维的值而言,先按照 计算位置状态改变概率;然后随机产生一个(0,1)之间的随机数rand(),如果  则否则
[0084] 其中 表示第n次迭代时第i个粒子第d维的速度, 表示第n+1次迭代时第i个粒子第d维的值。
[0085] 进一步地,在训练语音不足时,基于GMM的声纹识别系统的识别率急剧下降。为了克服因训练语音不够的而不能够很好的刻画说话人的语音特征的缺陷,而引入了通用背景模型(UBM),从而产生了基于GMM-UBM的说话人识别。用GMM-UBM模型对测试语音进行识别。步骤S5中具体包括:
[0086] 高斯组合模型GMM是单一的高斯密度函数的扩展,设有M个单一高斯概率分布函数,一个高斯组合概率分布的定义为: 
[0087] 单一的高斯概率密度函数表示为:
[0088]
[0089] 首先根据每个说话人的语音进行训练得到一组参数:权值,均值,协方差矩阵用来表征说话人的身份,这就需要对各个参数进行估计,也称为模型训练;
[0090] UBM训练过程:只用一个UBM代表所以说话人统计的平均语音特征,UBM训练过程是一个自适应的阶段,实际的应用中可以不断的扩充语音库,用不断增加的语音库来训练得到UBM,似然率计算如下式:
[0091]
[0092] 其中 和 为高斯对角矩阵的均值和方差参数;
[0093] UBM自适应过程:使用最大后验概率MAP对UBM模型的均值μi进行自适应:给定一个UBM模型和说话人X={x1,x2,....xt},得到
[0094]
[0095]
[0096]
[0097] 由上式得高斯模型均值自适应公式为:μi=αEi(x)+(1-α)μi,每个说话人的模型是在UBM上根据说话人的训练语音自适应得到的。
[0098] 进一步地,说话人的识别过程可看作一个假设检验问题,步骤S6具体包括:通过测试说话人的语音,与语音库中建立的语音模板进行匹配,来获得测试语音的身份,假设H0为输入语音,X为目标说话人,H1为冒充者语音,一 个对数似然比分数定义为:
[0099] S(X)=log{p(H0)/p(H1)}                     (24)
[0100] 通过计算似然得分,最大似然得分即为目标说话人。
[0101] 与现有技术相比,本申请提供的技术方案,具有的技术效果或优点是:有效地提高了声纹识别的识别准确率和系统稳定性。

实施方案

[0104] 本申请实施例通过提供一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、△LPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法BPSO对语音信号组合特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM-UBM模型对测试语音进行识别,以解决现有技术中利用单一语音参数进行声纹识别的识别准确率不高以及声纹识别系统不稳定的技术问题。
[0105] 为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式,对上述技术方案进行详细的说明。
[0106] 实施例
[0107] 一种基于基音周期混合特征参数的声纹识别方法,包括如下步骤:
[0108] S1:语音信号的采集输入;
[0109] S2:语音信号的预处理,主要包括预加重、分帧和加窗处理;
[0110] S3:语音信号组合特征参数提取:提取基音周期、LPCC、△LPCC、能量、能量的一阶差分以及GFCC特征参数共同组合成多维特征向量,其中:LPCC 为线性预测倒谱系数,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;
[0111] S4:利用离散二进制粒子群优化算法对步骤S3中的多维特征向量进行筛选,将GMM-UBM识别过程中等错误率EER作为评价函数,选取使得等错误率EER最小的特征向量作为声纹识别的特征向量,其中所述GMM-UBM为高斯混合模型与通用背景模型相结合的说话人识别模型;
[0112] S5:使用GMM-UBM训练得到说话人的声音模型,即将语音库随机选取相应数量的语音训练得到通用背景模型UBM,然后利用最大后验准则自适应得到不同说话人的声音模型;
[0113] S6:提取经粒子群优化算法筛选后的测试语音的特征参数,利用步骤S5训练得到的GMM-UBM模型,计算出对数概率得分,选择概率得分最大者,即为目标说话人。
[0114] 如图1所示,为本发明的工作流程图。
[0115] 其中步骤S1中利用录音软件Cool Edit录制小语音库,去除静音段,并将噪声衰减10dB,其中采用频率为16KHz,量化比特为16bit的wav文件,语音与文本无关的连续语音。为提高语音质量,用Cool Edit软件去除静音段,并将噪声衰减10dB。
[0116] 步骤S2中的语音信号的预处理,主要包括预加重、分帧和加窗处理。
[0117] 1、预加重:由于语音信号的平均功率谱受声门激励和口鼻辐射的影响,高倍频大约在800Hz以上按6dB/倍频跌落,所以求语音信号频谱,频率越高对应的成分越小,高频部分的频谱也越难求,为此要进行预加重处理。其目的是要提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱。预加重一般在语音信号数字化之后,且预加重滤波器是一阶的,其滤波器的实现形式:H(z)=1-u*z-1,其中u一般在(0.9,1)之间。本实施例中u=0.95。截取一段语音信号,其中采样频率为16KHz,量化 比特位为16,随意选取256个采样值。
[0118] 2、分帧、加窗:由于语音信号具有短时平稳性,预处理完成后需对语音信号进行分帧、加窗处理,便于用短时分析技术对语音信号进行处理。通常情况下,每秒钟的帧数约为33~100帧,分帧既可采用连续分段的方法,也可采用交叠分段的方法,但后者可以使帧与帧之间平滑过渡,保持其连续性。前一帧和后一帧的交叠部分称为帧移,帧移和帧长的比值一般取为(0~1/2)。本实施例中帧长为256(32ms),帧移为100。一边将语音信号用可移动有限长度的窗口进行截取即分帧,本例中采用的窗函数为汉明窗。
[0119] 语音信号经过预处理之后,将提取特征参数,特征参数的选择应当满足几个原则:第一,易于从语音信号中提取特征参数;第二,不容易被模仿;第三,不随时间和空间变化,具有相对的稳定性;第四,能够有效识别不同的说话人。目前说话人确认系统主要依靠语音的低层次声学特征来进行识别,这些特征可分为时域特征和变换域特征。在本实施例的步骤S3中,语音信号组合特征参数提取:即提取1维基音周期,12维LPCC,12维△LPCC,1维能量参数,1维一阶差分能量参数,22维GFCC参数,共同组成的49维特征向量。
[0120] 1、基音周期特征参数提取的具体步骤如下:
[0121] (1)令语音信号表示为s(n),语音的归一化自相关函数的表示为
[0122]
[0123] (2)去均值
[0124] 当语音信号在分析窗里有非零均值或有非常低的低频噪声出现时,归一化自相关函数在所要求的所有延迟上都产生高的相关。于是,在计算ρ(τ)时首先减掉均值,减去均值的信号为s'(n)=s(n)-μ            (25)
[0125]
[0126] (3)时域基音周期粗估计及基音平滑
[0127] 由于语音信号呈现准周期性,在与该帧波形具有较强相似性的地方,R(τ)会出现峰值,但是这些峰值中还需要进一步判断才能确定基音周期。于是获得的语音帧的点数为m,以m/N为步长对语音帧抽样,同时以生成在[1,2]之间的随机数作为抽样点值的倍数矩阵K相乘,获得新的语音帧,对语音信号的每一帧作相应的处理。
[0128] 由于语音信号的平稳性,基音周期曲线也是平滑的,相邻之间的基音周期也是连续的。由于基音周期一般不会发生突变,在度量转移时,周期的值越接近,转移的概率就越大。两个备选基音周期之间的路径转移权值为
[0129]
[0130] 采用遗传算法,使得两个备选基音周期之间的路径转移权值作为适应度值,通过不断的改变倍数矩阵K的值,使得适应度值最大,然后获得该语音帧信号对应的峰值大小为R(τ),然后获得基音周期T0。
[0131] 2、短时归一化能量特征参数提取的具体步骤如下:
[0132] (1)给定语音段中的长度为N的一帧{Si(n),n=1,2,…,N},计算该帧的短时对数能量的公式为 其中L是语音段的帧数。
[0133] (2)由于不同语音段不同语音帧的能量差别比较大,为了使其能够于前面的倒谱系数一起作为向量计算,需要进行归一化处理。 其中Emax=maxEl,即语音段中最大的对数能量。
[0134] 3、LPCC特征参数提取的具体步骤如下:
[0135] (1)求解线性预测LPC:在线性预测(LPC)分析中,声道模型表示为式(33)的全极点模型,
[0136] 式中p是LPC分析的阶数,ak为线性预测系数(k=1,2,…,p),A(z)为逆滤波器。LPC的分析就是求解线性预测系数ak,本发明采用基于自相关的递推求解公式法(即Durbin算法)。
[0137] (2)求LPC的倒谱系数LPCC:已预处理的语音信号x(n)复倒谱 定义为x(n)的Z变换的对数反Z变换,即为:
[0138]
[0139] 只考虑X(z)的模,忽略它的相位,就得到信号的倒谱c(n)为:
[0140] c(n)=Z-1(log|X(z)|)                        (30)
[0141] LPCC不是由输入语音信号x(n),而是由LPC系数an得到的。LPCC参数Cn的递推公式:
[0142]
[0143] 4、动态特征参数:△LPCC、一阶差分能量参数提取的具体步骤如下:
[0144] 前面介绍的基音周期、LPCC、能量特征参数只表征了语音谱的及时信息,属于静态参数。实验表明,语音谱的动态信息中也包含有与说话人有关的信息,可以用来提高说话人识别系统的识别率。
[0145] (1)语音倒谱的动态信息是表征语音特征参数随时间变化的规律。语音倒谱随时间的变化可用下式表达:
[0146]
[0147] 公式中,cm表示第m阶倒谱系数,n和k表示倒谱系数在时间轴上的序号。h(k)(k=-K,-K+1,…,K-1,K)为长度是2K+1的窗函数,它通常是对称的。正交多项式的一阶系数Δcm(n)如式(32)所示。
[0148] (2)实际应用中窗函数多采用矩形窗,K通常取2,此时动态参数就称为当前帧的前两帧和后两帧参数的线性组合。所以按照式(32)可以得到基音周期、LPCC、能量的一阶动态参数。
[0149] 5、GFCC特征参数提取的具体步骤如下:
[0150] (1)对预处理后的语音信号进行短时傅里叶变换,得到其频谱。这里采用快速傅里叶变换FFT来对每一帧语音信号进行离散余弦变换DCT。先将每一帧时域信号x(n)后补若干个0以形成长度为N(本发明中取N=256)的序列,然后对其进行快速傅立叶变换,最后得到线性频谱X(k)。X(k)与x(n)之间的转换公式为:
[0151] (2)获得Gammatone滤波器组,Gammatone滤波器是一个标准的耳蜗听觉滤波器,该滤波器的时域脉冲响应为:
[0152] g(t)=Atn-1e-2πbtcos(2πfi+φi)U(t),t≥0,1≤i≤N      (34)[0153] 式中,A为滤波器增益,fi是滤波器的中心频率,U(t)是阶跃函数,φi是相位,为了简化模型,令φi为0,n是滤波器的阶数,实验表明n=4时能够很好的模拟人耳耳蜗的滤波特性。
[0154] bi是滤波器的衰减因子,它决定了脉冲响应的衰减速度,并与滤波器的带宽有关,bi=1.019ERB(fi),在听觉心理学中,
[0155]
[0156] 式中,N为滤波器的个数,本发明采用的是N=64,即由64个Gammatone滤波器叠加成的带通滤波器组实现耳蜗模型。各滤波器组的中心频率在ERB域上等间距分布,整个滤波器组的频率覆盖范围为80Hz-8000Hz,每个中心频率的计算公式如下:
[0157]
[0158] 其中fH为滤波器截止频率,vi是滤波器重叠因子,用来指定相邻滤波器之间重叠百分比。每个滤波器中心频率确定后,相应的带宽可由式(35)获得。
[0159] (3)Gammatone滤波器组滤波。对步骤(1)得到的功率谱X(k)取平方得到能量谱,然后用Gammatone滤波组Gm(k)进行滤波处理。得到对数频谱s(m),用来压缩语音谱的动态范围,并将频域中噪声的乘性成分转化成加性成分。
[0160]
[0161] (4)对对数频谱s(m)进行离散余弦变换DCT,得到GFCC参数G(n)。
[0162]
[0163] 进一步地,步骤S3中提取得到的组合特征参数,可能含有说话人个性特征、话语信息特征等较大的冗余量,所以采用离散粒子群优化算法筛选出能够表征说话人语音个性特征的特征参量,同时也减少了特征量的维度,提高了系统运行的效率和识别率。
[0164] 1、离散二进制粒子群优化(BPSO)算法
[0165] 粒子群优化算法(PSO算法)是Kennedy和Eberhart受到鸟群捕食行为的研究结果启发得到。PSO算法具有执行速度快,受维数变化影响小等优点。
[0166] 离散二进制粒子群优化算法更新粒子速度按照以下公式进行:
[0167]
[0168]
[0169] 式中, 表示第n次迭代时第i个粒子第d维的速度, 表示第n+1次迭代时第i个粒子第d维的速度, 表示第n次迭代时第i个粒子第d维的值, 表示第n次迭代时第i个粒子的粒子个体极值第d维的值, 表示第n次迭代时群体全局极值在第d维的值,d=1,2,...,D表示粒子的维度,总共D维,i=1,2,...,m,m为种群规模,w为惯性权重,c1是粒子跟踪自己历史最优值的权重系数,c2是粒子跟踪群体最优值的权重系数,r1、r2是[0,1]之间的随机数。
[0170] 离散二进制粒子群优化算法采用二进制编码的形式,将每一维的xi和pi限制为1或者0,而速度vi不作这种限制。用速度的Sigmoid函数表示位置状态改变的可能性:
[0171] s(v)=1/(1+e-v)                              (41)
[0172] 更新粒子位置按照以下方法进行:
[0173] 针对第n+1次迭代时第i个粒子第d维的值而言,先按照 计算位置状态改变概率;然后随机产生一个(0,1)之间的随机数rand(),如果  则否则
[0174] 其中 表示第n次迭代时第i个粒子第d维的速度, 表示第n+1次迭代时第i个粒子第d维的值。
[0175] 2、编码模式
[0176] 特征选择的实质就是从M个特征中,选出N个特征构成子集。因此可以把每一个特征定义为粒子的一维离散二进制变量,M个特征构成粒子的M维离散 二进制空间。对于每一个粒子,如果第i位为1,表示第i个特征被选中,反之表示该特征没有被选中。因此,每个粒子代表了一个不同的特征子集,也就是一个候选集。比如,粒子i=100110,那么表明特征1、特征3和特征5被选中,特征子集为{1,3,5}。
[0177] 3、适应度函数
[0178] 在特征选择中,适应度评价函数的选择至关重要。虽然人们提出了距离评测、相关性评测等几种不同的建议,但目前还没有能被一致接纳的度量标准。本发明采用相关性评测方法,其核心思想在于选择一个属性子集,属性各自与类属性有较大关联,但几乎没有内部关联,以此达到消除无关属性,同时也消除重复属性的目的。两属性A和B之间关系可用对称不确定性(symmetric uncertainty)来度量:
[0179]
[0180] 基于相关性的属性选择决定了一个属性集的优良,用公式(43)度量:
[0181]
[0182] 其中,C是类属性,i和j包括属性集里的所有属性。公式(43)也就是粒子群的适应度函数,显然值越大,粒子的适应度越高。
[0183] 因此,在具体实施过程中,步骤A3的每个粒子的适应度的计算公式为: 其中函数:
[0184] Ai表示多维特征向量中的第i维参量,Aj表示多维特征向量中的第j维参量,C是说话人的类别,i和j遍历于多维特征向量中的所有维数,H1(Aj)表示确定C之前Aj的熵, H1(C)表示确定Aj之前C的熵,H1(Aj|C)表示确定C之后Aj的熵,H2(Ai)表示确定Aj之前Ai的熵,H2(Aj)表示确定Ai之前Aj的熵,H2(Ai|Aj)表示确定Aj之后Ai的熵。
[0185] 如图2所示,步骤S4的离散二进制粒子群优化算法具体包括如下步骤:
[0186] A1:装载训练数据集,设置初始化参数;
[0187] A2:随机产生初始群体,并为每个粒子生成随机初始化速度,设置粒子个体极值和群体的全局极值;
[0188] A3:评价每个粒子的适应值;
[0189] A4:对每个粒子,将其适应值与粒子个体极值的适应值进行比较,如果其适应值优于粒子个体极值的适应值,则将当前粒子的位置作为粒子个体极值;
[0190] A5:对每个粒子,将其适应值与群体全局极值的适应值进行比较,如果其适应值优于群体全局极值的适应值,则将当前粒子的位置作为群体全局极值;
[0191] A6:更新粒子速度和位置;
[0192] A7:判断迭代次数是否达到最大值,如果达到,则进入步骤A8,否则跳转到步骤A3;
[0193] A8:把最终的群体全局极值转换为对应的特征子集。
[0194] 进一步地,在训练语音不足时,基于GMM的声纹识别系统的识别率急剧下降。为了克服因训练语音不够的而不能够很好的刻画说话人的语音特征的缺陷,而引入了通用背景模型(UBM),从而产生了基于GMM-UBM的说话人识别。用GMM-UBM模型对测试语音进行识别。步骤S5中具体包括:
[0195] 高斯组合模型GMM是单一的高斯密度函数的扩展,设有M个单一高斯概率分布函数,一个高斯组合概率分布的定义为: 
[0196] 单一的高斯概率密度函数表示为:
[0197]
[0198] 首先根据每个说话人的语音进行训练得到一组参数:权值,均值,协方差矩阵用来表征说话人的身份,这就需要对各个参数进行估计,也称为模型训练;
[0199] UBM训练过程:只用一个UBM代表所以说话人统计的平均语音特征,UBM训练过程是一个自适应的阶段,实际的应用中可以不断的扩充语音库,用不断增加的语音库来训练得到UBM,似然率计算如下式:
[0200]
[0201] 其中 和 为高斯对角矩阵的均值和方差参数;
[0202] UBM自适应过程:使用最大后验概率MAP对UBM模型的均值μi进行自适应:给定一个UBM模型和说话人X={x1,x2,....xt},得到
[0203]
[0204]
[0205]
[0206] 由上式得高斯模型均值自适应公式为:μi=αEi(x)+(1-α)μi,每个说话人的模型是在UBM上根据说话人的训练语音自适应得到的。
[0207] 进一步地,说话人的识别过程可看作一个假设检验问题,步骤S6具体包括:通过测试说话人的语音,与语音库中建立的语音模板进行匹配,来获得测 试语音的身份,假设H0为输入语音,X为目标说话人,H1为冒充者语音,一个对数似然比分数定义为:
[0208] S(X)=log{p(H0)/p(H1)}                    (48)
[0209] 通过计算似然得分,最大似然得分即为目标说话人。
[0210] 本申请的上述实施例中,通过提供一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、△LPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法BPSO对语音信号组合特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM-UBM模型对测试语音进行识别。与单一的语音信号特征参数进行声纹识别相比,采用组合特征参数并使用GMM-UBM模型的声纹识别系统,有效地提高了声纹识别的识别准确率和系统稳定性。
[0211] 应当指出的是,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的普通技术人员在本发明的实质范围内所做出的变化、改性、添加或替换,也应属于本发明的保护范围。

附图说明

[0102] 图1为本发明的工作流程图;
[0103] 图2为本发明的离散二进制粒子群优化算法的工作流程图。
专利联系人(活跃度排行)
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号