首页 > 专利 > 杭州电子科技大学 > 一种使用旋律提取与语音合成技术的歌声分离方法专利详情

一种使用旋律提取与语音合成技术的歌声分离方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-08-15
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2020-01-14
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-03-01
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-08-15
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201910754151.9 申请日 2019-08-15
公开/公告号 CN110600055B 公开/公告日 2022-03-01
授权日 2022-03-01 预估到期日 2039-08-15
申请年 2019年 公开/公告年 2022年
缴费截止日
分类号 G10L25/48G10L25/30G10L25/24G10L13/08 主分类号 G10L25/48
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 4
权利要求数量 5 非专利引证数量 1
引用专利数量 2 被引证专利数量 0
非专利引证 1、2015.12.31CN 110516102 A,2019.11.29梁瀚明.“基于深度学习的单声道人声与伴奏分离算法研究”《.中国优秀硕士学位论文全文数据库(信息科技辑)》.2018,C. Hsu 等.“A Tandem Algorithm forSinging Pitch Extraction and VoiceSeparation From Music Accompaniment”. 《IEEE Transactions on Audio, Speech, andLanguage Processing》.2012,;
引用专利 EP2960899A、US2015380014A 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 郑杰文、鄢腊梅、张祥泉、蒋小花、郭渝慧、袁友伟 第一发明人 郑杰文
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 6
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
朱亚冠
摘要
本发明公开一种使用旋律提取与语音合成技术的歌声分离方法。该方法对给定的输入音频作主旋律提取操作,得到歌曲的主旋律与音符时长;建立说话人语音音库并进行HMM训练,得到说话人音库特征模型;对输入音频提取其发音特征,完成说话人音色转换;使用给定的歌词文本利用TTS技术输出语音,结合提取的旋律与音符时长等信息合成得到最终的人声音频。通过合成语音来模拟人声,相较传统歌声分离方法,能极大减少分离后带有的伴奏信息。
  • 摘要附图
    一种使用旋律提取与语音合成技术的歌声分离方法
  • 说明书附图:图1
    一种使用旋律提取与语音合成技术的歌声分离方法
  • 说明书附图:图2
    一种使用旋律提取与语音合成技术的歌声分离方法
  • 说明书附图:图3
    一种使用旋律提取与语音合成技术的歌声分离方法
  • 说明书附图:图4
    一种使用旋律提取与语音合成技术的歌声分离方法
  • 说明书附图:图5
    一种使用旋律提取与语音合成技术的歌声分离方法
  • 说明书附图:图6
    一种使用旋律提取与语音合成技术的歌声分离方法
  • 说明书附图:图7
    一种使用旋律提取与语音合成技术的歌声分离方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-03-01 授权
2 2020-01-14 实质审查的生效 IPC(主分类): G10L 25/48 专利申请号: 201910754151.9 申请日: 2019.08.15
3 2019-12-20 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于该方法包括以下步骤:
步骤S1:歌曲主旋律提取,是利用输入原始歌曲音频的信息,提取其中人声的声乐主旋律,即查找其中的人声基音并绘制旋律线;具体包括以下步骤:
步骤S11:原始歌曲音频预处理,包括音频下采样、分帧加窗、离散傅里叶变换DFT;
步骤S12:歌曲音符分割,包括音频特征提取,分割函数计算,确定分割点;
步骤S13:浊音段检测;对上述步骤S12划分的音频段作浊音段检测,检测公式如下:
其中sign为符号函数,N表示该音频段的帧数,var[n]表示该帧频谱方差,T2为阈值,符号∨表示取大运算;
若上式(8)结果为1则该段为非浊音段,上式(8)结果为‑1或0则该段为浊音段;
步骤S14:基频提取,包括基频音高显著度函数计算,候选基频选取;具体如下:
步骤S141:基频音高显著度函数计算,对步骤S13中得到的浊音段作基频音高显著度计算,其计算公式如下:
‑logf
S(logf)=Y(logf)*(1/(α‑cos(2πe ))‑β)     式(9)
其中S(logf)表示基频音高显著度,Y(logf)表示对数频域,α表示基频控制参数,β为显著度控制因子,β满足∫S(logf)dlog f=0,f表示浊音段音频的频率;
步骤S142:候选基频选取:
查找上述步骤S141计算得的基频音高显著度函数峰值所对应的频率集Ω1;保留频率集Ω1其中80‑1000Hz的频率,得到新集合Ω2;选择Ω2中具有最大显著度的频率,将其放入集合Ω3,同时删去Ω2中与该频率有倍数关系的频率及其半频,重复以上过程直到 选取Ω3中显著度最大的3个作为候选基频集合Ω;
步骤S15:维特比基音对齐:
计算每个浊音段中满足的维特比基音对齐的基频,得到其轨迹;其公式如下:
其中Sn,k表示第n帧中第k个候选基频的音高显著度,p(·)表示音高转移概率;
步骤S16:歌声判别:
利用反向传播神经网络,判断上述提取的基频是否为歌声基频;
若判断为歌声基频,且满足该浊音段基频帧数大于总帧数的1/2,则认为该段的主导基频为歌声主旋律,记为f0;对原始音频中每一段浊音段均作如上操作,最终得到基频合集F0;
当已知基频合集时,同时也得到了由基频确定的音符位置及持续时间,由浊音段确定的音节位置及持续时间;
步骤S2:说话人音库特征模型构建:
首先构建说话人音库,并通过对多个说话人音库的音频特征进行提取,训练其HMM模型,生成决策树,最终得到特征模型;具体包括如下步骤:
步骤S21:说话人音库准备:选择不同的说话人构建说话人音库,每个说话人音库中包含有带人工标注的5个声调的拼音发音音频;
步骤S22:音库音频特征提取:对说话人音库中的音频进行分帧加窗、DFT操作后计算其梅尔频率倒谱系数MFCC,并将MFCC作为该音频的特征信息;
MFCC的计算公式如下:
Mel(f)=2595×lg(1+f/700)   式(11)
其中Mel(f)即为所求的MFCC;
步骤S23:HMM模型训练:
对上述步骤提取的音库音频特征信息MFCC,采用HMM模型对其进行训练,即将MFCC作为模型的输入,并根据公式(12)求解其最大似然估计MLE;
其中,表示最大似然估计,O表示HMM的输出序列,λ表示HMM的状态序列,P为HMM中的概率,S表示输入模型;之后配合MAP最大后验概率算法修正模型,得到单个说话人音库的相关模型;
步骤S24:决策树生成:
对经由上述步骤计算出每个说话人音库的相关模型做决策树生成;选择其中最大似然估计值贡献最大的问题进行节点分裂,并利用最小描述长度MDL作结束标志;利用MDL作结束标志的决策树模型计算公式如下:
DT=argmin(Len(DT)min+Len(Ξ|DT)min)   式(13)
其中DT为所求模型,Len(DT)min表示对DT编码的所需求的最小的编码长度,Len(Ξ|DT)min表示在给定的DT下对Ξ编码的所需的最小的编码长度;
步骤S25:主成分分析及特征模型建立;
将上述步骤建立的决策树中的叶节点参数提取并以此构建矩阵,矩阵行数等同于叶节点个数,矩阵列数等同于叶节点个数与参数维度的乘积;
利用主成分分析法对矩阵作降维处理:首先,将矩阵每列减去相应列的期望,并计算协方差矩阵,协方差矩阵的计算公式如下:
其中ξ,ζ表示矩阵任意两行向量,N表示行向量中元素个数;
利用奇异值分解法计算该协方差矩阵式(14)的特征值与特征向量;取特征值中最大的前k个,并将其对应的k个特征向量作为列向量组成一新的矩阵;然后对新矩阵减去相应行向量的均值与权系数的积,得到特征模型;其中k≤N;
步骤S3:说话人音色转换,具体包括如下:
步骤S31:人声析取:
通过对原始歌曲音频做中置声道析取,得到相对纯净的人声音频,具体地,包括以下步骤:
步骤S311:非中置声道计算;利用左右声道音频的不同,结合歌曲制作者在后期混音过程中多将人声音轨声相设置于声场中间这一特点,计算出非中置声道音频信息,其计算公式如下:
其中,Vl(t)表示歌曲中左声道的信息,Vr(t)表示右声道信息,Vc(t)表示中置声道信息, 表示左声道中除中置声道外的音频信息, 表示右声道中除中置声道外的音频信息, 表示非中置声道音频的估计信息;
步骤S312:中置声道析取;
中置声道的音频信息可由如下公式(17)获取:
其中 表示中置声道音频信息的估计值,V(t)表示原始音频信息;
然后对该中置声道音频 作滤波处理,保留其中80‑1000Hz的频率,得到最终的人声音频即中置声道音频
步骤S32:重复步骤S22,S23操作,得到经HMM模型训练后的人声音频特征信息;
步骤S33:特征模型权系数计算;对步骤S2得到的特征模型计算其权系数,计算公式如下:
其中,spread表示分布,t表示时刻,Pspread(t)表示t时刻下由分布spread确定的概率,espread(i)表示单位矩阵,i=1,2,…,K,K表示列数, 表示由分布spread确定的协方差矩阵的逆,ot表示t时刻的观测序列,即由每个状态生成一个观测,而由此生成的观测的随机序列,μspread表示分布spread下的均值;而μspread又可表示为:
其中ρi即为所需的特征模型权系数;
步骤S34:自适应模型构建;利用上述步骤S33得到的权系数对步骤S2中的特征模型作线性加权,得到目标说话人音色的自适应模型;
步骤S4:人声合成,具体包括以下步骤:
步骤S41:文字到语音TTS转换:
利用原始歌曲音频的歌词,使用TTS系统生成对应的发音,即通过建立一个汉字到拼音的映射表,利用步骤S3中建立的目标说话人音库模型,生成单字的读音;
步骤S42:歌曲演唱发音生成;其发音由以下公式(20)计算得出:
其中y(t)表示目标音频,G(·)表示基频映射函数,该函数只需满足对基频具有一一映射关系即可,ω表示相位,φ(ω)表示相位激励函数,V(ω,t)在给定相位及时刻下的最小位相冲击响应值经DFT转换后的结果, 表示基频合集各基频所对应的持续时间,tk表示基频合集中第k个基频对应的持续时间;
步骤S43:音节时长变换;利用步骤S1得到的音节持续时间,由如下公式计算变换系数:
TS(i)=(TB(i+1)‑len(i‑1))/(TB(i+1)‑TB(i))     式(21)
其中TS(i)表示第i个音符下的变换系数,TB(i)表示第i个音符输出起点,len表示音符时长;
步骤S45:利用步骤S1中得到的基频及音符持续时间,结合上述音节时长变换系数TS(i)、演唱发音y(t),合成得到最终的人声发音。

2.如权利要求1所述的一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于步骤S11具体是:
步骤S111:对原始歌曲音频作下采样处理;使用线性插值法将原始音频采样降至8kHz;
下采样数学公式如下:
其中Sd[i]表示下采样后的音频信息,S表示原始歌曲音频信息,符号 表示向下取整,i代表每个采样点,sf为下采样因子,若原始歌曲音频采样率为44.1kHz,则步骤S112:对S111下采样后的音频作分帧加窗操作,设定窗长为5帧,窗函数使用汉明窗;其公式如下:
Sh[i]=Sd[i]*H[i]   式(3)
其中Sh[i]表示处理后的音频信息,符号*表示卷积运算,H[i]表示汉明窗函数;
步骤S113:DFT变换,对上述分帧后的音频数据做离散傅里叶变换,公式如下:
其中x[i]为DFT变换后的音频信息,符号j为虚数符号。

3.如权利要求1所述的一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于步骤S12具体是:
步骤S121:音频特征提取,优选地,使用八度音阶倒谱系数OSCC作为音频的特征参数,OSCC转换公式如下:
Octave(f)=12log225f×mod12   式(6)
其中f表示原始歌曲音频频率,Octave(f)表示转换后的音频频率,即所需要的音频特征,符号mod表示取模运算;
经公式(6)处理后得到的音频频率范围为64‑16384Hz,对应的八度音阶符号为C2B2‑C9B9;
步骤S122:分割函数计算,其计算公式如下:
其中ΔMV[n]表示第n帧音频前后1帧音频OSCC特征均值的差,符号T表示转置运算,cov[n]b,k表示第n帧前1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素,cov[n]a,k表示第n帧后1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素;
步骤S123:确定分割点;计算D[n]中所有的极大值点,并删除其中小于给定阈值T1的点,剩余的极大值点即为所求的分割点,依据分割点将原始音频划分为不同的音频段。

4.如权利要求1所述的一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于步骤S16使用一个结构为13‑26‑13‑2的反向传播神经网络,即输入层含有13个神经元,隐藏层分别含有26个和13个神经元,输出层含有2个神经元。

5.如权利要求2所述的一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于步骤S22中分帧加窗、DFT分别与步骤S112、S113相同。
说明书

技术领域

[0001] 本发明涉及音乐信息检索领域,具体地,涉及一种使用旋律提取与语音合成技术的歌声分离方法。

背景技术

[0002] 歌声分离是一种将歌曲中的人声部分与乐器伴奏部分分离的技术。利用歌声分离,可以将一首复杂的歌曲音频分离出纯净的人声音频,是歌词对齐、人声识别、歌曲高层语义分析等应用的前置技术。传统的歌声分离方法针对多声道歌曲多采用基于音频信号空间位置差异的提取方法,利用歌曲制作者在制作过程中多将人声音轨放入中置声道这一特点,结合歌曲左右声道音频,计算出远离中置声道的音频信息,并利用该信息与原始音频信息进一步处理得到所需的人声音频。近年来的歌声分离方法则多使用神经网络,利用神经网络具有的高层抽象特征提取能力,对歌曲进行分离。但因人声与伴奏有强烈的泛音重叠,且中置声道往往带有多种打击乐器,上述方法的分离效果并不理想,且最终结果多利用人耳听觉的掩蔽效应得到人类可接受的结果。但作为歌词对齐等方法的前置技术,分离效果中带有的非人声部分会对后继步骤带来不可预见的影响。
[0003] 针对上述问题,仍未有一套行之有效的方法被提出。

发明内容

[0004] 本发明目的在于,针对目前歌曲歌声分离质量差,分离音频中带有非人声部分这一现状,提供一种高效、准确、清晰的分离方法,以弥补传统歌声分离方法的不足。
[0005] 为实现上述目的,本发明提供了一种使用旋律提取与语音合成技术的歌声分离方法,该方法包括以下步骤:对给定的输入音频作主旋律提取操作,得到歌曲的主旋律与音符时长;建立说话人语音音库并进行HMM(隐马尔可夫模型)训练,得到说话人音库特征模型;对输入音频提取其发音特征,完成说话人音色转换;使用给定的歌词文本利用TTS(文字到语音)技术输出语音,结合提取的旋律与音符时长等信息合成得到最终的人声音频。
[0006] 本发明的技术方案如下:
[0007] 一种使用旋律提取与语音合成技术的歌声分离方法,包含如下步骤:
[0008] 步骤S1:歌曲主旋律提取,是利用输入原始歌曲音频的信息,提取其中人声的声乐主旋律,即查找其中的人声基音并绘制旋律线。具体包括以下步骤:
[0009] 步骤S11:原始歌曲音频预处理,包括音频下采样、分帧加窗、DFT(离散傅里叶变换)。具体地:
[0010] 步骤S111:对原始歌曲音频作下采样处理。优选地,使用线性插值法将原始音频采样降至8kHz。下采样数学公式如下:
[0011]
[0012] 其中Sd[i]表示下采样后的音频信息,S表示原始歌曲音频信息,符号 表示向下取整,i代表每个采样点,sf为下采样因子,若原始歌曲音频采样率为44.1kHz,则[0013]
[0014] 步骤S112:对S111下采样后的音频作分帧加窗操作,优选地,设定窗长为5帧,窗函数使用汉明窗。其公式如下:
[0015] Sh[i]=Sd[i]*H[i]  式(3)
[0016]
[0017] 其中Sh[i]表示处理后的音频信息,符号*表示卷积运算,H[i]表示汉明窗函数。
[0018] 步骤S113:DFT变换,对上述分帧后的音频数据做离散傅里叶变换,公式如下:
[0019]
[0020] 其中x[i]为DFT变换后的音频信息,符号j为虚数符号。
[0021] 步骤S12:歌曲音符分割,包括音频特征提取,分割函数计算,确定分割点。具体地:
[0022] 步骤S121:音频特征提取,优选地,使用OSCC(八度音阶倒谱系数)作为音频的特征参数,OSCC转换公式如下:
[0023] Octave(f)=12log225f×mod12  式(6)
[0024] 其中f表示原始歌曲音频频率,Octave(f)表示转换后的音频频率,即所需要的音频特征,符号mod表示取模运算。
[0025] 经公式(6)处理后得到的音频频率范围为64‑16384Hz,对应的八度音阶符号为C2B2‑C9B9。
[0026] 步骤S122:分割函数计算,其计算公式如下:
[0027] D[n]=(ΔMV[n]T×ΔMV[n])/(∑kcov[n]b,k+∑icov[n]a,k)  式(7)
[0028] 其中ΔMV[n]表示第n帧音频前后1帧音频OSCC特征均值的差,符号T表示转置运算,cov[n]b,k表示第n帧前1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素,cov[n]a,k表示第n帧后1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素。
[0029] 步骤S123:确定分割点。计算D[n]中所有的极大值点,并删除其中小于给定阈值T1的点,剩余的极大值点即为所求的分割点,依据分割点将原始音频划分为不同的音频段。
[0030] 步骤S13:浊音段检测。对上述步骤S12划分的音频段作浊音段检测,检测公式如下:
[0031]
[0032] 其中sign为符号函数,N表示该音频段的帧数,var[n]表示该帧频谱方差,T2为给定阈值,符号∨表示取大运算。
[0033] 若上式(8)结果为1则该段为非浊音段,上式(8)结果为‑1或0则该段为浊音段。
[0034] 步骤S14:基频提取,包括基频音高显著度函数计算,候选基频选取。具体地:
[0035] 步骤S141:基频音高显著度函数计算,对步骤S13中得到的浊音段作基频音高显著度计算,其计算公式如下:
[0036] S(logf)=Y(logf)*(1/(α‑cos(2πe‑logf))‑β)  式(9)
[0037] 其中S(logf)表示基频音高显著度,Y(logf)表示对数频域,α表示基频控制参数,在本例中,选取α=1.8,β为显著度控制因子,β需满足∫S(logf)dlogf=0,f表示上述浊音段音频的频率。
[0038] 步骤S142:候选基频选取。查找上述步骤S141计算得的基频音高显著度函数峰值所对应的频率集Ω1;保留频率集Ω1其中80‑1000Hz的频率,得到新集合Ω2;选择Ω2中具有最大显著度的频率,将其放入集合Ω3,同时删去Ω2中与该频率有倍数关系的频率及其半频,重复以上过程直到 选取Ω3中显著度最大的3个作为候选基频集合Ω。
[0039] 步骤S15:维特比基音对齐。计算每个浊音段中满足的维特比基音对齐的基频,得到其轨迹。其公式如下:
[0040]
[0041] 其中Sn,k表示第n帧中第k个候选基频的音高显著度,p(·)表示音高转移概率。
[0042] 步骤S16:歌声判别。利用反向传播神经网络,判断上述提取的基频是否为歌声基频。优选地,使用一个结构为13‑26‑13‑2的反向传播神经网络,即输入层含有13个神经元,隐藏层分别含有26个和13个神经元,输出层含有2个神经元。特别地,在训练神经网络时,对训练样本作同步骤S11相同的预处理操作,再计算其OSCC,以保证神经网络输入参数的一致性。若是歌声基频则统计该浊音段的基频帧数,若该基频帧数大于总帧数的1/2,则认为该段的主导基频为歌声主旋律,记为f0。对原始音频中每一段浊音段均作如上操作,最终得到基频合集F0。注意到,当已知基频合集时,同时也得到了由基频确定的音符位置及持续时间,由浊音段确定的音节位置及持续时间。
[0043] 步骤S2:说话人音库特征模型构建。首先构建说话人音库,并通过对多个说话人音库的音频特征进行提取,训练其HMM模型,生成决策树,最终得到特征模型。具体地,包括如下步骤:
[0044] 步骤S21:说话人音库准备。选择不同的说话人构建说话人音库。在本例中,建立了包含5个男声音库和5个女声音库的说话人音库集。每个音库中包含有带人工标注的5个声调(包括拼音一至四声及轻声)的拼音发音音频共计2060个。
[0045] 步骤S22:音库音频特征提取。对说话人音库中的音频重复步骤S112,S113操作后计算其MFCC(梅尔频率倒谱系数),并将MFCC作为该音频的特征信息。MFCC的计算公式如下:
[0046] Mel(f)=2595×lg(1+f/700)  式(11)
[0047] 其中Mel(f)即为所求的MFCC。
[0048] 步骤S23:HMM模型训练。对上述步骤提取的音库音频特征信息,采用HMM模型对其进行训练,即将MFCC作为模型的输入,并求解其MLE(最大似然估计)。其中最大似然估计的公式如下:
[0049]
[0050] 其中,表示最大似然估计,O表示HMM的输出序列,λ表示HMM的状态序列,P为HMM中的概率,S表示输入模型(即HMM)。之后配合MAP(最大后验概率)算法修正模型,得到单个说话人音库的相关模型。注意到,在此对所有的说话人音库作上述操作,每个音库均生成一个相关模型。
[0051] 步骤S24:决策树生成。对经由上述步骤计算出每个音库的相关模型做决策树生成。选择其中最大似然估计值贡献最大的问题进行节点分裂,并利用MDL(最小描述长度)作结束标志。利用MDL作结束标志的决策树模型计算公式如下:
[0052] DT=argmin(Len(DT)min+Len(Ξ|DT)min)  式(13)
[0053] 其中DT为所求模型,Len(DT)min表示对DT编码的所需求的最小的编码长度,Len(Ξ|DT)min表示在给定的DT下对Ξ编码的所需的最小的编码长度。
[0054] 步骤S25:主成分分析及特征模型建立。
[0055] 将上述步骤建立的决策树中的叶节点参数提取并以此构建矩阵,矩阵行数等同于叶节点个数,矩阵列数等同于叶节点个数与参数维度的乘积。
[0056] 利用主成分分析法对矩阵作降维处理:首先,将矩阵每列减去相应列的期望,并计算协方差矩阵,协方差矩阵的计算公式如下:
[0057]
[0058] 其中ξ,ζ表示矩阵任意两行向量,N表示行向量中元素个数。
[0059] 利用奇异值分解法计算该协方差矩阵式(14)的特征值与特征向量,属于现有成熟技术,故不详解;取特征值中最大的前k个,并将其对应的k个特征向量作为列向量组成一新的矩阵;然后对新矩阵减去相应行向量的均值与权系数的积,得到特征模型。其中k≤N,在实际中依具体情况选择。
[0060] 步骤S3:说话人音色转换。具体地,包括以下步骤:
[0061] 步骤S31:人声析取。通过对原始歌曲音频做中置声道析取,得到相对纯净的人声音频,具体地,包括以下步骤:
[0062] 步骤S311:非中置声道计算。利用左右声道音频的不同,结合歌曲制作者在后期混音过程中多将人声音轨声相设置于声场中间这一特点,计算出非中置声道音频信息,其计算公式如下:
[0063]
[0064]
[0065]
[0066] 其中,Vl(t)表示歌曲中左声道的信息,Vr(t)表示右声道信息,Vc(t)表示中置声道信息, 表示左声道中除中置声道外的音频信息, 表示右声道中除中置声道外的音频信息, 表示非中置声道音频的估计信息。
[0067] 步骤S312:中置声道析取。
[0068] 中置声道的音频信息可由如下公式获取:
[0069]
[0070] 其中 表示中置声道音频信息的估计值,V(t)表示原始音频信息。
[0071] 然后对该中置声道音频 作滤波处理,保留其中80‑1000Hz的频率,得到最终的人声音频即中置声道音频
[0072] 步骤S32:重复步骤S22,S23操作,得到经HMM模型训练后的人声音频特征信息。
[0073] 步骤S33:特征模型权系数计算。对步骤S2得到的特征模型计算其权系数,计算公式如下:
[0074]
[0075] 其中,spread表示分布,t表示时刻,Pspread(t)表示t时刻下由分布spread确定的概率,espread(i)表示单位矩阵,i=1,2,…,K,K表示列数, 表示由分布spread确定的协方差矩阵的逆,ot表示t时刻的观测序列,即由每个状态生成一个观测,而由此生成的观测的随机序列,μspread表示分布spread下的均值。而μspread又可表示为:
[0076]
[0077] 其中ρi即为所需的特征模型权系数。
[0078] 步骤S34:自适应模型构建。利用上述步骤S33得到的权系数对步骤S2中的特征模型作线性加权,得到目标说话人音色的自适应模型。
[0079] 步骤S4:人声合成。具体地,包括以下步骤:
[0080] 步骤S41:TTS(文字到语音)转换。利用原始歌曲音频的歌词,使用TTS系统生成对应的发音,即通过建立一个汉字到拼音的映射表(多音字将由人工在输入歌词时手动标注),利用步骤S3中建立的目标说话人音库模型,生成单字的读音。
[0081] 步骤S42:歌曲演唱发音生成。其发音由以下公式计算得出:
[0082]
[0083] 其中y(t)表示目标音频,G(·)表示基频映射函数,该函数只需满足对基频具有一一映射关系即可,ω表示相位,φ(ω)表示相位激励函数,V(ω,t)在给定相位及时刻下的最小位相冲击响应值经DFT转换后的结果, 表示基频合集各基频所对应的时间位置,tk表示基频合集中第k个基频对应的时间位置;
[0084] 步骤S43:音节时长变换。利用步骤S1得到的音节持续时间,由如下公式计算变换系数:
[0085] TS(i)=(TB(i+1)‑len(i‑1))/(TB(i+1)‑TB(i))  式(21)
[0086] 其中TS(i)表示第i个音符下的变换系数,TB(i)表示第i个音符输出起点,len表示音符时长。
[0087] 步骤S45:利用步骤S1中得到的基频及音符持续时间,结合上述音节时长变换系数TS(i)、演唱发音y(t)等信息,合成得到最终的人声发音。
[0088] 与现有技术相比,本发明所提供的方法具有如下有益效果:
[0089] 伴奏干扰少:通过合成语音来模拟人声,相较传统对现有歌声进行分离的方法,能极大减少分离后带有的伴奏信息。同时,作为MIR领域其他技术的前置方法也能减小因掩蔽效应而遗留的伴奏声所带来的不可预见的影响。
[0090] 分离程度高:本方法创新性的采用了语音合成技术进行歌声分离,相较传统方法,把分离问题转换为旋律提取及歌声合成问题。其最终结果仅与旋律提取及合成效果有关,不存在其它因素的干扰。

实施方案

[0098] 以下将结合附图对本发明所提供的方法作进一步解释说明。
[0099] 使用旋律提取与语音合成技术的歌声分离,在音乐信息检索领域,与传统分离方法相比,将分离问题转换为提取与合成问题,有效避免伴奏干扰,较以往方法具有分离声音清晰,伴奏杂声少的特点,同时在多数情形下的分离程度与传统方法相比更为理想。在主旋律提取中使用OSCC而非传统的MFCC作为音频特征,有着更适用于音乐旋律提取的优点,能在特征提取时就获得其乐理特点。利用多个说话人音库经HMM训练后生成一个均值模型较单一音库模型能在说话人单色转换时有更好的效果,同时亦能大幅降低所需的目标说话人语料,适合歌曲演唱的特点。针对已提取的音节音符时长作时长变换能防止因音符与音节不匹配而导致的词句不对齐错误。因此,本发明提供了一种使用旋律提取与语音合成技术的歌声分离方法。
[0100] 本发明提供了一种使用旋律提取与语音合成技术的歌声分离方法,整体而言,本发明包括四大步骤,步骤S1:歌曲主旋律提取;步骤S2:说话人音库特征模型构建;步骤S3:说话人音色转换;步骤S4:歌曲人声合成。
[0101] 参见图1,为本发明所提供方法的实施步骤流程图,具体地,包括如下步骤:
[0102] 步骤S1:歌曲主旋律提取,是利用输入原始歌曲音频的信息,提取其中人声的声乐主旋律,即查找其中的人声基音并绘制旋律线。参见图2所示,为本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法中主旋律提取步骤的流程图,具体包括以下步骤:
[0103] 步骤S11:原始歌曲音频预处理,包括音频下采样、分帧加窗、DFT(离散傅里叶变换)。具体地:
[0104] 步骤S111:对原始歌曲音频作下采样处理。优选地,使用线性插值法将原始音频采样降至8kHz。下采样数学公式如下:
[0105]
[0106] 其中Sd[i]表示下采样后的音频信息,S表示原始歌曲音频信息,符号 表示向下取整,i代表每个采样点,sf为下采样因子,若原始歌曲音频采样率为44.1kHz,则[0107]
[0108] 步骤S112:对S111下采样后的音频作分帧加窗操作,优选地,设定窗长为5帧,窗函数使用汉明窗。其公式如下:
[0109] Sh[i]=Sd[i]*H[i]  式(3)
[0110]
[0111] 其中Sh[i]表示处理后的音频信息,符号*表示卷积运算,H[i]表示汉明窗函数。
[0112] 步骤S113:DFT变换,对上述分帧后的音频数据做离散傅里叶变换,公式如下:
[0113]
[0114] 其中x[i]为DFT变换后的音频信息,符号j为虚数符号。
[0115] 步骤S12:歌曲音符分割,包括音频特征提取,分割函数计算,确定分割点。具体地:
[0116] 步骤S121:音频特征提取,优选地,使用OSCC(八度音阶倒谱系数)作为音频的特征参数,OSCC转换公式如下:
[0117] Octave(f)=12log225f×mod12  式(6)
[0118] 其中f表示原始歌曲音频频率,Octave(f)表示转换后的音频频率,即所需要的音频特征,符号mod表示取模运算。
[0119] 经公式(6)处理后得到的音频频率范围为64‑16384Hz,对应的八度音阶符号为C2B2‑C9B9。
[0120] 步骤S122:分割函数计算,其计算公式如下:
[0121] D[n]=(ΔMV[n]T×ΔMV[n])/(∑kcov[n]b,k+∑icov[n]a,k)  式(7)
[0122] 其中ΔMV[n]表示第n帧音频前后1帧音频OSCC特征均值的差,符号T表示转置运算,cov[n]b,k表示第n帧前1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素,cov[n]a,k表示第n帧后1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素。
[0123] 步骤S123:确定分割点。计算D[n]中所有的极大值点,并删除其中小于给定阈值T1的点,剩余的极大值点即为所求的分割点,依据分割点将原始音频划分为不同的音频段。
[0124] 步骤S13:浊音段检测。对上述步骤S12划分的音频段作浊音段检测,检测公式如下:
[0125]
[0126] 其中sign为符号函数,N表示该音频段的帧数,var[n]表示该帧频谱方差,T2为给定阈值,符号∨表示取大运算。
[0127] 若上式(8)结果为1则该段为非浊音段,上式(8)结果为‑1或0则该段为浊音段。
[0128] 步骤S14:基频提取,包括基频音高显著度函数计算,候选基频选取。具体地:
[0129] 步骤S141:基频音高显著度函数计算,对步骤S13中得到的浊音段作基频音高显著度计算,其计算公式如下:
[0130] S(logf)=Y(logf)*(1/(α‑cos(2πe‑logf))‑β)  式(9)
[0131] 其中S(logf)表示基频音高显著度,Y(logf)表示对数频域,α表示基频控制参数,在本例中,选取α=1.8,β为显著度控制因子,β需满足∫S(logf)dlogf=0,f表示上述浊音段音频的频率。
[0132] 步骤S142:候选基频选取。查找上述步骤S141计算得的基频音高显著度函数峰值所对应的频率集Ω1;保留频率集Ω1其中80‑1000Hz的频率,得到新集合Ω2;选择Ω2中具有最大显著度的频率,将其放入集合Ω3,同时删去Ω2中与该频率有倍数关系的频率及其半频,重复以上过程直到 选取Ω3中显著度最大的3个作为候选基频集合Ω。
[0133] 步骤S15:维特比基音对齐。计算每个浊音段中满足的维特比基音对齐的基频,得到其轨迹。其公式如下:
[0134]
[0135] 其中Sn,k表示第n帧中第k个候选基频的音高显著度,p(·)表示音高转移概率。
[0136] 步骤S16:歌声判别。利用反向传播神经网络,判断上述提取的基频是否为歌声基频。优选地,使用一个结构为13‑26‑13‑2的反向传播神经网络,即输入层含有13个神经元,隐藏层分别含有26个和13个神经元,输出层含有2个神经元。特别地,在训练神经网络时,对训练样本作同步骤S11相同的预处理操作,再计算其OSCC,以保证神经网络输入参数的一致性。若是歌声基频则统计该浊音段的基频帧数,若该基频帧数大于总帧数的1/2,则认为该段的主导基频为歌声主旋律,记为f0。对原始音频中每一段浊音段均作如上操作,最终得到基频合集F0。注意到,当已知基频合集时,同时也得到了由基频确定的音符位置及持续时间,由浊音段确定的音节位置及持续时间。参见图3基频语谱图所示,其中亮色(浅灰色)代表上述步骤提取的基频,被框中的部分则为该步骤中被选中的歌声基频。
[0137] 步骤S2:说话人音库特征模型构建。首先构建说话人音库,并通过对多个说话人音库的音频特征进行提取,训练其HMM模型,生成决策树,最终得到特征模型。参见图4,本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法中说话人音库特征模型构建步骤的流程图。具体地,包括如下步骤:
[0138] 步骤S21:说话人音库准备。选择不同的说话人构建说话人音库。在本例中,建立了包含5个男声音库和5个女声音库的说话人音库集。每个音库中包含有带人工标注的5个声调(包括拼音一至四声及轻声)的拼音发音音频共计2060个。
[0139] 步骤S22:音库音频特征提取。对说话人音库中的音频重复步骤S112,S113操作后计算其MFCC(梅尔频率倒谱系数),并将MFCC作为该音频的特征信息。MFCC的计算公式如下:
[0140] Mel(f)=2595×lg(1+f/700)  式(11)
[0141] 其中Mel(f)即为所求的MFCC。
[0142] 步骤S23:HMM模型训练。对上述步骤提取的音库音频特征信息,采用HMM模型对其进行训练,并求解其MLE(最大似然估计)。其中最大似然估计的公式如下:
[0143]
[0144] 其中,表示最大似然估计,O表示HMM的输出序列,λ表示HMM的状态序列,P为HMM中的概率,S表示输入模型。之后配合MAP(最大后验概率)算法修正模型,得到单个说话人音库的相关模型。注意到,在此对所有的说话人音库作上述操作,每个音库均生成一个相关模型。
[0145] 步骤S24:决策树生成。对经由上述步骤计算出每个音库的相关模型做决策树生成。选择其中最大似然估计值贡献最大的问题进行节点分裂,并利用MDL(最小描述长度)作结束标志。MDL计算公式如下:
[0146] DT=argmin(Len(DT)min+Len(Ξ|DT)min)  式(13)
[0147] 其中DT为所求模型,Len(DT)min表示对DT编码的所需求的最小的编码长度,Len(Ξ|DT)min表示在给定的DT下对Ξ编码的所需的最小的编码长度。
[0148] 步骤S25:主成分分析及特征模型建立。
[0149] 将上述步骤建立的决策树中的叶节点参数提取并以此构建矩阵,矩阵行数等同于叶节点个数,矩阵列数等同于叶节点个数与参数维度的乘积。
[0150] 利用主成分分析法对矩阵作降维处理:首先,将矩阵每列减去相应列的期望,并计算协方差矩阵,协方差矩阵的计算公式如下:
[0151]
[0152] 其中ξ,ζ表示矩阵任意两行向量,N表示行向量中元素个数。
[0153] 利用奇异值分解法计算该协方差矩阵式(14)的特征值与特征向量,属于现有成熟技术,故不详解;取特征值中最大的前k个,并将其对应的k个特征向量作为列向量组成一新的矩阵;然后对新矩阵减去相应行向量的均值与权系数的积,得到特征模型。其中k≤N,在实际中依具体情况选择。
[0154] 步骤S3:说话人音色转换。参见图5所示,为本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法中说话人音色转换步骤的流程图。具体地,包括以下步骤:
[0155] 步骤S31:人声析取。通过对原始歌曲音频做中置声道析取,得到相对纯净的人声音频,具体地,包括以下步骤:
[0156] 步骤S311:非中置声道计算。利用左右声道音频的不同,结合歌曲制作者在后期混音过程中多将人声音轨声相设置于声场中间这一特点,计算出非中置声道音频信息,其计算公式如下:
[0157]
[0158]
[0159]
[0160] 其中,Vl(t)表示歌曲中左声道的信息,Vr(t)表示右声道信息,Vc(t)表示中置声道信息, 表示左声道中除中置声道外的音频信息, 表示右声道中除中置声道外的音频信息, 表示非中置声道音频的估计信息。
[0161] 步骤S312:中置声道析取。
[0162] 中置声道的音频信息可由如下公式获取:
[0163]
[0164] 其中 表示中置声道音频信息的估计值,V(t)表示原始音频信息。
[0165] 然后对该中置声道音频 作滤波处理,保留其中80‑1000Hz的频率,得到最终的人声音频即中置声道音频
[0166] 步骤S32:重复步骤S22,S23操作,得到经HMM模型训练后的人声音频特征信息。
[0167] 步骤S33:特征模型权系数计算。对步骤S2得到的特征模型计算其权系数,计算公式如下:
[0168]
[0169] 其中,spread表示分布,t表示时刻,Pspread(t)表示t时刻下由分布spread确定的概率,espread(i)表示单位矩阵,i=1,2,…,K,K表示列数, 表示由分布spread确定的协方差矩阵的逆,ot表示t时刻的观测序列,即由每个状态生成一个观测,而由此生成的观测的随机序列,μspread表示分布spread下的均值。而μspread又可表示为:
[0170]
[0171] 其中ρi即为所需的特征模型权系数。
[0172] 步骤S34:自适应模型构建。利用上述步骤S33得到的权系数对步骤S2中的特征模型作线性加权,得到目标说话人音色的自适应模型。
[0173] 步骤S4:人声合成。参见图6所示,为本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法中人声合成步骤的流程图。具体地,包括以下步骤:
[0174] 步骤S41:TTS(文字到语音)转换。利用原始歌曲音频的歌词,使用TTS系统生成对应的发音,即通过建立一个汉字到拼音的映射表(多音字将由人工在输入歌词时手动标注),利用步骤S3中建立的目标说话人音库模型,生成单字的读音。
[0175] 步骤S42:歌曲演唱发音生成。其发音由以下公式计算得出:
[0176]
[0177] 其中y(t)表示目标音频,G(·)表示基频映射函数,该函数只需满足对基频具有一一映射关系即可,ω表示相位,φ(ω)表示相位激励函数,V(ω,t)在给定相位及时刻下的最小位相冲击响应值经DFT转换后的结果, 表示基频合集各基频所对应的时间位置,tk表示基频合集中第k个基频对应的时间位置;
[0178] 步骤S43:音节时长变换。利用步骤S1得到的音节持续时间,由如下公式计算变换系数:
[0179] TS(i)=(TB(i+1)‑len(i‑1))/(TB(i+1)‑TB(i))  式(21)
[0180] 其中TS(i)表示第i个音符下的变换系数,TB(i)表示第i个音符输出起点,len表示音符时长。
[0181] 步骤S45:利用步骤S1中得到的基频及音符持续时间,结合上述音节时长变换系数TS(i)、演唱发音y(t)等信息,合成得到最终的人声发音。
[0182] 下面将对本发明所提供的一种使用旋律提取与语音合成技术的歌声分离方法与传统歌声分离比较,以验证本方法的技术效果:
[0183] 实验所使用的测试歌曲均为双声道立体声音乐,采样率44100Hz,采样深度16位(无抖动),储存格式为wave格式。因本发明使用立体声歌曲作为分离样本,传统的MIR‑1K数据集不再适用。为此,本次对比实验邀请10位非专业音乐人士对歌曲分离程度进行打分,作为本实验的主观评价标准。打分标准分为1‑5分,1分表示分离效果最差,5分表示分离效果最好。
[0184] 对比实验将本发明提供方法与传统的中置声道析取方法,矩阵分解方法,神经网络方法进行比较。中置声道析取法是传统的基于声源空间差异而分离歌声的方法,其假设所分离的歌声位于中央信道,从而利用歌曲左右声道信息差异来估计中央信道。矩阵分解方法,包括非负矩阵分解,鲁棒主成成分析等方法,在本次实验中使用鲁棒主成成分析法,把音频信息分解为一个低秩成分与一个稀疏成分,其中歌声内容一般认为是中等稀疏的,而伴奏则往往是低秩的。神经网络方法则是利用神经网络的高效学习能力,分别学习人声与伴奏模型,得到对应的分离模型,在本次实验中,使用DNN(深度神经网络)进行分离训练。
[0185] 图7展示了不同分离方法的主观评分对比。可以看到传统的中置析取方法的分离效果无法满足人类听觉需要,仅具有研究意义,无法在应用于实际工作中;基于矩阵分解的方法效果较中置析取法有明显改善,但仍能听出较明显的伴奏声;使用神经网络的分离方法分离效果良好,基本满足人类听觉的需求,但在部分歌曲上因训练集不足而导致分离效果不理想;本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法则在多数情况下优于上述方案,且具有良好的鲁棒性,不易因训练不足而导致分离效果不理想,亦能节约分离所需的计算量。
[0186] 以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
[0187] 对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

附图说明

[0091] 图1为本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法框架流程图;
[0092] 图2为本发明步骤S1中主旋律提取方法的流程图;
[0093] 图3为旋律基频语谱图;
[0094] 图4为本发明步骤S2中说话人音库特征模型构建的流程图;
[0095] 图5为本发明步骤S3中话说人音色转换方法的流程图;
[0096] 图6为本发明步骤S4中人声合成方法的流程图;
[0097] 图7为本发明与其它分离方法效果主观评分对比图;
专利联系人(活跃度排行)
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号