一种基于Transformer和CNN长时语音的声纹识别方法
未命名
10-09
阅读:149
评论:0
一种基于transformer和cnn长时语音的声纹识别方法
技术领域
1.本发明涉及声纹识别技术领域,特别是一种基于transformer和cnn的一种长时语音的声纹识别方法。
背景技术:
2.声纹识别是一种生物特征识别技术,通过分析人的语音特征来识别和验证个体身份。但是大部分的声纹识别关注的语音时长为10-30s,对于30s以上语音时长的场景的研究还比较少。长时语音声纹识别是指通过分析人的声音特征来进行身份验证和辨识的技术。与传统的短时声纹识别相比,长时语音声纹识别更具挑战性,因为它需要在长时间的语音输入中准确地提取和比对声音特征。
3.传统的声纹识别系统通常使用基于高斯混合模型(gmm)的特征提取和匹配方法。随着深度学习技术的引入使得长时语音声纹识别实现了更好的性能。使用深度神经网络(dnn)和卷积神经网络(cnn)等模型进行声纹特征的提取和建模可以取得比传统模型更好的识别准确率,但是其识别准确率以及推理速度还有很大的提升空间。
4.因此,有必要提供一种基于transformer和cnn长时语音的声纹识别算法来解决上述技术问题。
技术实现要素:
5.为解决上述技术问题,本发明提出的一种基于transformer和cnn长时语音的声纹识别算法,包括输入长时语音信号、预处理、fank特征提取、识别模型训练、特征匹配与识别、输出识别结果步骤。
6.输入长时语音信号步骤:通过收声设备采集用户的初始音频数据,并获取用户对应身份信息。
7.预处理步骤:在声纹识别之前,需要对原始语音数据进行预处理以提高声纹特征的质量。包括语音切割、噪声去除步骤:
8.fank特征提取步骤:先对语音信号预加重,再通过一个固定的10ms帧位移的25ms汉明窗口进行分析,并利用80个梅尔滤波器组提取80维的取对数后的梅尔滤波器fbank特征。
9.声纹识别模型训练步骤:将提取到的fank特征输入至神经网络模型中进行相关模型训练,将满足识别精度的模型进行输出,得到声纹识别模型。
10.特征匹配与识别步骤:通过与声纹数据标记步骤相同的收声设备采集验证音频数据,并将验证音频数据和声纹注册数据进行基于帧级别特征相似度对比和基于神经网络的相似度对比,判断验证音频数据与声纹注册数据之间的相似度是否满足阈值需求;若满足,则声纹验证成功;否则声纹验证失败。
11.输出识别结果步骤:声纹验证成功,输出说话人的身份。
12.作为更进一步的解决方案,所述使用收声设备所收集的音频数据内容均为超过
60s的长时语音。
13.作为更进一步的解决方案,所述语音切割,将采集到的语音信号切割成较小的帧或片段。
14.作为更进一步的解决方案,所述特征在于噪声去除,通过噪声估计和去噪算法,降低背景噪声对声纹特征的影响。
15.作为更进一步的解决方案,所述特征fank特征提取的数据为带有身份标记信息。
16.作为更进一步的解决方案,所述声纹识别模型训练步骤通过如下具体步骤进行:
17.步骤a1:输入提取到的fank特征。
18.步骤a2:将fank特征进行卷积(convolution)和下采样(subsampling)的操作。
19.步骤a3:使用线性dropout(linear dropout)进行正则化减少神经网络的过拟合现象。
20.步骤a4:进入5个t-cblock模块的步骤。
21.步骤a5:进入concat(concatenate)环节将两个或多个张量拼接在一起。
22.步骤a6:进行layer normalization(层归一化)对神经网络层的激活进行归一化处理,使其在特征维度上具有相似的分布。
23.步骤a7:进行attentive statistic pooling(asp,注意力统计池化),对从序列或特征图中提取有关重要信息的汇总表示。
24.步骤a8:进行linear batch norm(线性批归一化):有助于加速训练过程,并提高神经网络的鲁棒性和泛化能力。
25.步骤a9:得到说话人的嵌入码(speaker embedding)。
26.作为更进一步的解决方案,所述声纹识别模型的t-cblock模块通过如下具体步骤进行:
27.步骤b1:线性dropout之后进入前向传播模块,同时与下一步骤之间有残差计算。
28.步骤b2:在前向传播模块之后transformer模型的多头自注意力模块(multi-head selfattention module),同时与下一步骤之间有残差计算。
29.步骤b3:多头自注意力模块之后进入cnn模型的卷积模块(convolution module),同时与下一步骤之间有残差计算。
30.步骤b4:再次进入前向传播模块(feed forward module),同时与下一步骤之间有残差计算。
31.步骤b5:进行层归一化(layer normalization)处理,使其在特征维度上具有相似的分布。
附图说明
32.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
33.图1是一种基于transformer和cnn长时语音的声纹识别算法的步骤流程图。
34.图2是一种基于transformer和cnn长时语音的声纹识别算法的模型训练的步骤流
程图。
35.图3是一种基于transformer和cnn长时语音的声纹识别算法的t-cblock块的步骤流程图。
具体实施方式
36.以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施条例的各种方面,但是除非特别指出,不必按比例绘制附图。
37.另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
38.如图1、图2、图3所示,本发明提供的一种基于transformer和cnn长时语音的声纹识别算法,包括输入长时语音信号、预处理、fank特征提取、识别模型训练、特征匹配与识别、输出识别结果步骤;
39.输入长时语音信号步骤:通过收声设备采集用户的初始音频数据,并获取用户对应身份信息。
40.预处理步骤:在声纹识别之前,需要对原始语音数据进行预处理以提高声纹特征的质量,包括语音切割、噪声去除步骤。
41.fank特征提取步骤:先对语音信号预加重,再通过一个固定的10ms帧位移的25ms汉明窗口进行分析,并利用80个梅尔滤波器组提取256维的取对数后的梅尔滤波器fbank特征、
42.声纹识别模型训练步骤:将提取到的fank特征输入至神经网络模型中进行相关模型训练,将满足识别精度的模型进行输出,得到声纹识别模型。
43.特征匹配与识别步骤:通过与声纹数据标记步骤相同的收声设备采集验证音频数据,并将验证音频数据和声纹注册数据进行基于帧级别特征相似度对比和基于神经网络的相似度对比,判断验证音频数据与声纹注册数据之间的相似度是否满足阈值需求;若满足,则声纹验证成功;否则声纹验证失败。
44.输出识别结果步骤:声纹验证成功,输出说话人的身份。
45.作为更进一步的解决方案,所述使用收声设备所收集的音频数据内容均为超过60s的长时语音。
46.作为更进一步的解决方案,所述语音切割,将采集到的语音信号切割成较小的帧或片段。
47.作为更进一步的解决方案,所述特征在于噪声去除,通过噪声估计和去噪算法,降低背景噪声对声纹特征的影响。
48.作为更进一步的解决方案,所述特征fank特征提取的数据为带有身份标记信息。
49.作为更进一步的解决方案,所述声纹识别模型训练步骤通过如下具体步骤进行:
50.步骤a1:输入提取到的fank特征。
51.步骤a2:将fank特征进行卷积(convolution)和下采样(subsampling)的操作。
52.步骤a3:使用线性dropout(linear dropout)进行正则化减少神经网络的过拟合
现象。
53.步骤a4:进入5个t-cblock模块的步骤。
54.步骤a5:进入concat(concatenate)环节将两个或多个张量拼接在一起。
55.步骤a6:进行layer normalization(层归一化)对神经网络层的激活进行归一化处理,使其在特征维度上具有相似的分布。
56.步骤a7:进行attentive statistic pooling(asp,注意力统计池化),对从序列或特征图中提取有关重要信息的汇总表示。
57.步骤a8:进行linear batch norm(线性批归一化):有助于加速训练过程,并提高神经网络的鲁棒性和泛化能力。
58.步骤a9:得到说话人的嵌入码(speaker embedding)。
59.作为更进一步的解决方案,所述声纹识别模型的t-cblock模块通过如下具体步骤进行:
60.步骤b1:线性dropout之后进入前向传播模块,同时与下一步骤之间有残差计算。
61.步骤b2:在前向传播模块之后transformer模型的多头自注意力模块(multi-head selfattention module),同时与下一步骤之间有残差计算。
62.步骤b3:多头自注意力模块之后进入cnn模型的卷积模块(convolution module),同时与下一步骤之间有残差计算。
63.步骤b4:再次进入前向传播模块(feed forward module),同时与下一步骤之间有残差计算。
64.步骤b5:进行层归一化(layer normalization)处理,使其在特征维度上具有相似的分布。
技术特征:
1.一种基于transformer和cnn长时语音的声纹识别方法,其特征在于,包括输入长时语音信号、预处理、fank特征提取、识别模型训练、特征匹配与识别、输出识别结果步骤;输入长时语音信号步骤:通过收声设备采集用户的初始音频数据,并获取用户对应身份信息;预处理步骤:在声纹识别之前,需要对原始语音数据进行预处理以提高声纹特征的质量。包括语音切割、噪声去除步骤:fank特征提取步骤:先对语音信号预加重,再通过一个固定的10ms帧位移的25ms汉明窗口进行分析,并利用80个梅尔滤波器组提取80维的取对数后的梅尔滤波器fbank特征;声纹识别模型训练步骤:将提取到的fank特征输入至神经网络模型中进行相关模型训练,将满足识别精度的模型进行输出,得到声纹识别模型;特征匹配与识别步骤:通过与声纹数据标记步骤相同的收声设备采集验证音频数据,并将验证音频数据和声纹注册数据进行基于帧级别特征相似度对比和基于神经网络的相似度对比,判断验证音频数据与声纹注册数据之间的相似度是否满足阈值需求;若满足,则声纹验证成功;否则声纹验证失败。输出识别结果步骤:声纹验证成功,输出说话人的身份。2.根据权利要求1所述的一种基于transformer和cnn长时语音的声纹识别方法,其特征在于,所述使用收声设备所收集的音频数据内容均为超过60s的长时语音。3.根据权利要求1所述的一种基于transformer和cnn长时语音的声纹识别方法,其特征在于,所述语音切割,将采集到的语音信号切割成较小的帧或片段。4.根据权利要求1所述的一种基于transformer和cnn长时语音的声纹识别方法,其特征在于,所述特征在于噪声去除,通过噪声估计和去噪方法,降低背景噪声对声纹特征的影响。5.根据权利要求1所述的一种基于transformer和cnn长时语音的声纹识别方法,其特征在于,所述特征fank特征提取的数据为带有身份标记信息。6.根据权利要求1所述的一种基于transformer和cnn长时语音的声纹识别方法,其特征在于,所述声纹识别模型训练步骤通过如下具体步骤进行:步骤a1:输入提取到的fank特征;步骤a2:将fank特征进行卷积(convolution)和下采样(subsampling)的操作;步骤a3:使用线性dropout(linear dropout)进行正则化减少神经网络的过拟合现象;步骤a4:进入5个t-cblock模块的步骤;步骤a5:进入concat(concatenate)环节将两个或多个张量拼接在一起;步骤a6:进行layer normalization(层归一化)对神经网络层的激活进行归一化处理,使其在特征维度上具有相似的分布。步骤a7:进行attentive statistic pooling(asp,注意力统计池化),对从序列或特征图中提取有关重要信息的汇总表示;步骤a8:进行linear batch norm(线性批归一化):有助于加速训练过程,并提高神经网络的鲁棒性和泛化能力;步骤a9:得到说话人的嵌入码(speaker embedding)。7.根据权利要求1所述的一种基于transformer和cnn长时语音的声纹识别方法,其特
征在于,所述声纹识别模型的t-cblock模块通过如下具体步骤进行:步骤b1:线性dropout之后进入前向传播模块,同时与下一步骤之间有残差计算;步骤b2:在前向传播模块之后transformer模型的多头自注意力模块(multi-head self attention module),同时与下一步骤之间有残差计算;步骤b3:多头自注意力模块之后进入cnn模型的卷积模块(convolution module),同时与下一步骤之间有残差计算;步骤b4:再次进入前向传播模块(feed forward module),同时与下一步骤之间有残差计算;。步骤b5:进行层归一化(layer normalization)处理,使其在特征维度上具有相似的分布。
技术总结
本发明提供的是一种结合Transformer和CNN的一种长时语音的声纹识别方法,涉及音频识别技术领域。该方法步骤包括:S1,输入长时语音信号;S2,对长时语音进行预处理;S3,进行Fbank特征的提取;S4,进行声纹识别模型的训练;S5,特征匹配与识别;S6,输出识别结果;本发明在长时语音的声纹识别上准确率,解码速度更快,在多个数据集上验证后等错率达到了1.2%,其中在Sitw数据集上最好达到了0.9%的等错率。率。率。
技术研发人员:张斌 徐宇强
受保护的技术使用者:桂林电子科技大学
技术研发日:2023.07.04
技术公布日:2023/10/7
版权声明
本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
飞行汽车 https://www.autovtol.com/
