CN116758902A - 一种多人说话场景下音视频识别模型训练及识别方法 - Google Patents
一种多人说话场景下音视频识别模型训练及识别方法 Download PDFInfo
- Publication number
- CN116758902A CN116758902A CN202310645108.5A CN202310645108A CN116758902A CN 116758902 A CN116758902 A CN 116758902A CN 202310645108 A CN202310645108 A CN 202310645108A CN 116758902 A CN116758902 A CN 116758902A
- Authority
- CN
- China
- Prior art keywords
- audio
- model
- data
- video
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims abstract description 71
- 239000011159 matrix material Substances 0.000 claims abstract description 31
- 238000012847 principal component analysis method Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 68
- 230000015654 memory Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 12
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/20—Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种多人说话场景下音视频识别模型训练及识别方法,模型训练方法包括:获取多人说话场景下对应的多个视频数据和单个音频数据,对其进行混合得到训练数据;将训练数据输入预设模型中,得到多个视频数据对应的预测矩阵和CTC损失函数;使用主成分分析方法提取预测矩阵的特征矩阵,根据特征矩阵计算得到KL散度损失函数;根据CTC损失函数和KL散度损失函数计算预设模型的损失函数;利用训练数据循环迭代训练预设模型,直至预测模型的损失函数收敛,得到最优模型。本发明提供的多人说话场景下音视频识别模型训练及识别方法,利用多个视频数据与音频数据混合的方式训练模型,极大提升了多人说话场景下,对唤醒人的语音识别效果。
Description
技术领域
本发明涉及音视频识别技术领域,具体涉及一种多人说话场景下音视频识别模型训练及识别方法。
背景技术
自动语音识别(Automatic Speech Recognition,ASR)技术的目的是让机器能够“听懂”人类的语音,将语音信息转化为文字信息,是实现人机语音交互的关键技术。随着深度学习的逐渐发展,安静环境下的语音识别的准确率高于95%,已经达到可以工业应用的水平。
但在车载语音领域,复杂的背景噪声还有多说话人的声音会对语音质量和语音清晰度产生较大影响,严重影响语音识别性能。语言感知不仅与听觉相关,还与视觉紧密相关,利用跨模态多特征融合的音视频语音识别方法成为提升复杂背景噪音条件下语音识别精度的重要途径。现有的唇语识别及多模态语音识别多利用人的唇形动作视频,提取出有用的语音内容相关的表征,从而进行语音文本内容的自动识别,但由于唇语视频不受环境噪声的干扰,所以融合视觉信号可以有效提升语音识别系统在噪声环境下的鲁棒性;还有一些方法是通过对语音信息、面部视觉信息、唇部视觉信息等进行特征融合,来提升语音识别的准确度。但现有技术都是面向单人说话的视频场景,在多人说话场景下,对唤醒人的语音识别效果较差。
发明内容
有鉴于此,本发明提供一种多人说话场景下音视频识别模型训练及识别方法,解决现有技术中在多人说话场景下,对唤醒人的语音识别效果差的问题。
为达到上述目的,本发明提供如下技术方案:
第一方面,本发明实施例提供了一种多人说话场景下音视频识别模型训练方法,包括:
获取多人说话场景下对应的多个视频数据和单个音频数据,对所述多个视频数据和所述单个音频数据进行混合得到训练数据;
将所述训练数据输入预设模型中,分别得到多个视频数据对应的预测矩阵和CTC损失函数;
使用主成分分析方法提取所述预测矩阵的特征矩阵,根据所述特征矩阵计算得到KL散度损失函数;
根据所述CTC损失函数和所述KL散度损失函数计算所述预设模型的损失函数;
利用训练数据循环迭代对预设模型进行训练,直至预测模型的损失函数收敛,得到最优的模型,作为多人说话场景下音视频识别模型。
本发明实施例提供的多人说话场景下音视频识别模型训练方法,利用多个视频数据与音频数据混合的方式训练模型,加入KL散度损失函数增大模型的区分性,极大提升了在多人说话场景下,对唤醒人的语音识别效果。
可选地,所述训练数据包括:多个视频数据、单个音频数据及多个视频数据各自对应的标签,所述标签为多个视频数据识别结果在预设模型的数据库中对应的位置标签。
利用音视频数据及其在数据库中的位置标签,可以更好的对音视频数据进行处理,提高音视频识别的准确性。
可选地,所述预设模型为基于编码器和卷积神经网络建立的模型。
编码器模型擅长捕获全局影响变量,卷积神经网络模型更适用于本地的局部影响变量,两者结合建立的预测模型可以高效显示音视频矩阵的对局部及全局变量的依赖关系。
可选地,根据所述CTC损失函数和所述KL散度损失函数计算所述预设模型的损失函数的过程为:
KLLoss=1/KL(V1’,V2’……Vn’)*T,其中,KLLoss表示KL散度损失函数,V1’、V2’……Vn’分别为多个视频数据的模型预测矩阵的特征矩阵,KL表示KL散度,T表示温度系数。
利用多个视频数据的模型预测矩阵和其对应的标签分别计算得到各自的CTC损失函数:loss1、loss2……lossn;
通过公式:loss=a*loss1+b*loss2+……+c*lossn+dKLLoss计算所述预测模型的损失函数,其中,loss表示预测模型的损失函数,a、b、……、c、d分别为各损失函数对应的权重。
利用CTC损失函数使模型学习语音识别的能力,KL散度可以加大不同视频在相同音频下的区分度,有利于提高模型的区分度。
可选地,对所述多个视频数据和所述单个音频数据进行混合得到训练数据的过程为:
使用不同信噪比的噪声/人声对所述单个音频数据进行混合得到一个音频混合数据;将所述音频混合数据分别与多个视频数据进行组合,得多个混合后的训练数据。
对原始数据直接进行混合,预处理过程简单方便,且保持原始数据的真实性,使训练数据更准确。
第二方面,本发明实施例提供了一种多人说话场景下音视频识别模型训练装置,所述装置包括:
数据获取模块,用于获取多人说话场景下对应的多个视频数据和单个音频数据,对所述多个视频数据和所述单个音频数据进行混合得到训练数据;
训练模块,用于将所述训练数据输入预设模型中,分别得到多个视频数据对应的预测矩阵和CTC损失函数;
计算模块,用于使用主成分分析方法提取所述预测矩阵的特征矩阵,根据所述特征矩阵计算得到KL散度损失函数;
反向回传模块,用于根据所述CTC损失函数和所述KL散度损失函数计算所述预设模型的损失函数;
循环迭代模块,用于利用训练数据循环迭代对预设模型进行训练,直至预测模型的损失函数收敛,得到最优的模型,作为多人说话场景下音视频识别模型。
本发明实施例提供的多人说话场景下音视频识别模型训练装置,利用多个视频数据与音频数据混合的方式训练模型,加入KL散度损失函数增大模型的区分性,极大提升了在多人说话场景下,对唤醒人的语音识别效果。
第三方面,本发明实施例提供了一种多人说话场景下音视频识别方法,包括:
采集多人说话场景下待识别的音视频数据;
将待识别的音视频数据输入到基于第一方面任一所述的多人说话场景下音视频识别模型训练方法得到的多人说话场景下音视频识别模型,得到匹配识别结果。
本发明实施例提供的多人说话场景下音视频识别方法,利用第一方面任一项所述的模型训练方法,极大提升了在多人说话场景下,对唤醒人的语音识别效果。
第四方面,本发明实施例提供了一种多人说话场景下音视频识别装置,所述装置包括:
音视频数据采集模块,用于采集多人说话场景下待识别的音视频数据;
匹配识别模块,用于将待识别的音视频数据输入到基于第一方面任一所述的多人说话场景下音视频识别模型训练方法得到的多人说话场景下音视频识别模型,得到匹配识别结果。
本发明实施例提供的多人说话场景下音视频识别装置,利用第一方面任一项所述的模型训练方法,极大提升了在多人说话场景下,对唤醒人的语音识别效果。
第五方面,本发明实施例提供了一种计算机设备,包括:存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行第一方面或第一方面任意一种可选实施方式中或第三方面所述的方法。
第六方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行第一方面或第一方面任意一种可选实施方式中或第三方面所述的方法。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种多人说话场景下音视频识别模型训练方法的流程图;
图2为本发明实施例提供的一种多人说话场景下音视频识别模型训练方法的整体工作过程示意图;
图3为本发明实施例提供的一种多人说话场景下音视频识别模型训练装置的结构示意图;
图4为本发明实施例提供的一种多人说话场景下音视频识别方法的流程图;
图5为本发明实施例提供的一种多人说话场景下音视频识别装置的结构示意图;
图6为本发明实施例提供的一种计算机设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,还可以是两个元件内部的连通,可以是无线连接,也可以是有线连接。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1
本发明实施例提供了一种多人说话场景下音视频识别模型训练方法,如图1所示,模型训练方法包括:
步骤S11:获取多人说话场景下对应的多个视频数据和单个音频数据,对多个视频数据和单个音频数据进行混合得到训练数据。示例性地,如多个人在车内环境中同时说话,多个人的声音交杂在一起,无法通过降噪等手段去除无关的人声,而面部运动信息通过视频获取、相对比较稳定,因此可以使用人脸及唇部动作的信息来辅助进行语音识别。声音的混合包括人声加噪声(噪声包括自然噪声及无法识别的人声)、人声加人声两种混合方式,根据混合方式的不同生成训练数据(假设唤醒关键词为“你好深蓝”,人声加噪声的情况下视频信息为第一视频和空,对应的标签为“你好深蓝”和“空”;人声加人声的情况下,视频信息为第一视频、第二视频……第N视频,对应的标签为“你好深蓝”、其他人声所包含的文字信息)。实际应用中,视频数据和音频数据是一一对应的,在对多数据混合的过程中,视频数据是保持不变,主要是对音频数据进行混噪、混人声,可以使用不同信噪比的噪声/人声对所述单个音频数据进行混合得到一个音频混合数据;将所述音频混合数据分别与多个视频数据进行组合,得多个混合后的训练数据。对原始数据直接进行混合,预处理过程简单方便,且保持原始数据的真实性,使训练数据更准确。
步骤S12:将训练数据输入预设模型中,分别得到多个视频数据对应的预测矩阵和CTC损失函数。具体地,在一实施例中,训练数据包括:多个视频数据、单个音频数据及多个视频数据各自对应的标签,标签为多个视频数据识别结果在预设模型的数据库中对应的位置标签。利用音视频数据及其在数据库中的位置标签,可以更好的对音视频数据进行处理,提高音视频识别的准确性。具体地,在一实施例中,预设模型为基于编码器和卷积神经网络建立的模型。编码器模型擅长捕获全局影响变量,卷积神经网络模型更适用于本地的局部影响变量,两者结合建立的预测模型可以高效显示音视频矩阵的对局部及全局变量的依赖关系。
如图2所示为预设模型对训练数据的处理过程,视频经过视频的Front-end层(3Dresnet)和back-end层(4层conformer),得到提取的视频信息;音频经过音频的Front-end层(resnet)和back-end层(4层conformer,conformer主要是使用attention机制来构建的一个新的深度神经网络架构),得到提取的音频信息。然后通过Fusion Module将视频信息和音频信息拼接到一起,再经过Encoder层(6层conformer)对视频信息和音频信息的拼接结果进行处理,后经过全连接层Linear膨胀和缩放后进入CTC阶段,CTC阶段计算得到多个视频数据对应的预测矩阵(V1、V2……),然后利用所述预测矩阵与其对应的标签分别计算得到其对应的CTC损失函数(loss1、loss2……)。
步骤S13:使用主成分分析方法提取预测矩阵的特征矩阵,根据特征矩阵计算得到KL散度损失函数。示例性地,在CTC阶段计算得到的多个视频数据对应的预测矩阵,利用主成分分析方法(Principal Component Analysis,PCA)提取到各预测矩阵(V1、V2……)的特征矩阵(V1’、V2’……),通过公式KLLoss=1/KL(V1’,V2’……Vn’)*T计算KL散度损失函数,其中,KLLoss表示KL散度损失函数,V1’、V2’……Vn’分别为多个视频数据的模型预测矩阵的特征矩阵,KL表示KL散度,T表示温度系数。
步骤S14:根据CTC损失函数和KL散度损失函数计算预设模型的损失函数。
具体地,在一实施例中,根据CTC损失函数和KL散度损失函数计算预设模型的损失函数的过程为:
KLLoss=1/KL(V1’,V2’……Vn’)*T,其中,KLLoss表示KL散度损失函数,V1’、V2’……Vn’分别为多个视频数据的模型预测矩阵的特征矩阵,KL表示KL散度,T表示温度系数,用于与其他loss适配。
利用多个视频数据的模型预测矩阵和其对应的标签分别计算得到各自的CTC损失函数:loss1、loss2……lossn;
通过公式:loss=a*loss1+b*loss2+……+c*lossn+d*KLLoss计算预测模型的损失函数,其中,loss表示预测模型的损失函数,a、b、……、c、d分别为各损失函数对应的权重。
需要说明的是,若如图2中与linear层处于同一层的还有deocoder层,deocoder是为了联合训练CTC阶段和conformer层的attention,deocoder层和linear层有相同的处理方法,处理后deocoder层输出CEloss,预设模型的损失函数为:loss=alpha*ctcloss+(1-alpha)*celoss+d*KLLoss,其中ctcloss=a*loss1+b*loss2+……+c*lossn,celoss=a*loss_ce1+b*loss_ce2+……+c*loss_cen,alpha、beat为模型参数。
利用CTC损失函数使模型学习语音识别的能力,KL散度可以加大不同视频在相同音频下的区分度,有利于提高模型的区分度。
步骤S15:利用训练数据循环迭代对预设模型进行训练,直至预测模型的损失函数收敛,得到最优的模型,作为多人说话场景下音视频识别模型。
本发明实施例提供的多人说话场景下音视频识别模型训练方法,利用多个视频数据与音频数据混合的方式训练模型,加入KL散度损失函数增大模型的区分性,极大提升了在多人说话场景下,对唤醒人的语音识别效果。
实施例2
本发明实施例提供了一种多人说话场景下音视频识别模型训练装置,如图3所示,该模型训练装置包括:
数据获取模块11,用于获取多人说话场景下对应的多个视频数据和单个音频数据,对多个视频数据和单个音频数据进行混合得到训练数据。详细内容参见上述方法实施例中步骤S11的相关描述,在此不再进行赘述。
训练模块12,用于将训练数据输入预设模型中,分别得到多个视频数据对应的预测矩阵和CTC损失函数。详细内容参见上述方法实施例中步骤S12的相关描述,在此不再进行赘述。
计算模块13,用于使用主成分分析方法提取预测矩阵的特征矩阵,根据特征矩阵计算得到KL散度损失函数。详细内容参见上述方法实施例中步骤S13的相关描述,在此不再进行赘述。
反向回传模块14,用于根据CTC损失函数和KL散度损失函数计算预设模型的损失函数。详细内容参见上述方法实施例中步骤S14的相关描述,在此不再进行赘述。
循环迭代模块15,用于利用训练数据循环迭代对预设模型进行训练,直至预测模型的损失函数收敛,得到最优的模型,作为多人说话场景下音视频识别模型。详细内容参见上述方法实施例中步骤S15的相关描述,在此不再进行赘述。
本发明实施例提供的多人说话场景下音视频识别模型训练装置,利用多个视频数据与音频数据混合的方式训练模型,加入KL散度损失函数增大模型的区分性,极大提升了在多人说话场景下,对唤醒人的语音识别效果。
实施例3
本发明实施例提供了一种多人说话场景下音视频识别方法,如图4所示,音视频识别方法包括:
步骤S21:采集多人说话场景下待识别的音视频数据;
步骤S22:将待识别的音视频数据输入到基于实施例1任一项多人说话场景下音视频识别模型训练方法得到的多人说话场景下音视频识别模型,得到匹配识别结果。示例性地,匹配过程为一个个音频片段输入模型,输出个数与输入的维度一样(即有M个音频片段,就输出M个维度的概率向量,每个向量又由字典个数的概率组成)。例如网络输入音频个数定为M,字典中不同字的个数为N,那么模型输出的维度为M×N。根据这个概率输出分布,得到最可能的输出结果。
本发明实施例提供的多人说话场景下音视频识别方法,利用实施例1中任一项的模型训练方法,极大提升了在多人说话场景下,对唤醒人的语音识别效果。
实施例4
本发明实施例提供了一种多人说话场景下音视频识别装置,如图5所示,音视频识别装置包括:
音视频数据采集模块21,用于采集多人说话场景下待识别的音视频数据。详细内容参见上述方法实施例中步骤S21的相关描述,在此不再进行赘述。
匹配识别模块22,用于将待识别的音视频数据输入到基于实施例1任一项多人说话场景下音视频识别模型训练方法得到的多人说话场景下音视频识别模型。详细内容参见上述方法实施例中步骤S22的相关描述,在此不再进行赘述。
本发明实施例提供的多人说话场景下音视频识别装置,利用实施例1中任一项的模型训练方法,极大提升了在多人说话场景下,对唤醒人的语音识别效果。
实施例5
图6示出了本发明实施例中计算机设备的结构示意图,包括:处理器901和存储器902,其中,处理器901和存储器902可以通过总线或者其他方式连接,图6中以通过总线连接为例。
处理器901可以为中央处理器(Central Processing Unit,CPU)。处理器901还可以为其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。
存储器902作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如上述方法实施例中的方法所对应的程序指令/模块。处理器901通过运行存储在存储器902中的非暂态软件程序、指令以及模块,从而执行处理器的各种功能应用以及数据处理,即实现上述方法实施例中的方法。
存储器902可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储处理器901所创建的数据等。此外,存储器902可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器902可选包括相对于处理器901远程设置的存储器,这些远程存储器可以通过网络连接至处理器901。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
一个或者多个模块存储在存储器902中,当被处理器901执行时,执行上述方法实施例中的方法。
上述计算机设备具体细节可以对应参阅上述方法实施例中对应的相关描述和效果进行理解,此处不再赘述。
本领域技术人员可以理解,实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,实现的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)、随机存储记忆体(Random Access Memory,RAM)、快闪存储器(Flash Memory)、硬盘(Hard Disk Drive,缩写:HDD)或固态硬盘(Solid-State Drive,SSD)等;存储介质还可以包括上述种类的存储器的组合。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下作出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (10)
1.一种多人说话场景下音视频识别模型训练方法,其特征在于,包括:
获取多人说话场景下对应的多个视频数据和单个音频数据,对所述多个视频数据和所述单个音频数据进行混合得到训练数据;
将所述训练数据输入预设模型中,分别得到多个视频数据对应的预测矩阵和CTC损失函数;
使用主成分分析方法提取所述预测矩阵的特征矩阵,根据所述特征矩阵计算得到KL散度损失函数;
根据所述CTC损失函数和所述KL散度损失函数计算所述预设模型的损失函数;
利用训练数据循环迭代对预设模型进行训练,直至预测模型的损失函数收敛,得到最优的模型,作为多人说话场景下音视频识别模型。
2.根据权利要求1所述多人说话场景下音视频识别模型训练方法,其特征在于,所述训练数据包括:多个视频数据、单个音频数据及多个视频数据各自对应的标签,所述标签为多个视频数据识别结果在预设模型的数据库中对应的位置标签。
3.根据权利要求1所述多人说话场景下音视频识别模型训练方法,其特征在于,所述预设模型为基于编码器和卷积神经网络建立的模型。
4.根据权利要求3所述多人说话场景下音视频识别模型训练方法,其特征在于,根据所述CTC损失函数和所述KL散度损失函数计算所述预设模型的损失函数的过程为:
KLLoss=1/KL(V1’,V2’……Vn’)*T,其中,KLLoss表示KL散度损失函数,V1’、V2’……Vn’分别为多个视频数据的模型预测矩阵的特征矩阵,KL表示KL散度,T表示温度系数;
利用多个视频数据的模型预测矩阵和其对应的标签分别计算得到各自的CTC损失函数:loss1、loss2……lossn;
通过公式:loss=a*loss1+b*loss2+……+c*lossn+dKLLoss计算所述预测模型的损失函数,其中,loss表示预测模型的损失函数,a、b、……、c、d分别为各损失函数对应的权重。
5.根据权利要求1所述多人说话场景下音视频识别模型训练方法,其特征在于,对所述多个视频数据和所述单个音频数据进行混合得到训练数据的过程为:
使用不同信噪比的噪声/人声对所述单个音频数据进行混合得到一个音频混合数据;
将所述音频混合数据分别与多个视频数据进行组合,得多个混合后的训练数据。
6.一种多人说话场景下音视频识别模型训练装置,其特征在于,所述装置包括:
数据获取模块,用于获取多人说话场景下对应的多个视频数据和单个音频数据,对所述多个视频数据和所述单个音频数据进行混合得到训练数据;
训练模块,用于将所述训练数据输入预设模型中,分别得到多个视频数据对应的预测矩阵和CTC损失函数;
计算模块,用于使用主成分分析方法提取所述预测矩阵的特征矩阵,根据所述特征矩阵计算得到KL散度损失函数;
反向回传模块,用于根据所述CTC损失函数和所述KL散度损失函数计算所述预设模型的损失函数;
循环迭代模块,用于利用训练数据循环迭代对预设模型进行训练,直至预测模型的损失函数收敛,得到最优的模型,作为多人说话场景下音视频识别模型。
7.一种多人说话场景下音视频识别方法,其特征在于,包括:
采集多人说话场景下待识别的音视频数据;
将待识别的音视频数据输入到基于权利要求1-5任一所述的多人说话场景下音视频识别模型训练方法得到的多人说话场景下音视频识别模型,得到匹配识别结果。
8.一种多人说话场景下音视频识别装置,其特征在于,所述装置包括:
音视频数据采集模块,用于采集多人说话场景下待识别的音视频数据;
匹配识别模块,用于将待识别的音视频数据输入到基于权利要求1-5任一所述的多人说话场景下音视频识别模型训练方法得到的多人说话场景下音视频识别模型,得到匹配识别结果。
9.一种计算机设备,其特征在于,包括:存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1-5中任一项或权利要求7所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使计算机执行如权利要求1-5任一项或权利要求7所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310645108.5A CN116758902A (zh) | 2023-06-01 | 2023-06-01 | 一种多人说话场景下音视频识别模型训练及识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310645108.5A CN116758902A (zh) | 2023-06-01 | 2023-06-01 | 一种多人说话场景下音视频识别模型训练及识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116758902A true CN116758902A (zh) | 2023-09-15 |
Family
ID=87954402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310645108.5A Pending CN116758902A (zh) | 2023-06-01 | 2023-06-01 | 一种多人说话场景下音视频识别模型训练及识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116758902A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050228673A1 (en) * | 2004-03-30 | 2005-10-13 | Nefian Ara V | Techniques for separating and evaluating audio and video source data |
US20190318725A1 (en) * | 2018-04-13 | 2019-10-17 | Mitsubishi Electric Research Laboratories, Inc. | Methods and Systems for Recognizing Simultaneous Speech by Multiple Speakers |
CN112687263A (zh) * | 2021-03-11 | 2021-04-20 | 南京硅基智能科技有限公司 | 语音识别神经网络模型及其训练方法、语音识别方法 |
WO2021076349A1 (en) * | 2019-10-18 | 2021-04-22 | Google Llc | End-to-end multi-speaker audio-visual automatic speech recognition |
CN113270095A (zh) * | 2021-04-26 | 2021-08-17 | 镁佳(北京)科技有限公司 | 语音处理方法、装置、存储介质及电子设备 |
CN113299282A (zh) * | 2021-07-23 | 2021-08-24 | 北京世纪好未来教育科技有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN113555032A (zh) * | 2020-12-22 | 2021-10-26 | 腾讯科技(深圳)有限公司 | 多说话人场景识别及网络训练方法、装置 |
CN113920560A (zh) * | 2021-09-17 | 2022-01-11 | 科大讯飞股份有限公司 | 多模态说话人身份识别方法、装置和设备 |
CN114596845A (zh) * | 2022-04-13 | 2022-06-07 | 马上消费金融股份有限公司 | 语音识别模型的训练方法、语音识别方法及装置 |
CN115206324A (zh) * | 2021-03-24 | 2022-10-18 | 华为技术有限公司 | 语音识别方法及设备、计算机可读存储介质 |
CN115512693A (zh) * | 2021-06-23 | 2022-12-23 | 中移(杭州)信息技术有限公司 | 音频识别方法、声学模型训练方法、装置和存储介质 |
CN115565534A (zh) * | 2022-09-21 | 2023-01-03 | 西安讯飞超脑信息科技有限公司 | 多模态语音识别方法、装置、设备及存储介质 |
-
2023
- 2023-06-01 CN CN202310645108.5A patent/CN116758902A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050228673A1 (en) * | 2004-03-30 | 2005-10-13 | Nefian Ara V | Techniques for separating and evaluating audio and video source data |
US20190318725A1 (en) * | 2018-04-13 | 2019-10-17 | Mitsubishi Electric Research Laboratories, Inc. | Methods and Systems for Recognizing Simultaneous Speech by Multiple Speakers |
WO2021076349A1 (en) * | 2019-10-18 | 2021-04-22 | Google Llc | End-to-end multi-speaker audio-visual automatic speech recognition |
CN113555032A (zh) * | 2020-12-22 | 2021-10-26 | 腾讯科技(深圳)有限公司 | 多说话人场景识别及网络训练方法、装置 |
CN112687263A (zh) * | 2021-03-11 | 2021-04-20 | 南京硅基智能科技有限公司 | 语音识别神经网络模型及其训练方法、语音识别方法 |
CN115206324A (zh) * | 2021-03-24 | 2022-10-18 | 华为技术有限公司 | 语音识别方法及设备、计算机可读存储介质 |
CN113270095A (zh) * | 2021-04-26 | 2021-08-17 | 镁佳(北京)科技有限公司 | 语音处理方法、装置、存储介质及电子设备 |
CN115512693A (zh) * | 2021-06-23 | 2022-12-23 | 中移(杭州)信息技术有限公司 | 音频识别方法、声学模型训练方法、装置和存储介质 |
CN113299282A (zh) * | 2021-07-23 | 2021-08-24 | 北京世纪好未来教育科技有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN113920560A (zh) * | 2021-09-17 | 2022-01-11 | 科大讯飞股份有限公司 | 多模态说话人身份识别方法、装置和设备 |
CN114596845A (zh) * | 2022-04-13 | 2022-06-07 | 马上消费金融股份有限公司 | 语音识别模型的训练方法、语音识别方法及装置 |
CN115565534A (zh) * | 2022-09-21 | 2023-01-03 | 西安讯飞超脑信息科技有限公司 | 多模态语音识别方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
XINYUAN QIAN: "Deep Audio-Visual Beamforming for Speaker Localization", 《IEEE SIGNAL PROCESSING LETTERS 》, vol. 29 * |
田春霖: "深度视音频双模态语音识别方法", 《中国优秀硕士学位论文全文库(信息科技辑)》, no. 6 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11848008B2 (en) | Artificial intelligence-based wakeup word detection method and apparatus, device, and medium | |
US10332507B2 (en) | Method and device for waking up via speech based on artificial intelligence | |
DE112017003563B4 (de) | Verfahren und system einer automatischen spracherkennung unter verwendung von a-posteriori-vertrauenspunktzahlen | |
CN110990543A (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN112182229A (zh) | 一种文本分类模型构建方法、文本分类方法及装置 | |
US10157619B2 (en) | Method and device for searching according to speech based on artificial intelligence | |
CN111401259B (zh) | 模型训练方法、系统、计算机可读介质和电子设备 | |
US11132994B1 (en) | Multi-domain dialog state tracking | |
KR20210052036A (ko) | 복수 의도어 획득을 위한 합성곱 신경망을 가진 장치 및 그 방법 | |
CN111653270B (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
CN111368800B (zh) | 手势识别方法及装置 | |
CN113763925B (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN115457938A (zh) | 识别唤醒词的方法、装置、存储介质及电子装置 | |
CN117592564A (zh) | 问答交互方法、装置、设备及介质 | |
CN111414959B (zh) | 图像识别方法、装置、计算机可读介质和电子设备 | |
CN117198335A (zh) | 一种语音交互方法、装置、计算机设备及智能家居系统 | |
CN115512692B (zh) | 语音识别方法、装置、设备及存储介质 | |
CN114783410B (zh) | 语音合成方法、系统、电子设备和存储介质 | |
CN116758902A (zh) | 一种多人说话场景下音视频识别模型训练及识别方法 | |
CN116071472A (zh) | 图像生成方法及装置、计算机可读存储介质、终端 | |
CN113314101B (zh) | 一种语音处理方法、装置、电子设备及存储介质 | |
CN115132195A (zh) | 语音唤醒方法、装置、设备、存储介质及程序产品 | |
CN114333790A (zh) | 数据处理方法、装置、设备、存储介质及程序产品 | |
Krokotsch et al. | Generative adversarial networks and simulated+ unsupervised learning in affect recognition from speech | |
CN116705013B (zh) | 语音唤醒词的检测方法、装置、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230915 |
|
RJ01 | Rejection of invention patent application after publication |