CN114299952B - 结合多种运动分析的话者角色区分方法及系统 - Google Patents
结合多种运动分析的话者角色区分方法及系统 Download PDFInfo
- Publication number
- CN114299952B CN114299952B CN202111632116.3A CN202111632116A CN114299952B CN 114299952 B CN114299952 B CN 114299952B CN 202111632116 A CN202111632116 A CN 202111632116A CN 114299952 B CN114299952 B CN 114299952B
- Authority
- CN
- China
- Prior art keywords
- role
- speaking
- voice
- speaker
- mouth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000004458 analytical method Methods 0.000 title claims abstract description 60
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 230000004069 differentiation Effects 0.000 claims abstract description 8
- 230000008859 change Effects 0.000 claims description 15
- 239000012634 fragment Substances 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000005206 flow analysis Methods 0.000 claims description 5
- 206010034719 Personality change Diseases 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 abstract description 2
- 230000000903 blocking effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000009432 framing Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000010183 spectrum analysis Methods 0.000 description 3
- 238000012550 audit Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
结合多种运动分析的话者角色区分方法及系统,方法包括:步骤1:分割视频,分割后得到音频信息和视频信息;步骤2:音频信息分析;步骤3:视频信息分析;步骤4:音视频融合分析划分话者角色,匹配步骤2和步骤3两种分析结果的时间节点得到角色划分结果。一方面利用音频信息,提取音频特征,并基于音频特征进行说话人转换检测用于话者角色区分;另一方面利用视频信息,分析视频中说话人的头部状态、口罩和嘴巴状态,对视频中人说话的起始时间进行判断;最后融合两种检测结果得到更准确的角色区分结果。本发明能完成对待稽核视频的采集存储,同时完成对视频的话者角色区分,高效精准。
Description
技术领域
本申请涉及音视频分析技术领域,尤其是涉及结合多种运动分析的话者角色区分方法及系统。
背景技术
在智能双录、视频会议、医疗系统等领域,为了更好的分析有哪些人参与了说话,这些人都说了什么,需要先进行说话人(简称话者)角色区分。一旦进行了角色区分,就可以利用语音识别技术分析和理解话者的说话内容,从而判断是谁说了什么话。单纯基于音频分析的话者角色区分方法,在话者说话时间较短,无法提供足够的声纹信息时,会导致区分失败。而从视频图像上,话者说话的时候,嘴巴状态发生变化,这个变化很容易被视觉算法捕捉到。人与人之间相处时经常需要佩戴口罩,这就给嘴巴状态分析带了困扰。此外,当说话人脸部背对摄像头时也无法分析嘴巴状态。
通过大量的视频分析,我们发现当人在说话的时候,根据说话内容有可能做出摇头、点头、转头等动作,同时,即使佩戴着口罩或者其他遮挡物,说话的时候,嘴巴的运动也会引起口罩的运动。因此,综合分析头部状态、口罩和嘴巴运动状态,我们也可以较可靠地判断该人是否处于说话状态。当然,头部发生运动的时候不代表人一定处于说话状态,我们使用置信度来表示发生该运动时人说话的概率,并结合优先分析嘴巴,口罩次之,头部再次之的方式来得到随时间的说话置信度曲线。
上述中的相关现有技术存在以下缺陷:若单纯的依靠音频分析技术进行话者角色划分,如果话者说话时间较短,无法提供足够的声纹信息时,会导致区分失败现象;若单纯的依靠视频,那么要求整个过程中话者脸部(尤其是嘴巴)不能被遮挡,否则会区分失败。
发明内容
为了解决现有技术中单纯采用音频分析技术或视频分析技术进行视频中的话者角色划分都会存在区分失败的问题,本申请提供结合多种运动分析的话者角色区分方法及系统,采用如下的技术方案:
结合多种运动分析的话者角色区分方法,包括以下步骤:
步骤1:分割视频,分割后得到音频信息和视频信息;
步骤2:音频信息分析,截取音频信息中出现语音特征的语音片段,记录所述语音片段的时间节点用于角色区分;
步骤3:视频信息分析,跟踪分析视频信息中各角色的说话特征信息,所述说话特征信息包括头部状态信息、口罩信息和嘴巴状态信息,跟踪视频信息中对应角色识别符合说话特征类的起始时间节点;
步骤4:音视频融合分析划分话者角色,匹配步骤2和步骤3两种分析结果的时间节点得到角色划分结果。
通过采用上述技术方案,首先将视频分割成音频信息和视频信息,然后对于音频信息,截取音频信息中出现语音特征的语音片段,记录所述语音片段的时间节点;
对于视频信息分析,跟踪分析视频信息中各角色的头部状态信息、口罩信息和嘴巴状态信息,检测视频信息中对应角色识别符合说话特征的起始时间节点,最后匹配音频信息和视频信息两种分析结果的时间节点得到角色划分结果。
可选的,所述步骤2采用以下方法具体进行音频信息分析:
Step1:语音检测,采用语音检测模型将所述音频信息帧分为语音部分和非语音部分两类;首先对音频信息进行预处理,包括分帧、降噪,然后利用双门限法、谱分析方法、或者相关法等语音检测方法得到语音部分,避免非语音部分或者噪声对后续步骤的影响;
Step2:角色转换检测,对所述语音部分进行音频分割,分割后的片段只包含单一角色:检测角色发生变化的具体时间点,并根据角色发生变化的具体时间点将语音分割成n个语音片段S1,…,Sn,其中Si={TStarti,TEndi},所述TStarti表示该语音片段的开始时间位置,所述TEndi表示该语音片段的结束时间位置。
通过采用上述技术方案,利用语音检测模型将音频帧分为语音和非语音两个类别,这里非语音包括静音和环境噪声等;完成语音检测之后,需要对语音部分进行音频分割,使得分割后的片段只包含单一角色。角色转换检测的功能,就是检测角色发生变化的具体时间点,并根据角色发生变化的时间点,将语音分割成多个片段。经过分割,得到n个语音片段S1,…,Sn,其中Si={TStarti,TEndi},所述TStarti表示该语音片段的开始时间位置,所述TEndi表示该语音片段的结束时间位置。
可选的,所述Step2中,采用基于左右窗比较的方法或窗分类的方法进行角色转换检测,抓取发生角色转换的所有节点音频帧,以所述节点音频帧为分界点,将语音部分分段,得到n个语音片段S1,…,Sn,其中Si={TStarti,TEndi}。
通过采用上述技术方案,基于左右窗比较的方法或窗分类的方法进行角色转换检测,能精准的抓取发生角色转换的所有节点音频帧,并以节点音频帧为分界点得到n个语音片段S1,…,Sn。
可选的,所述步骤3采用以下步骤具体进行视频信息分析:
a.人头检测和跟踪,对视频信息部分,进行人头检测和跟踪,根据跟踪结果确定视频中角色的数量,这里用M表示视频中角色的数量;
b.角色嘴巴状态分析,首先判断嘴巴是否可见,若嘴巴可见,则进行嘴巴张合状态分析,根据嘴巴动态特征判断对应角色是否处于说话状态;若嘴巴不可见,则进行遮挡物状态分析,根据遮挡物动态特征判断对应角色是否处于说话状态;
c.角色说话时间判断,根据人头跟踪结果和嘴巴状态分析结果,判断视频中对应角色的说话时间段和置信度。
通过采用上述技术方案,对视频信息先进行人头检测和跟踪,视频中会出现对应角色数量的人脸;如果检测到人脸,首先判断嘴巴部分是否被遮挡,如果嘴巴没有被遮挡,则对嘴巴的状态进行分析。如果嘴巴处于张合变化的状态,则判断对应角色嘴巴处于说话状态,并记录该说话状态的时间段。
可选的,采用以下步骤具体进行视频信息分析:
在人头检测区域采用Adaboost、MTCNN、RetinaFace或PyramidBox算法进行人脸检测,若检测到人脸,则调用带遮挡判断功能的关键点定位算法进行关键点定位,并判断嘴巴部分是否被遮挡;
若嘴巴可见,则进行嘴巴张合状态分析,若嘴巴处于张合变化的状态,则判断嘴巴对应的角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fm;
若角色嘴巴不可见,则使用光流法对遮挡嘴巴的口罩或者其他遮挡物进行光流分析,若检测到口罩运动,将判断对应角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fk;
若步骤a中没有检测到人脸,则对人头的运动状态进行分析,判断该角色是否处于说话附带动作状态,所述说话附带动作状态包括摇头、点头或转头,若判断该角色处于说话附带动作状态,则将判断对应角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fh;
对于视频信息的其它时刻,将说话置信度设为0,据此得到每个角色随时间变化的说话置信度曲线。
通过采用上述技术方案,在人头检测区域进行人脸检测,可采用Adaboost人脸检测算法,或者MTCNN、RetinaFace、PyramidBox等。如果检测到人脸,则调用带遮挡判断功能的关键点定位算法进行关键点定位,并判断嘴巴部分是否被遮挡。如果嘴巴没有被遮挡,则对嘴巴的状态进行分析。如果嘴巴处于张合变化的状态,则判断嘴巴处于说话状态,并将该人在当前时刻的说话置信度设置为fm。
如果嘴巴被遮挡,则使用光流法对遮挡嘴巴的口罩或者其他遮挡物进行光流分析,若检测到口罩运动,将该人在当前时刻的说话置信度设置为fk。
如果没有检测到人脸,那么对人头的运动进行分析,正常情况下,人在说话时头部都会出现摇头、点头、转头等附带运动状态,这样就可以通过这些附带运动特征的判断来对角色的是否处于说话状态进行置信度的评价,判断对应角色的人头如果处于这些附带运动状态,则将该人在当前时刻的说话置信度设置为fh。
对于其他时刻,将说话置信度置为0。据此得到每个角色随时间变化的说话置信度曲线。
可选的,所述步骤4采用以下方法具体进行音视频融合分析划分话者角色:
d.从视频分析中获取对应于语音片段Si的时间段{TStarti,TEndi}中,各角色嘴巴处于说话状态的总时间长度,选择总时间长度最长,长度大于p*(TEndi-TStarti),且平均置信度大于q的角色作为该语音片段的匹配角色;p取值0.5,q取0.5,得到划分结果R={Qi|i=1,…,M},其中Qi表示划分给第i个人的所有语音片段集合;
对于步骤d无法确定说话人的语音片段Si,则丢弃。
通过采用上述技术方案,可以高效的进行音视频融合分析划分话者角色,最终得到角色划分结果R={Qi|i=1,…,M}更加准确。
结合多种运动分析的话者角色区分系统,包括录音录像设备、处理器、存储器,所述存储器内预装有话者角色区分程序,所述录音录像设备采集到的视频储存在存储器,所述处理器运行存储器内的话者角色区分程序完成对录音录像设备采集到的视频的话者角色区分。
还有显示器,所述处理器通过显示器显示话者角色区分程序运行界面和结果。
通过采用上述技术方案,录音录像设备采集视频,并将视频储存在存储器,处理器运行存储器内的话者角色区分程序完成对录音录像设备采集到的视频的话者角色区分,并最终将话者角色区分结果通过显示器显示。
综上所述,本申请包括以下至少一种有益技术效果:
1.本发明的结合多种运动分析的话者角色区分方法,一方面利用音频信息,提取音频特征,并基于音频特征进行说话人转换检测用于话者角色区分;另一方面利用视频信息,分析视频中说话人的头部状态、口罩和嘴巴状态,对视频中人说话的起始时间进行判断;最后融合两种检测结果得到更准确的角色区分结果。
该方法具有高效准确等优点,能够大大提高语音分析理解的准确性。
本发明所提出的结合多种运动分析的话者角色区分系统能完成对待稽核视频的采集存储,同时完成对视频的话者角色区分,高效精准。
附图说明
图1是本发明的话者角色区分方法的流程示意图;
图2是本发明话者角色区分系统的结构原理示意图。
图3是本发明的话者说话置信度曲线示意图。
具体实施方式
以下结合附图1-图3对本申请作进一步详细说明。
本申请实施例公开一种话者角色区分方法及系统。
参照图1,结合多种运动分析的话者角色区分方法,包括以下步骤:
步骤1:分割视频,分割后得到音频信息和视频信息;
步骤2:音频信息分析,截取音频信息中出现语音特征的语音片段,记录语音片段的时间节点用于角色区分;
步骤3:视频信息分析,跟踪分析视频信息中各角色的说话特征信息,说话特征信息包括头部状态信息、口罩信息和嘴巴状态信息,跟踪视频信息中对应角色识别符合说话特征类的起始时间节点;
步骤4:音视频融合分析划分话者角色,匹配步骤2和步骤3两种分析结果的时间节点得到角色划分结果。
首先将视频分割成音频信息和视频信息,然后对于音频信息,截取音频信息中出现语音特征的语音片段,记录语音片段的时间节点;
对于视频信息分析,跟踪分析视频信息中各角色的头部状态信息、口罩信息和嘴巴状态信息,检测视频信息中对应角色识别符合说话特征的起始时间节点,最后匹配音频信息和视频信息两种分析结果的时间节点得到角色划分结果。
步骤2采用以下方法具体进行音频信息分析:
Step1:语音检测,采用语音检测模型将音频信息帧分为语音部分和非语音部分两类;首先对音频信息进行预处理,包括分帧、降噪,然后利用双门限法、谱分析方法、或者相关法等语音检测方法得到语音部分,避免非语音部分或者噪声对后续步骤的影响;
Step2:角色转换检测,对语音部分进行音频分割,分割后的片段只包含单一角色,检测角色发生变化的具体时间点,并根据角色发生变化的具体时间点将语音分割成n个语音片段S1,…,Sn,其中Si={TStarti,TEndi},TStarti表示该语音片段的开始时间位置,TEndi表示该语音片段的结束时间位置;
利用语音检测模型将音频帧分为语音和非语音两个类别,这里非语音包括静音和环境噪声等;完成语音检测之后,需要对语音部分进行音频分割,使得分割后的片段只包含单一角色。角色转换检测的功能,就是检测角色发生变化的具体时间点,并根据角色发生变化的时间点,将语音分割成多个片段。经过分割,得到n个语音片段S1,…,Sn,其中Si={TStarti,TEndi},TStarti表示该语音片段的开始时间位置,TEndi表示该语音片段的结束时间位置。
中,采用基于左右窗比较的方法或窗分类的方法进行角色转换检测,抓取发生角色转换的所有节点音频帧,以节点音频帧为分界点,将语音部分分段,得到n个语音片段S1,…,Sn,其中Si={TStarti,TEndi}。
基于左右窗比较的方法或窗分类的方法进行角色转换检测,能精准的抓取发生角色转换的所有节点音频帧,并以节点音频帧为分界点得到n个语音片段S1,…,Sn。
步骤3采用以下步骤具体进行视频信息分析:
a.人头检测和跟踪,对视频信息部分,进行人头检测和跟踪,根据跟踪结果确定视频中角色的数量,这里用M表示视频中角色的数量;
b.角色嘴巴状态分析,首先判断嘴巴是否可见,若嘴巴可见,则进行嘴巴张合状态分析,根据嘴巴动态特征判断对应角色是否处于说话状态;若嘴巴不可见,则进行遮挡物状态分析,根据遮挡物动态特征判断对应角色是否处于说话状态;
c.角色说话时间判断,根据人头跟踪结果和嘴巴状态分析结果,判断视频中对应角色的说话时间段和置信度。
对视频信息先进行人头检测和跟踪,视频中会出现对应角色数量的人脸;如果检测到人脸,首先判断嘴巴部分是否被遮挡,如果嘴巴没有被遮挡,则对嘴巴的状态进行分析。如果嘴巴处于张合变化的状态,则判断对应角色嘴巴处于说话状态,并记录该说话状态的时间段。
采用以下步骤具体进行视频信息分析:
在人头检测区域采用Adaboost、MTCNN、RetinaFace或PyramidBox算法进行人脸检测,若检测到人脸,则调用带遮挡判断功能的关键点定位算法进行关键点定位,并判断嘴巴部分是否被遮挡;
若嘴巴可见,则进行嘴巴张合状态分析,若嘴巴处于张合变化的状态,则判断嘴巴对应的角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fm;
若角色嘴巴不可见,则使用光流法对遮挡嘴巴的口罩或者其他遮挡物进行光流分析,若检测到口罩运动,将判断对应角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fk;
若步骤a中没有检测到人脸,则对人头的运动状态进行分析,判断该角色是否处于说话附带动作状态,说话附带动作状态包括摇头、点头或转头,若判断该角色处于说话附带动作状态,则将判断对应角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fh;
对于视频信息的其它时刻,将说话置信度设为0,据此得到每个角色随时间变化的说话置信度曲线。
在人头检测区域进行人脸检测,可采用Adaboost人脸检测算法,或者MTCNN、RetinaFace、PyramidBox等。如果检测到人脸,则调用带遮挡判断功能的关键点定位算法进行关键点定位,并判断嘴巴部分是否被遮挡。如果嘴巴没有被遮挡,则对嘴巴的状态进行分析。如果嘴巴处于张合变化的状态,则判断嘴巴处于说话状态,并将该人在当前时刻的说话置信度设置为fm。
如果嘴巴被遮挡,则使用光流法对遮挡嘴巴的口罩或者其他遮挡物进行光流分析,若检测到口罩运动,将该人在当前时刻的说话置信度设置为fk。
如果没有检测到人脸,那么对人头的运动进行分析,正常情况下,人在说话时头部都会出现摇头、点头、转头等附带运动状态,这样就可以通过这些附带运动特征的判断来对角色的是否处于说话状态进行置信度的评价,判断对应角色的人头如果处于这些附带运动状态,则将该人在当前时刻的说话置信度设置为fh。
对于其他时刻,将说话置信度置为0。据此得到每个角色随时间变化的说话置信度曲线,参考图3。
步骤4采用以下方法具体进行音视频融合分析划分话者角色:
d.从视频分析中获取对应于语音片段Si的时间段{TStarti,TEndi}中,各角色嘴巴处于说话状态的总时间长度,选择总时间长度最长,长度大于p*(TEndi-TStarti),且平均置信度大于q的角色作为该语音片段的匹配角色;p取值0.5,q取值0.5,得到划分结果R={Qi|i=1,…,M},其中Qi表示划分给第i个人的所有语音片段集合;
对于步骤d无法确定说话人的语音片段Si,则丢弃。
可以高效的进行音视频融合分析划分话者角色,最终得到角色划分结果R={Qi|i=1,…,M}更加准确。
参照图3,结合多种运动分析的话者角色区分系统,包括录音录像设备1、处理器2、存储器3,存储器3内预装有话者角色区分程序,录音录像设备1采集到的视频储存在存储器3,处理器2运行存储器3内的话者角色区分程序完成对录音录像设备1采集到的视频的话者角色区分。
还有显示器4,处理器2通过显示器4显示话者角色区分程序运行界面和结果。
录音录像设备1采集视频,并将视频储存在存储器3,处理器2运行存储器3内的话者角色区分程序完成对录音录像设备1采集到的视频的话者角色区分,并最终将话者角色区分结果通过显示器4显示。
本申请实施例结合多种运动分析的话者角色区分方法及系统的实施原理为:
录音录像设备1采集视频,并将视频储存在存储器3,处理器2运行存储器3内的话者角色区分程序,分割视频,分割后得到音频信息和视频信息;
用语音检测模型将音频帧分为语音和非语音两个类别,这里非语音包括静音和环境噪声等;首先对音频信息进行预处理,包括分帧、降噪,然后利用双门限法、谱分析方法、或者相关法等语音检测方法得到语音部分,避免非语音部分或者噪声对后续步骤的影响;完成语音检测之后,采用基于左右窗比较的方法或窗分类的方法进行角色转换检测,抓取发生角色转换的所有节点音频帧,以节点音频帧为分界点,将语音部分分段,得到n个语音片段S1,…,Sn,其中Si={TStarti,TEndi}。
对视频信息中的人头检测区域进行人脸检测,可采用Adaboost人脸检测算法,或者MTCNN、RetinaFace、PyramidBox等。如果检测到人脸,则调用带遮挡判断功能的关键点定位算法进行关键点定位,并判断嘴巴部分是否被遮挡。如果嘴巴没有被遮挡,则对嘴巴的状态进行分析。如果嘴巴处于张合变化的状态,则判断嘴巴处于说话状态,并将该人在当前时刻的说话置信度设置为fm。
如果嘴巴被遮挡,则使用光流法对遮挡嘴巴的口罩或者其他遮挡物进行运动分析,若检测到口罩运动,将该人在当前时刻的说话置信度设置为fk。
如果没有检测到人脸,那么对人头的运动进行分析,正常情况下,人在说话时头部都会出现摇头、点头、转头等附带运动状态,这样就可以通过这些附带运动特征的判断来对角色的是否处于说话状态进行置信度的评价,判断对应角色的人头如果处于这些附带运动状态,则将该人在当前时刻的说话置信度设置为fh。
对于其他时刻,将说话置信度置为0。据此得到每个角色随时间变化的说话置信度曲线,见图3。
从视频分析中获取对应于语音片段Si的时间段{TStarti,TEndi}中,各角色嘴巴处于说话状态的总时间长度,选择总时间长度最长,长度大于p*(TEndi-TStarti) ,且平均置信度大于q的角色作为该语音片段的匹配角色;p取值0.5,q取值0.5,得到划分结果R={Qi|i=1,…,M},其中Qi表示划分给第i个人的所有语音片段集合;
对于上述步骤无法确定说话人的语音片段Si,则丢弃。
可以高效的进行音视频融合分析划分话者角色,最终得到角色划分结果R={Qi|i=1,…,M}更加准确。
至此就完成了对视频的音频话者角色的划分,对于角色划分的具体结果存储在存储器3,通过显示器4显示。
该角色划分的具体结果方便后续的自动话术稽核完成对具体角色说话内容的判定。
准确的话者角色区分,可以帮助我们分析双录视频中话者的数量以及每个角色的准确说话时间,从而有助于更好地完成语音识别任务,便于进行自动话术稽核。除此之外,话者角色区分还可以用于智能会议,医患交流等场合。在智能会议中,利用结合多种运动分析的话者角色区分方法及系统,可以得到准确的标注发言人的会议记录,也可以根据发言人的说话时长,对会议进行分析和分类。在医患交流场合,借助话者角色区分系统和语音识别技术,可以得到详细的交流记录并进行结构化信息处理,提高医护人员工作效率的同时还可以进行自动诊断分析。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。
Claims (7)
1.结合多种运动分析的话者角色区分方法,其特征在于:包括以下步骤:步骤1:分割视频,分割后得到音频信息和视频信息;步骤2:音频信息分析,截取音频信息中出现语音特征的语音片段,记录所述语音片段的时间节点用于角色区分;步骤3:视频信息分析,跟踪分析视频信息中各角色的说话特征信息,所述说话特征信息包括头部状态信息、口罩信息和嘴巴状态信息,跟踪视频信息中对应角色识别符合说话特征类的起始时间节点;步骤4:音视频融合分析划分话者角色,匹配步骤2和步骤3两种分析结果的时间节点得到角色划分结果;
所述步骤3采用以下步骤进行视频信息分析:a.人头检测和跟踪,对视频信息部分,进行人头检测和跟踪,根据跟踪结果确定视频中角色的数量,这里用M表示视频中角色的数量;b.角色嘴巴状态分析,首先判断嘴巴是否可见,若嘴巴可见,则进行嘴巴张合状态分析,根据嘴巴动态特征判断对应角色是否处于说话状态;若嘴巴不可见,则进行遮挡物状态分析,根据遮挡物动态特征判断对应角色是否处于说话状态;c.角色说话时间判断,根据人头跟踪结果和嘴巴状态分析结果,判断视频中对应角色的说话时间段和置信度;
采用以下步骤具体进行视频信息分析:在人头检测区域采用Adaboost、MTCNN、RetinaFace或PyramidBox算法进行人脸检测,若检测到人脸,则调用带遮挡判断功能的关键点定位算法进行关键点定位,并判断嘴巴部分是否被遮挡;若嘴巴可见,则进行嘴巴张合状态分析,若嘴巴处于张合变化的状态,则判断嘴巴对应的角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fm;若角色嘴巴不可见,则使用光流法对遮挡嘴巴的口罩或者其他遮挡物进行光流分析,若检测到口罩运动,则判断对应角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fk;若步骤a中没有检测到人脸,则对人头的运动状态进行分析,判断该角色是否处于说话附带动作状态,所述说话附带动作状态包括摇头、点头或转头,若判断该角色处于说话附带动作状态,则将判断对应角色处于说话状态,记录该角色当前说话的时间节点,并将该角色对应时间节点的说话置信度设置为fh;对于视频信息的其它时刻,将说话置信度设为0,据此得到每个角色随时间变化的说话置信度曲线。
2.根据权利要求1所述的结合多种运动分析的话者角色区分方法,其特征在于:所述步骤2采用以下方法具体进行音频信息分析:Step1:语音检测,采用语音检测模型将所述音频信息帧分为语音部分和非语音部分两类;Step2:角色转换检测,对所述语音部分进行音频分割,分割后的片段只包含单一角色:检测角色发生变化的具体时间点,并根据角色发生变化的具体时间点将语音分割成n个语音片段S1,…,Sn,其中Si={TStarti,TEndi},所述TStarti表示该语音片段的开始时间位置,所述TEndi表示该语音片段的结束时间位置。
3.根据权利要求2所述的结合多种运动分析的话者角色区分方法,其特征在于:所述Step2中,采用基于左右窗比较的方法或窗分类的方法进行角色转换检测,抓取发生角色转换的所有节点音频帧,以所述节点音频帧为分界点,将语音部分分段,得到n个语音片段S1,…,Sn,其中Si={TStarti,TEndi}。
4.根据权利要求1-3任一项所述的结合多种运动分析的话者角色区分方法,其特征在于:所述步骤4采用以下方法具体进行音视频融合分析划分话者角色:d.对于任意的语音片段Si,对其时间段[TStarti,TEndi],从视频信息分析中获取该时间段各话者处于说话状态的总时间长度,选择总时间长度最长,长度大于p*(TEndi-TStarti),且平均置信度大于q的角色作为该语音片段的匹配角色;据此,得到划分结果R={Qj|j=1,…,M},其中Qj表示划分给第j个人的所有语音片段集合。
5.根据权利要求4所述的结合多种运动分析的话者角色区分方法,其特征在于:所述总时间长度统计的是对应角色说话置信度大于0的时间长度,所述平均置信度统计的是置信度大于0的时间内的平均置信度。
6.结合多种运动分析的话者角色区分系统,其特征在于:包括录音录像设备(1)、处理器(2)、存储器(3),所述存储器(3)内预装有根据权利要求1-5中任一项所述方法设计的话者角色区分程序,所述录音录像设备(1)采集到的视频储存在存储器(3),所述处理器(2)运行存储器(3)内的话者角色区分程序完成对录音录像设备(1)采集到的视频的话者角色区分。
7.根据权利要求6所述结合多种运动分析的话者角色区分系统,其特征在于:还有显示器(4),所述处理器(2)通过显示器(4)显示话者角色区分程序运行界面和结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111632116.3A CN114299952B (zh) | 2021-12-29 | 2021-12-29 | 结合多种运动分析的话者角色区分方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111632116.3A CN114299952B (zh) | 2021-12-29 | 2021-12-29 | 结合多种运动分析的话者角色区分方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114299952A CN114299952A (zh) | 2022-04-08 |
CN114299952B true CN114299952B (zh) | 2022-08-19 |
Family
ID=80971019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111632116.3A Active CN114299952B (zh) | 2021-12-29 | 2021-12-29 | 结合多种运动分析的话者角色区分方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114299952B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117935810A (zh) * | 2023-10-30 | 2024-04-26 | 天津引辉科技有限公司 | 语音智能识别方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6567775B1 (en) * | 2000-04-26 | 2003-05-20 | International Business Machines Corporation | Fusion of audio and video based speaker identification for multimedia information access |
CN110709924A (zh) * | 2017-11-22 | 2020-01-17 | 谷歌有限责任公司 | 视听语音分离 |
JP2020155944A (ja) * | 2019-03-20 | 2020-09-24 | 株式会社リコー | 発話者検出システム、発話者検出方法及びプログラム |
CN112001215A (zh) * | 2020-05-25 | 2020-11-27 | 天津大学 | 一种基于三维唇动的文本无关说话人身份识别方法 |
CN112949418A (zh) * | 2021-02-05 | 2021-06-11 | 深圳市优必选科技股份有限公司 | 说话对象的确定方法、装置、电子设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8224652B2 (en) * | 2008-09-26 | 2012-07-17 | Microsoft Corporation | Speech and text driven HMM-based body animation synthesis |
US8897500B2 (en) * | 2011-05-05 | 2014-11-25 | At&T Intellectual Property I, L.P. | System and method for dynamic facial features for speaker recognition |
US9171548B2 (en) * | 2011-08-19 | 2015-10-27 | The Boeing Company | Methods and systems for speaker identity verification |
CN103488764B (zh) * | 2013-09-26 | 2016-08-17 | 天脉聚源(北京)传媒科技有限公司 | 个性化视频内容推荐方法和系统 |
CN110875060A (zh) * | 2018-08-31 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 语音信号处理方法、装置、系统、设备和存储介质 |
CN112653902B (zh) * | 2019-10-10 | 2023-04-11 | 阿里巴巴集团控股有限公司 | 说话人识别方法、装置及电子设备 |
CN113761986A (zh) * | 2020-06-05 | 2021-12-07 | 阿里巴巴集团控股有限公司 | 文本获取、直播方法、设备及存储介质 |
CN113343831A (zh) * | 2021-06-01 | 2021-09-03 | 北京字跳网络技术有限公司 | 视频中说话人分类方法、装置、电子设备和存储介质 |
-
2021
- 2021-12-29 CN CN202111632116.3A patent/CN114299952B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6567775B1 (en) * | 2000-04-26 | 2003-05-20 | International Business Machines Corporation | Fusion of audio and video based speaker identification for multimedia information access |
CN110709924A (zh) * | 2017-11-22 | 2020-01-17 | 谷歌有限责任公司 | 视听语音分离 |
JP2020155944A (ja) * | 2019-03-20 | 2020-09-24 | 株式会社リコー | 発話者検出システム、発話者検出方法及びプログラム |
CN112001215A (zh) * | 2020-05-25 | 2020-11-27 | 天津大学 | 一种基于三维唇动的文本无关说话人身份识别方法 |
CN112949418A (zh) * | 2021-02-05 | 2021-06-11 | 深圳市优必选科技股份有限公司 | 说话对象的确定方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
Representation of Speaking Mouth Image for Visual Speech Synthesis System;Xibin Jia;《2009 First International Conference on Information Science and Engineering》;20100426;全文 * |
高安全性人脸识别身份认证系统中的唇语识别算法研究;任玉强;《中国优秀硕士学位论文全文数据库》;20170415(第5期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114299952A (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114282621B (zh) | 一种多模态融合的话者角色区分方法与系统 | |
CN105160318A (zh) | 基于面部表情的测谎方法及系统 | |
JP4616702B2 (ja) | 画像処理 | |
CN110750152B (zh) | 一种基于唇部动作的人机交互方法和系统 | |
US7636453B2 (en) | Object detection | |
CN106203458A (zh) | 人群视频分析方法及系统 | |
CN109711318B (zh) | 一种基于视频流的多人脸检测与跟踪方法 | |
CN110853646A (zh) | 会议发言角色的区分方法、装置、设备及可读存储介质 | |
TWI780366B (zh) | 臉部辨識系統、臉部辨識方法及臉部辨識程式 | |
WO2019080669A1 (zh) | 封闭场所内人物再识别的方法、系统及终端设备 | |
US10964326B2 (en) | System and method for audio-visual speech recognition | |
CN114299953B (zh) | 一种结合嘴部运动分析的话者角色区分方法与系统 | |
CN110941993A (zh) | 基于人脸识别的动态人员分类与存储方法 | |
CN114299952B (zh) | 结合多种运动分析的话者角色区分方法及系统 | |
KR20220041891A (ko) | 얼굴 정보를 데이터베이스에 입력하는 방법 및 설치 | |
CN111626240A (zh) | 一种人脸图像识别方法、装置、设备及可读存储介质 | |
CN114724230A (zh) | 一种签字人身份识别的方法与系统 | |
CN109345427B (zh) | 一种结合人脸识别和行人识别技术的教室视频点到方法 | |
KR20050060628A (ko) | 얼굴 인식 방법 및 이를 이용한 인물 검색/표시 방법 | |
KR102265874B1 (ko) | 멀티모달 기반 사용자 구별 방법 및 장치 | |
Libal et al. | Multimodal classification of activities of daily living inside smart homes | |
CN114973135A (zh) | 一种基于头肩的时序视频睡岗识别方法、系统及电子设备 | |
CN114913452A (zh) | 一种基于办公场所的违规行为检测系统及方法 | |
CN113051975B (zh) | 人流量统计方法及相关产品 | |
CN106599765B (zh) | 基于对象连续发音的视-音频判断活体的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A Speaker Role Differentiation Method and System Based on Multiple Motion Analysis Effective date of registration: 20231009 Granted publication date: 20220819 Pledgee: Bank of China Limited Wuhan Economic and Technological Development Zone sub branch Pledgor: HUBEI MICROPATTERN TECHNOLOGY DEVELOPMENT CO.,LTD. Registration number: Y2022420000271 |