CN114640826B - 数据处理方法、装置、可读介质以及电子设备 - Google Patents

数据处理方法、装置、可读介质以及电子设备 Download PDF

Info

Publication number
CN114640826B
CN114640826B CN202210295585.9A CN202210295585A CN114640826B CN 114640826 B CN114640826 B CN 114640826B CN 202210295585 A CN202210295585 A CN 202210295585A CN 114640826 B CN114640826 B CN 114640826B
Authority
CN
China
Prior art keywords
target
audio data
video data
data
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210295585.9A
Other languages
English (en)
Other versions
CN114640826A (zh
Inventor
李入云
刘艺
蔡猛
马泽君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Youzhuju Network Technology Co Ltd
Original Assignee
Beijing Youzhuju Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Youzhuju Network Technology Co Ltd filed Critical Beijing Youzhuju Network Technology Co Ltd
Priority to CN202210295585.9A priority Critical patent/CN114640826B/zh
Publication of CN114640826A publication Critical patent/CN114640826A/zh
Application granted granted Critical
Publication of CN114640826B publication Critical patent/CN114640826B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Abstract

本公开涉及一种数据处理方法、装置、可读介质以及电子设备,所述方法包括:获取视频数据和音频数据;确定所述视频数据中包括同一人脸的目标视频数据;针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人。本公开的数据处理方法可以提高为目标音频数据确定的目标发言人的准确度。

Description

数据处理方法、装置、可读介质以及电子设备
技术领域
本公开涉及计算机技术领域,具体地,涉及一种数据处理方法、装置、可读介质以及电子设备。
背景技术
办公场景中,常常需要使用会议纪要对会议进行记录和保存,对于一份可读性强的会议纪要,需要记录会议发言人的身份、发言时间以及发言内容。相关技术中,使用说话人分割聚类和语音识别的技术,对会议视频进行处理生成会议纪要,然而,目前的说话人分割聚类技术难以检测会议中的说话人数量,并且难以判断说话人转换点,使得最终生成的会议纪要不准确,效果不理想。
发明内容
提供该部分内容以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该部分内容并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种数据处理方法,包括:
获取视频数据和音频数据;
确定所述视频数据中包括同一人脸的目标视频数据;
针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;
基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人。
第二方面,本公开提供一种数据处理装置,包括:
获取模块,被配置为获取视频数据和音频数据;
第一确定模块,被配置为确定所述视频数据中包括同一人脸的目标视频数据;
第二确定模块,被配置为针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;
第三确定模块,被配置为基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人。
第三方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现第一方面所述方法的步骤。
第四方面,本公开提供一种电子设备,包括:
存储装置,其上存储有至少一个计算机程序;
至少一个处理装置,用于执行所述存储装置中的所述至少一个计算机程序,以实现第一方面所述方法的步骤。
通过上述技术方案,针对每一人脸确定匹配的目标音频数据和目标视频数据,并基于匹配的目标音频数据和目标视频数据确定该目标音频数据的目标发言人,利用多模态信息,即目标音频数据和目标视频数据,确定目标发言人,提高了确定的目标发言人的准确度。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据本公开一示例性实施例示出的一种数据处理方法的流程图。
图2是根据本公开一示例性实施例示出的目标视频数据的示意图。
图3是根据本公开一示例性实施例示出的确定目标发言人的流程图。
图4是根据本公开一示例性实施例示出的数据处理装置的框图。
图5是根据本公开一示例性实施例示出的电子设备的结构示意图。
具体实施方式
可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限定性的实现方式,响应于接收到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其它满足相关法律法规的方式也可应用于本公开的实现方式中。
同时,可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
相关技术中,使用说话人分割聚类和语音识别的技术,对会议视频进行处理生成会议纪要。示例地,先通过语音识别技术对会议视频,或对基于会议视频得到的音频数据进行转录,得到会议的发言记录,此时发言记录中混合了每个发言人的发言内容,再通过说话人分割聚类技术对发言记录进行处理得到每句话的发言人身份,即确定每句话的发言人。然而,目前的说话人分割聚类技术难以准确检测音频数据(或发言记录)中的说话人数,并且难以判断音频数据(或发言记录)中的说话人转换点,进而,无法准确确定每句话的发言人身份,使得最终生成的会议纪要不准确,以及会议转录效果不理想。
图1是根据本公开一示例性实施例示出的一种数据处理方法的流程图,该数据处理方法可以应用于电子设备中,该电子设备可以是服务器或终端设备等。如图1所示,该方法包括以下步骤。
步骤110,获取视频数据和音频数据。
在一些实施例中,视频数据可以是指视频流数据,视频流数据是包含多个图像帧的流式数据,音频数据可以是指音频流数据,音频流数据是包含多个音频帧的流式数据。在一些实施例中,可以根据同一待转录视频得到视频数据和音频数据,待转录视频可以包括会议视频或演讲视频等。示例地,可以根据待转录视频直接得到视频数据,并对待转录视频进行格式转换得到音频数据,例如,转换为MP3格式得到音频数据。
在一些实施例中,还可以通过视频录制终端分别获取视频数据和音频数据,视频录制终端可以包括视频采集组件和音频采集组件,对应的,可以接收视频采集组件传输的视频流获取视频数据,接收音频采集组件传输的音频流获取音频数据。视频采集组件和音频采集组件可以分别是视频录制终端的摄像机和话筒。
步骤120,确定视频数据中包括同一人脸的目标视频数据。
在一些实施例中,同一人脸的目标视频数据可以包括该人脸在视频数据中出现的连续图像帧。在一些实施例中,可以基于人脸跟踪算法对视频数据进行处理,得到每一人脸的初始视频片段,将该初始视频片段确定为该人脸的目标视频数据。每一人脸的初始视频片段可以包括该人脸在视频数据的图像序列中所处的连续图像帧。
示例地,参考图2,以时间T1至时间T9的视频数据为例,假设基于人脸跟踪算法对该视频数据进行处理,得到人脸A的初始视频片段A1、A2以及A3,以及人脸B的初始视频片段B1和B2,则可以将初始视频片段A1、A2以及A3确定为人脸A的目标视频数据,将初始视频片段B1和B2确定为人脸B的目标视频数据。
人脸跟踪是指在连续的图像序列中判断出人脸的存在与否,并且对已经检测出的人脸进行连续的定位跟踪。通过人脸跟踪算法对视频数据进行处理,可以确定该视频数据中的每一人脸在该视频数据的图像序列中的运动轨迹,图像序列可以包括视频数据的所有图像帧;根据每一人脸的运动轨迹提取每一人脸所处的连续图像帧,可以得到每一人脸的初始视频片段。
在一些实施例中,针对每一人脸,还可以基于视频数据中的所有人脸的初始视频片段确定该人脸的目标视频数据,对应的,确定视频数据中包括同一人脸的目标视频数据,可以包括:基于人脸跟踪算法对视频数据进行处理,得到每一人脸的初始视频片段;基于初始视频片段的边界点之间的视频数据,确定包括同一人脸的目标视频数据,边界点包括初始视频片段的起始时间点和结束时间点。
示例地,仍以上述人脸A的初始视频片段A1、A2以及A3,以及人脸B的初始视频片段B1和B2为例,则可以根据初始视频片段A1、A2、A3、B1以及B2,得到边界点(即各个初始视频片段的起始时间点和结束时间点)T1、T2、T3、T4、T5、T6、T7、T8以及T9,根据该边界点之间的视频数据可以确定人脸A的目标视频数据:时间T1至T2的视频数据、时间T3至T4的视频数据、时间T4至T5的视频数据、时间T7至T8的视频数据、以及时间T8至T9的视频数据,以及可以确定人脸B的目标视频数据:时间T1至T3的视频数据、时间T3至T4的视频数据、时间T6至T7的视频数据、以及时间T7至T8的视频数据。
初始视频片段的边界点是可能的说话人转换点,例如,前述的边界点T3为说话人转换点,该点表征人脸B的发言人转换至人脸A的发言人进行发言,由此,根据每一人脸的初始视频片段的边界点之间的视频数据,确定包括同一人脸的目标视频数据,可以对同一人脸的初始视频片段进一步划分,得到更细维度的视频数据,例如,得到可能仅一人发言的视频数据以及可能多人同时发言的视频数据,示例地,初始视频片段A2被拆分为时间T3至T4的视频数据和时间T4至T5的视频数据,其分别表征人脸A和B的发言人同时发言、以及人脸A的发言人的单独发言,进而,后续根据更细维度的匹配的目标音频数据和目标视频数据确定目标发言人时,能提高确定的目标发言人的准确度。
步骤130,针对每一人脸的目标视频数据,在音频数据中确定与该目标视频数据匹配的目标音频数据。
在一些实施例中,目标音频数据可以是指与目标视频数据的起始时间点和结束时间点相同的音频数据。示例地,以目标视频数据为上述时间T3至T4的视频数据为例,则目标音频数据可以是音频数据中截取的时间T3至T4的数据。
步骤140,基于每一匹配的目标音频数据和目标视频数据,从各候选发言人中确定目标音频数据的目标发言人。
在本公开实施例中,针对每一人脸确定匹配的目标音频数据和目标视频数据,并基于匹配的目标音频数据和目标视频数据确定该目标音频数据的目标发言人,利用多模态信息(即目标音频数据和目标视频数据)确定目标发言人,提高了确定的目标发言人的准确度。
在一些实施例中,可以基于目标音频数据和目标视频数据分别确定匹配度、人脸相似度以及声纹相似度,基于匹配度、人脸相似度以及声纹相似度确定目标发言人。关于该确定目标发言人的具体细节可以参见下述图3及其相关描述,在此不再赘述。
图3是根据本公开一示例性实施例示出的确定目标发言人的流程图。如图3所示,该方法包括以下步骤。
步骤310,对目标音频数据和目标视频数据进行处理,确定目标视频数据与目标音频数据之间的匹配度,匹配度表征目标音频数据来自于目标视频数据的人脸对应的发言人的概率。
在一些实施例中,匹配度可以表征目标音频数据来自于目标视频数据的人脸的对应的发言人的概率,即表征正在发言的发言人的人脸同时出现在目标视频数据中的概率。
在一些实施例中,可以通过机器学习模型对目标音频数据和目标视频数据进行处理,确定目标视频数据与目标音频数据之间的匹配度。在一些实施例中,可以根据训练好的音画同步模型对目标音频数据和目标视频数据进行处理,确定目标视频数据与所述目标音频数据之间的匹配度。训练好的音画同步模型可以是预先训练好的机器学习模型。
在一些实施例中,音画同步模型可以基于如下方式训练得到:获取携带有标签的多个训练样本,每个训练样本包括样本音频数据和包括有样本人脸的样本视频数据,标签表征样本视频数据与样本音频数据之间的匹配度,匹配度表征样本音频数据来自于样本视频数据的样本人脸对应的发言人的概率;根据多个训练样本迭代更新初始音画同步模型的参数以减小各训练样本对应的损失函数值,得到训练好的音画同步模型。
在一些实施例中,标签可以用于表征训练样本的某种真实信息。在一些实施例中,标签可以表征训练样本中的样本视频数据与样本音频数据之间的匹配度,匹配度可以表征样本音频数据来自于样本视频数据的样本人脸对应的发言人的概率。标签可以通过数值表示,例如,标签可以包括0或1,0表征样本音频数据不是来自于样本视频数据的样本人脸对应的发言人,1表征样本音频数据来自于样本视频数据的样本人脸对应的发言人。
在一些实施例中,可以通过人工标注的方式对训练样本进行标签标注。在一些实施例中,可以从存储设备或数据库中获取多个训练样本。训练样本可以属于同一视频,该视频具备视频流和音频流,例如,属于同一会议视频或演讲视频等。
在音画同步模型的训练过程中,会不断地基于多个训练样本更新初始音画同步模型的参数。示例地,会不断地调整初始音画同步模型的参数,以减小各个训练样本对应的损失函数值,使得损失函数值满足预设条件。例如,损失函数值收敛,或损失函数值小于预设值。当损失函数满足预设条件时,模型训练完成,得到训练好的音画同步模型。训练好的音画同步模型可以对目标音频数据和目标视频数据进行处理,得到两者的匹配度。
在一些实施例中,各训练样本对应的损失函数值可以通过以下过程确定:通过音画同步模型处理训练样本,得到样本视频数据与样本音频数据的预测匹配度;至少基于预测匹配度和标签的差异,确定损失函数值。在一些实施例中,损失函数值可以根据实际情况具体设置,例如,损失函数值可以是交叉熵损失函数值或平方损失函数值等。
步骤320,基于匹配度、目标视频数据的人脸与各候选发言人的人脸之间的人脸相似度、以及目标音频数据的声纹特征与各候选发言人的声纹特征之间的声纹相似度,从各候选发言人中确定目标音频数据的目标发言人。
在一些实施例中,人脸相似度可以是指目标视频数据的人脸的人脸特征与各候选发言人的人脸的人脸特征之间的相似度。在一些实施例中,人脸特征可以包括人脸五官的形状和位置等。在一些实施例中,可以通过多种方法根据人脸的图像提取人脸特征,例如,可以使用三维形变模型或模板匹配法根据人脸的图像提取人脸特征。各候选发言人的人脸特征可以是预先根据候选发言人的人脸的图像进行特征提取得到并存储至预设数据库中的。
在一些实施例中,声纹特征可以包括梅尔频谱特征。在一些实施例中,可以通过多种方式对目标音频数据和各候选发言人的音频数据分别进行处理,提取各自的声纹特征,例如,可以通过声纹识别算法,如模板匹配法、最近邻方法、神经元网络方法或VQ聚类法等提取声纹特征。各候选发言人的声纹特征可以是预先根据候选发言人的音频数据的进行声纹提取得到并存储至预设数据库中的。
在一些实施例中,候选发言人的人脸的图像和音频数据可以预先采集得到,例如,通过图像采集设备采集候选发言人的人脸的图像,以及通过音频采集组件采集候选发言人的音频数据。又例如,将候选发言人的人脸的图像和音频数据上传至服务器中。
在一些实施例中,人脸特征和声纹特征可以通过向量表示,人脸相似度可以通过人脸特征的向量之间的距离表征,声纹相似度可以通过声纹特征的向量之间的距离表征。在一些实施例中,距离可以包括但不限于余弦距离、欧氏距离、曼哈顿距离、马氏距离或闵可夫斯基距离等。
在一些实施例中,基于匹配度、目标视频数据的人脸与各候选发言人的人脸之间的人脸相似度、以及目标音频数据的声纹特征与各候选发言人的声纹特征之间的声纹相似度,从各候选发言人中确定目标音频数据的目标发言人,包括:在匹配度大于第一预设阈值、以及与同一候选发言人之间的人脸相似度和声纹相似度均大于各自对应的第二预设阈值和第三预设阈值的情况下,将该候选发言人确定为目标音频数据的目标发言人。
在一些实施例中,第一预设阈值、第二预设阈值以及第三预设阈值可以根据实际情况具体确定,例如,三者可以分别是0.95、0.96以及0.96等,本公开对此不作任何限制。在一些实施例中,匹配度大于第一预设阈值可以表征目标音频数据中正在发言的发言人的人脸同时出现在目标视频数据的画面中,即目标视频数据中的人脸对应的发言人正在发言,且与同一候选发言人之间的人脸相似度和声纹相似度均大于各自对应的阈值可以表征目标音频数据中仅一人正在发言,因此,可以将该候选发言人确定为目标音频数据的目标发言人。
通过在匹配度表征正在发言的发言人同时在目标视频数据的画面中,且人脸相似度和声纹相似度都指向同一候选发言人时,可以明确得到正在发言的发言人就是该候选发言人,从而将该候选发言人确定为目标音频数据的目标发言人。
在一些实施例中,基于匹配度、目标视频数据的人脸与各候选发言人的人脸之间的人脸相似度、以及目标音频数据的声纹特征与各候选发言人的声纹特征之间的声纹相似度,从各候选发言人中确定目标音频数据的目标发言人,包括:在匹配度大于第一预设阈值,且与多个候选发言人之间的人脸相似度大于第二预设阈值的情况下,对目标音频数据进行语音分离处理或语音分割聚类处理,确定属于不同发言人的目标子音频数据;基于每一目标子音频数据的声纹特征与各候选发言人之间的声纹特征的声纹相似度,从各候选发言人中确定该目标子音频数据的目标发言人。
在一些实施例中,匹配度大于第一预设阈值可以表征目标音频数据中正在发言的发言人的人脸同时出现在目标视频数据的画面中,且与多个候选发言人之间的人脸相似度大于第二预设阈值可以表征目标音频数据中存在多人发言,此时对目标音频数据进行语音分离处理或语音分割聚类处理,得到属于不同发言人的目标子音频数据,利用声纹相似度为每个目标子音频数据确定目标发言人。关于语音分离处理和语音分割聚类处理可以参见相关技术,在此不再赘述。
在一些实施例中,基于匹配度、目标视频数据的人脸与各候选发言人的人脸之间的人脸相似度、以及目标音频数据的声纹特征与各候选发言人的声纹特征之间的声纹相似度,从各候选发言人中确定目标音频数据的目标发言人,包括:在匹配度小于第一预设阈值,且人脸相似度均小于第二预设阈值,或者在匹配度和人脸相似度均为零的情况下,基于声纹相似度从各候选发言人中确定目标音频数据的目标发言人。
在一些实施例中,匹配度小于预设阈值,且人脸相似度均小于第二预设阈值可以表征目标音频数据中正在发言的发言人的人脸可能未出现在目标视频数据的画面中,例如,该发言人的人脸被遮挡,此时匹配度和人脸相似度均较低,可以通过声纹相似度从各候选发言人中确定目标音频数据的目标发言人。
在一些实施例中,匹配度和人脸相似度均为零可以表征目标音频数据中正在发言的发言人的人脸未出现在目标视频数据的画面中,例如,该发言人在图像采集范围之外(例如,离开屏幕),此时没有匹配度和人脸相似度,可以通过声纹相似度从各候选发言人中确定目标音频数据的目标发言人。
在一些实施例中,在根据声纹相似度不能从各候选发言人中确定目标音频数据的目标发言人时,可以表示预设数据库中没有目标音频数据中正在发言的发言人的声纹特征,可以将该发言人的声纹特征和人脸特征增加至预设数据库中。
在一些实施例中,数据处理方法还包括:对目标发言人的目标音频数据进行语音识别处理,确定目标发言人的发言内容,并基于发言内容和目标音频数据的时间信息,确定目标发言人在对应时间的发言内容。
在一些实施例中,在目标音频数据包括多个目标子音频数据时,可以对目标发言人的目标子音频数据进行语音识别,确定目标发言人的发言内容,并基于发言内容和目标子音频数据的时间信息,确定目标发言人在对应时间的发言内容。通过确定目标发言人的发言时间和发言内容,可以为视频数据添加字幕,或生成会议纪要。
在本公开实施例中,通过匹配度、人脸相似度和声纹相似度共同确定目标音频数据的目标发言人,从多个维度共同确定目标发言人,避免匹配的目标音频数据和目标视频数据不准确带来的识别不稳定现象,能稳定的输出识别到的目标发言人。且可以提高确定的目标发言人的准确度,避免仅利用匹配度确定目标发言人导致的不准确的现象发生。
图4是根据本公开一示例性实施例示出的数据处理装置的框图。如图3所示,装置400包括:
获取模块410,被配置为获取视频数据和音频数据;
第一确定模块420,被配置为确定所述视频数据中包括同一人脸的目标视频数据;
第二确定模块430,被配置为针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;
第三确定模块440,被配置为基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人。
在一些实施例中,第一确定模块420进一步被配置为:
基于人脸跟踪算法对所述视频数据进行处理,得到每一人脸的初始视频片段;
基于所述初始视频片段的边界点之间的所述视频数据,确定包括同一人脸的所述目标视频数据,所述边界点包括所述初始视频片段的起始时间点和结束时间点。
在一些实施例中,第三确定模块430进一步被配置为:
对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度,所述匹配度表征所述目标音频数据来自于所述目标视频数据的人脸对应的发言人的概率;
基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
在一些实施例中,第三确定模块430进一步被配置为:
在所述匹配度大于第一预设阈值、以及与同一所述候选发言人之间的所述人脸相似度和所述声纹相似度均大于各自对应的第二预设阈值和第三预设阈值的情况下,将该候选发言人确定为所述目标音频数据的所述目标发言人。
在一些实施例中,第三确定模块430进一步被配置为:
在所述匹配度大于第一预设阈值,且与多个所述候选发言人之间的人脸相似度大于第二预设阈值的情况下,
对所述目标音频数据进行语音分离处理或语音分割聚类处理,确定属于不同发言人的目标子音频数据;
基于每一所述目标子音频数据的所述声纹特征与各所述候选发言人之间的所述声纹特征的所述声纹相似度,从各所述候选发言人中确定该目标子音频数据的所述目标发言人。
在一些实施例中,第三确定模块430进一步被配置为:
在所述匹配度小于第一预设阈值,且所述人脸相似度均小于所述第二预设阈值,或者在所述匹配度和所述人脸相似度均为零的情况下,基于所述声纹相似度从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
在一些实施例中,所述装置还包括:
语音识别模块,被配置为对所述目标发言人的所述目标音频数据进行语音识别处理,确定所述目标发言人的发言内容,并基于所述发言内容和所述目标音频数据的时间信息,确定所述目标发言人在对应时间的所述发言内容。
在一些实施例中,第三确定模块430进一步被配置为:
根据训练好的音画同步模型对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度;
所述音画同步模型基于如下方式训练得到:
获取携带有标签的多个训练样本,每个训练样本包括样本音频数据和包括有样本人脸的样本视频数据,所述标签表征所述样本视频数据与所述样本音频数据之间的匹配度,所述匹配度表征所述样本音频数据来自于所述样本视频数据的所述样本人脸对应的发言人的概率;
根据多个所述训练样本迭代更新初始音画同步模型的参数以减小各训练样本对应的损失函数值,得到训练好的音画同步模型;
其中,各训练样本对应的损失函数值通过以下过程确定:
通过音画同步模型处理所述训练样本,得到所述样本视频数据与所述样本音频数据的预测匹配度;
至少基于所述预测匹配度和所述标签的差异,确定损失函数值。
下面参考图5,其示出了适于用来实现本公开实施例的电子设备(例如图1中的终端设备或服务器)500的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,终端设备、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取视频数据和音频数据;确定所述视频数据中包括同一人脸的目标视频数据;针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种数据处理方法,包括:
获取视频数据和音频数据;
确定所述视频数据中包括同一人脸的目标视频数据;
针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;
基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人。
根据本公开的一个或多个实施例,示例2提供了示例1的数据处理方法,所述确定所述视频数据中包括同一人脸的目标视频数据,包括:
基于人脸跟踪算法对所述视频数据进行处理,得到每一人脸的初始视频片段;
基于所述初始视频片段的边界点之间的所述视频数据,确定包括同一人脸的所述目标视频数据,所述边界点包括所述初始视频片段的起始时间点和结束时间点。
根据本公开的一个或多个实施例,示例3提供了示例1的数据处理方法,所述基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人,包括:
对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度,所述匹配度表征所述目标音频数据来自于所述目标视频数据的人脸对应的发言人的概率;
基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
根据本公开的一个或多个实施例,示例4提供了示例3的数据处理方法,所述基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人,包括:
在所述匹配度大于第一预设阈值、以及与同一所述候选发言人之间的所述人脸相似度和所述声纹相似度均大于各自对应的第二预设阈值和第三预设阈值的情况下,将该候选发言人确定为所述目标音频数据的所述目标发言人。
根据本公开的一个或多个实施例,示例5提供了示例3的数据处理方法,所述基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人,包括:
在所述匹配度大于第一预设阈值,且与多个所述候选发言人之间的人脸相似度大于第二预设阈值的情况下,
对所述目标音频数据进行语音分离处理或语音分割聚类处理,确定属于不同发言人的目标子音频数据;
基于每一所述目标子音频数据的所述声纹特征与各所述候选发言人之间的所述声纹特征的所述声纹相似度,从各所述候选发言人中确定该目标子音频数据的所述目标发言人。
根据本公开的一个或多个实施例,示例6提供了示例3的数据处理方法,所述基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人,包括:
在所述匹配度小于第一预设阈值,且所述人脸相似度均小于所述第二预设阈值,或者在所述匹配度和所述人脸相似度均为零的情况下,基于所述声纹相似度从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
根据本公开的一个或多个实施例,示例7提供了示例1的数据处理方法,所述方法还包括:
对所述目标发言人的所述目标音频数据进行语音识别处理,确定所述目标发言人的发言内容,并基于所述发言内容和所述目标音频数据的时间信息,确定所述目标发言人在对应时间的所述发言内容。
根据本公开的一个或多个实施例,示例8提供了示例3的数据处理方法,所述对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度,包括:
根据训练好的音画同步模型对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度;
所述音画同步模型基于如下方式训练得到:
获取携带有标签的多个训练样本,每个训练样本包括样本音频数据和包括有样本人脸的样本视频数据,所述标签表征所述样本视频数据与所述样本音频数据之间的匹配度,所述匹配度表征所述样本音频数据来自于所述样本视频数据的所述样本人脸对应的发言人的概率;
根据多个所述训练样本迭代更新初始音画同步模型的参数以减小各训练样本对应的损失函数值,得到训练好的音画同步模型;
其中,各训练样本对应的损失函数值通过以下过程确定:
通过音画同步模型处理所述训练样本,得到所述样本视频数据与所述样本音频数据的预测匹配度;
至少基于所述预测匹配度和所述标签的差异,确定损失函数值。
根据本公开的一个或多个实施例,示例9提供了一种数据处理装置,包括:
获取模块,被配置为获取视频数据和音频数据;
第一确定模块,被配置为确定所述视频数据中包括同一人脸的目标视频数据;
第二确定模块,被配置为针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;
第三确定模块,被配置为基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人。
根据本公开的一个或多个实施例,示例10提供了示例9的数据处理装置,第一确定模块进一步被配置为:
基于人脸跟踪算法对所述视频数据进行处理,得到每一人脸的初始视频片段;
基于所述初始视频片段的边界点之间的所述视频数据,确定包括同一人脸的所述目标视频数据,所述边界点包括所述初始视频片段的起始时间点和结束时间点。
根据本公开的一个或多个实施例,示例11提供了示例9的数据处理装置,第三确定模块进一步被配置为:
对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度,所述匹配度表征所述目标音频数据来自于所述目标视频数据的人脸对应的发言人的概率;
基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
根据本公开的一个或多个实施例,示例12提供了示例11的数据处理装置,第三确定模块进一步被配置为:
在所述匹配度大于第一预设阈值、以及与同一所述候选发言人之间的所述人脸相似度和所述声纹相似度均大于各自对应的第二预设阈值和第三预设阈值的情况下,将该候选发言人确定为所述目标音频数据的所述目标发言人。
根据本公开的一个或多个实施例,示例13提供了示例11的数据处理装置,第三确定模块进一步被配置为:
在所述匹配度大于第一预设阈值,且与多个所述候选发言人之间的人脸相似度大于第二预设阈值的情况下,
对所述目标音频数据进行语音分离处理或语音分割聚类处理,确定属于不同发言人的目标子音频数据;
基于每一所述目标子音频数据的所述声纹特征与各所述候选发言人之间的所述声纹特征的所述声纹相似度,从各所述候选发言人中确定该目标子音频数据的所述目标发言人。
根据本公开的一个或多个实施例,示例14提供了示例11的数据处理装置,第三确定模块进一步被配置为:
在所述匹配度小于第一预设阈值,且所述人脸相似度均小于所述第二预设阈值,或者在所述匹配度和所述人脸相似度均为零的情况下,基于所述声纹相似度从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
根据本公开的一个或多个实施例,示例15提供了示例9的数据处理装置,所述装置还包括:
语音识别模块,被配置为对所述目标发言人的所述目标音频数据进行语音识别处理,确定所述目标发言人的发言内容,并基于所述发言内容和所述目标音频数据的时间信息,确定所述目标发言人在对应时间的所述发言内容。
根据本公开的一个或多个实施例,示例16提供了示例11的数据处理装置,第三确定模块进一步被配置为:
根据训练好的音画同步模型对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度;
所述音画同步模型基于如下方式训练得到:
获取携带有标签的多个训练样本,每个训练样本包括样本音频数据和包括有样本人脸的样本视频数据,所述标签表征所述样本视频数据与所述样本音频数据之间的匹配度,所述匹配度表征所述样本音频数据来自于所述样本视频数据的所述样本人脸对应的发言人的概率;
根据多个所述训练样本迭代更新初始音画同步模型的参数以减小各训练样本对应的损失函数值,得到训练好的音画同步模型;
其中,各训练样本对应的损失函数值通过以下过程确定:
通过音画同步模型处理所述训练样本,得到所述样本视频数据与所述样本音频数据的预测匹配度;
至少基于所述预测匹配度和所述标签的差异,确定损失函数值。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

Claims (10)

1.一种数据处理方法,其特征在于,包括:
获取视频数据和音频数据;
确定所述视频数据中包括同一人脸的目标视频数据;
针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;
基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人;
所述基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人,包括:
对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度,所述匹配度表征所述目标音频数据来自于所述目标视频数据的人脸对应的发言人的概率;
基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
2.根据权利要求1所述的数据处理方法,其特征在于,所述确定所述视频数据中包括同一人脸的目标视频数据,包括:
基于人脸跟踪算法对所述视频数据进行处理,得到每一人脸的初始视频片段;
基于所述初始视频片段的边界点之间的所述视频数据,确定包括同一人脸的所述目标视频数据,所述边界点包括所述初始视频片段的起始时间点和结束时间点。
3.根据权利要求1所述的数据处理方法,其特征在于,所述基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人,包括:
在所述匹配度大于第一预设阈值、以及与同一所述候选发言人之间的所述人脸相似度和所述声纹相似度均大于各自对应的第二预设阈值和第三预设阈值的情况下,将该候选发言人确定为所述目标音频数据的所述目标发言人。
4.根据权利要求1所述的数据处理方法,其特征在于,所述基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人,包括:
在所述匹配度大于第一预设阈值,且与多个所述候选发言人之间的人脸相似度大于第二预设阈值的情况下,
对所述目标音频数据进行语音分离处理或语音分割聚类处理,确定属于不同发言人的目标子音频数据;
基于每一所述目标子音频数据的所述声纹特征与各所述候选发言人之间的所述声纹特征的所述声纹相似度,从各所述候选发言人中确定该目标子音频数据的所述目标发言人。
5.根据权利要求1所述的数据处理方法,其特征在于,所述基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人,包括:
在所述匹配度小于第一预设阈值,且所述人脸相似度均小于第二预设阈值,或者在所述匹配度和所述人脸相似度均为零的情况下,基于所述声纹相似度从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
6.根据权利要求1所述的数据处理方法,其特征在于,所述方法还包括:
对所述目标发言人的所述目标音频数据进行语音识别处理,确定所述目标发言人的发言内容,并基于所述发言内容和所述目标音频数据的时间信息,确定所述目标发言人在对应时间的所述发言内容。
7.根据权利要求1所述的数据处理方法,其特征在于,所述对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度,包括:
根据训练好的音画同步模型对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度;
所述音画同步模型基于如下方式训练得到:
获取携带有标签的多个训练样本,每个训练样本包括样本音频数据和包括有样本人脸的样本视频数据,所述标签表征所述样本视频数据与所述样本音频数据之间的匹配度,所述匹配度表征所述样本音频数据来自于所述样本视频数据的所述样本人脸对应的发言人的概率;
根据多个所述训练样本迭代更新初始音画同步模型的参数以减小各训练样本对应的损失函数值,得到训练好的音画同步模型;
其中,各训练样本对应的损失函数值通过以下过程确定:
通过音画同步模型处理所述训练样本,得到所述样本视频数据与所述样本音频数据的预测匹配度;
至少基于所述预测匹配度和所述标签的差异,确定损失函数值。
8.一种数据处理装置,其特征在于,包括:
获取模块,被配置为获取视频数据和音频数据;
第一确定模块,被配置为确定所述视频数据中包括同一人脸的目标视频数据;
第二确定模块,被配置为针对每一人脸的所述目标视频数据,在所述音频数据中确定与该目标视频数据匹配的目标音频数据;
第三确定模块,被配置为基于每一匹配的所述目标音频数据和所述目标视频数据,从各候选发言人中确定所述目标音频数据的目标发言人;
所述第三确定模块进一步被配置为:
对所述目标音频数据和所述目标视频数据进行处理,确定所述目标视频数据与所述目标音频数据之间的匹配度,所述匹配度表征所述目标音频数据来自于所述目标视频数据的人脸对应的发言人的概率;
基于所述匹配度、所述目标视频数据的人脸与各所述候选发言人的人脸之间的人脸相似度、以及所述目标音频数据的声纹特征与各所述候选发言人的声纹特征之间的声纹相似度,从各所述候选发言人中确定所述目标音频数据的所述目标发言人。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-7中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储装置,其上存储有至少一个计算机程序;
至少一个处理装置,用于执行所述存储装置中的所述至少一个计算机程序,以实现权利要求1-7中任一项所述方法的步骤。
CN202210295585.9A 2022-03-23 2022-03-23 数据处理方法、装置、可读介质以及电子设备 Active CN114640826B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210295585.9A CN114640826B (zh) 2022-03-23 2022-03-23 数据处理方法、装置、可读介质以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210295585.9A CN114640826B (zh) 2022-03-23 2022-03-23 数据处理方法、装置、可读介质以及电子设备

Publications (2)

Publication Number Publication Date
CN114640826A CN114640826A (zh) 2022-06-17
CN114640826B true CN114640826B (zh) 2023-11-03

Family

ID=81949373

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210295585.9A Active CN114640826B (zh) 2022-03-23 2022-03-23 数据处理方法、装置、可读介质以及电子设备

Country Status (1)

Country Link
CN (1) CN114640826B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512348A (zh) * 2016-01-28 2016-04-20 北京旷视科技有限公司 用于处理视频和相关音频的方法和装置及检索方法和装置
CN106790260A (zh) * 2017-02-03 2017-05-31 国政通科技股份有限公司 一种多因子身份认证方法
CN108922538A (zh) * 2018-05-29 2018-11-30 平安科技(深圳)有限公司 会议信息记录方法、装置、计算机设备及存储介质
CN109640142A (zh) * 2018-12-21 2019-04-16 咪咕数字传媒有限公司 一种内容推荐方法及装置、设备、存储介质
CN109905764A (zh) * 2019-03-21 2019-06-18 广州国音智能科技有限公司 一种视频中目标人物语音截取方法及装置
CN110909613A (zh) * 2019-10-28 2020-03-24 Oppo广东移动通信有限公司 视频人物识别方法、装置、存储介质与电子设备
CN112866788A (zh) * 2020-12-31 2021-05-28 共享拍摄(北京)科技有限公司 一种音视频匹配与分发系统及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303929B2 (en) * 2016-10-27 2019-05-28 Bose Corporation Facial recognition system
US10846522B2 (en) * 2018-10-16 2020-11-24 Google Llc Speaking classification using audio-visual data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512348A (zh) * 2016-01-28 2016-04-20 北京旷视科技有限公司 用于处理视频和相关音频的方法和装置及检索方法和装置
CN106790260A (zh) * 2017-02-03 2017-05-31 国政通科技股份有限公司 一种多因子身份认证方法
CN108922538A (zh) * 2018-05-29 2018-11-30 平安科技(深圳)有限公司 会议信息记录方法、装置、计算机设备及存储介质
CN109640142A (zh) * 2018-12-21 2019-04-16 咪咕数字传媒有限公司 一种内容推荐方法及装置、设备、存储介质
CN109905764A (zh) * 2019-03-21 2019-06-18 广州国音智能科技有限公司 一种视频中目标人物语音截取方法及装置
CN110909613A (zh) * 2019-10-28 2020-03-24 Oppo广东移动通信有限公司 视频人物识别方法、装置、存储介质与电子设备
CN112866788A (zh) * 2020-12-31 2021-05-28 共享拍摄(北京)科技有限公司 一种音视频匹配与分发系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于音视频的多模态融合说话人识别研究";李永敏;中国优秀硕士学位论文全文数据库;全文 *

Also Published As

Publication number Publication date
CN114640826A (zh) 2022-06-17

Similar Documents

Publication Publication Date Title
CN110971969B (zh) 视频配乐方法、装置、电子设备及计算机可读存储介质
CN111916061B (zh) 语音端点检测方法、装置、可读存储介质及电子设备
CN112509562B (zh) 用于文本后处理的方法、装置、电子设备和介质
WO2023071578A1 (zh) 一种文本对齐语音的方法、装置、设备及介质
CN113889113A (zh) 分句方法、装置、存储介质及电子设备
CN112364829A (zh) 一种人脸识别方法、装置、设备及存储介质
CN114023315A (zh) 语音的识别方法、装置、可读介质和电子设备
CN112883967A (zh) 图像字符识别方法、装置、介质及电子设备
CN112954453B (zh) 视频配音方法和装置、存储介质和电子设备
CN111128131B (zh) 语音识别方法、装置、电子设备及计算机可读存储介质
CN115346145A (zh) 重复视频的识别方法、设备、储存介质及计算机程序产品
CN116629236A (zh) 一种待办事项提取方法、装置、设备及存储介质
CN114640826B (zh) 数据处理方法、装置、可读介质以及电子设备
CN112309389A (zh) 信息交互方法和装置
CN112926623B (zh) 识别合成视频的方法、装置、介质及电子设备
CN113033552B (zh) 文本识别方法、装置和电子设备
CN112487937B (zh) 视频识别方法、装置、存储介质及电子设备
CN114495081A (zh) 文本识别的方法、装置、可读介质和电子设备
CN112542157A (zh) 语音处理方法、装置、电子设备及计算机可读存储介质
CN114004229A (zh) 文本识别方法、装置、可读介质及电子设备
CN115967833A (zh) 视频生成方法、装置、设备计存储介质
CN111783858B (zh) 生成类别向量的方法和装置
CN117544814B (zh) 基于执法记录仪的数据处理方法、装置、设备和可读介质
CN116052659A (zh) 会议场景下的信息处理方法、装置、电子设备和存储介质
CN116127373A (zh) 数据标注的方法、装置、可读介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant