CN1930575B - 评估音频和视频源数据的方法及设备 - Google Patents

评估音频和视频源数据的方法及设备 Download PDF

Info

Publication number
CN1930575B
CN1930575B CN2005800079027A CN200580007902A CN1930575B CN 1930575 B CN1930575 B CN 1930575B CN 2005800079027 A CN2005800079027 A CN 2005800079027A CN 200580007902 A CN200580007902 A CN 200580007902A CN 1930575 B CN1930575 B CN 1930575B
Authority
CN
China
Prior art keywords
spokesman
video
audio frequency
mouth
visual signature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2005800079027A
Other languages
English (en)
Other versions
CN1930575A (zh
Inventor
A·纳菲安
S·拉贾兰姆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN1930575A publication Critical patent/CN1930575A/zh
Application granted granted Critical
Publication of CN1930575B publication Critical patent/CN1930575B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

提供了一些方法、系统和装置以分离并评估音频和视频。俘获音频和视频;评估视频以检测一个或多个发言者说话。使视觉特征与发言者说话相关联。分离音频和视频并将音频的相应部分映射到视觉特征以隔离与每个发言者相关联的音频并滤出与音频相关联的噪声。

Description

评估音频和视频源数据的方法及设备
技术领域
本发明的实施例一般涉及音频识别,尤其涉及使用结合音频的视频特征以改善语音处理的技术。 
背景技术
语音识别在软件技术领域中持续取得进展。主要由于硬件的改善,这些进展已成为可能。例如,处理器变得更快速和更能负荷,且处理器内的存储容量变得更大且更充足。结果,在处理和存储器装置内进行精确检测和处理语音的方面取得了显著的进展。 
然而,即使采用最强大的处理器和充足的存储器,在许多方面中语音识别仍存在问题。例如,当从特定发言者俘获音频时,常有与发言者环境相关联的各种背景噪声。该背景噪声使得很难检测发言者何时在说话、并很难检测被俘获音频的哪些部分应归因于发言者,相对于被俘获音频中属于背景噪声的应被忽略的部分。 
当语音识别系统正监视一个以上的发言者时,出现另一问题。这可能在诸如在视频会议期间两个或更多的人通话时出现。语音可以从通话中适当地收集而不能正确地与发言者中的特定一个相关联。此外,在这种存在多个发言者的环境中,两个或更多发言者可能实际上同时说话,这对现有的传统语音识别系统产生了值得注意的分辨问题。 
最常规的语音识别技术已尝试通过主要关注被俘获的音频并使用大量的软件分析以作出某些确定和分辨来解决这些及其它问题。然而,当发生谈话时,会随发言者出现视觉变化,即发言者的嘴部上下移动。这些视觉特征可用于提升常规的语音识别技术并用于生成更稳健和准确的语音识别技术。 
因此,需要相互呼应地分离并评估音频和视频的改进的语音识别技术。 
附图说明
图1A是用于音频和视频分离和评估的方法的流程图。 
图1B是具有从图1A的方法中产生的模型参数的示例性贝叶斯网络的示图。 
图2是用于音频和视频分离和评估的另一方法的流程图。 
图3是用于音频和视频分离和评估的又一方法的流程图。 
图4是音频和视频源分离和分析系统的示图。 
图5是音频和视频源分离和分析装置的示图。 
具体实施方式
图1A是用于分离和评估音频和视频的一种方法的流程图100A。该方法在计算机可访问媒介中实现。在一个实施例中,处理是驻留在一个或多个处理器中并在其中执行的一个或多个软件应用程序。在一些实施例中,将软件应用程序包含于用于分发的可拆卸计算机可读媒介上,并当与处理设备连接时被载入处理设备用于执行。在另一实施例中,在网络上的诸如服务器或远程服务的远程处理设备上处理软件应用程序。 
在又一实施例中,软件指令的一个或多个部分从远程装置通过网络下载,被安装于本地处理设备上并在其上执行。对软件指令的访问可通过任何硬连线、无线或硬连线和无线网络的组合进行。此外,在一个实施例中,方法处理的一些部分可在处理设备的固件内实现或者在处理设备上处理的操作系统内实现。 
最初,提供一种环境,其中将摄像机和麦克风连接到包含方法100A的处理设备。在一些实施例中,摄像机和麦克风集成于同一设备内。在其它实施例中,摄像机、麦克风和具有方法100A的处理设备全部集成于该处理设备内。如果摄像机和/或麦克风不直接集成入执行方法100A的处理设备,则可经由任何硬连线、无线或者硬连线和无线连接或变化的组合将视频和音频传递到处理器。摄像机电子地俘获视频(例如,随时间变化的图像)且麦克风电子地俘获音频。 
处理方法100A的用途是学习与贝叶斯网络相关联的参数,该贝叶斯网络实际上联系与一个或多个发言者相关联的合适音频(语音),以及还更准确地识别和排除与发言者的环境相关联的噪声。为此,该方法在训练期间采样与发言者相关联的被俘获电子音频和视频,其中音频由麦克风电子地俘获而视频由摄像机电子地俘获。音频一视觉数据序列起始于时间0并持续到时间T,其中T是大于0的任意整 数。时间单位可以是毫秒、微秒、秒、分钟、小时等。训练对话的长度和时间单位对于方法100A来说是可配置参数,并非旨在限制于本发明的任何特定实施例。 
110处,摄像机俘获在其视界内与一个或多个发言者相关联的视频。该视频与帧相关联,且每个帧与训练对话的特殊时间单位相关联。同时,在俘获视频时,111处,麦克风俘获与发言者相关联的音频。110和111处的视频和音频在执行方法100A的处理设备可访问的环境内被电子地俘获。 
在俘获视频帧时,在112处分析或评估这些视频帧,以检测这些帧内俘获的发言者的面部和嘴部。检测每一帧内的面部和嘴部以确定一个帧何时指示发言者的嘴部正在移动以及何时发言者的嘴部不在移动。最初,检测面部通过将每一被分析帧的像素区域限制于被识别为发言者面部的区域来帮助降低检测与嘴部相关联的移动的复杂度。 
在一个实施例中,使用被训练为识别帧内的面部的神经网络来实现面部检测。对神经网络的输入是具有多个像素的帧,且输出是识别发言者面部的具有较少像素的原始帧的较小部分。随后,将表示面部的像素传递到像素矢量匹配和分类器,它识别面部内的嘴部并监视提供用于进行随后的分析的来自每一面部的嘴部变化。 
针对该步骤的一种技术是计算构成嘴部区的像素的总数,对该区域连续帧产生的绝对差增加了可配置阈值。该阈值是可配置的,且如果超过该阈值,则指示嘴部移动,而如果未超出,则指示嘴部不在移动。被处理帧的序列可用以该阈值可配置的滤波器大小(例如9或其它)进行低通滤波,以生成与视觉特征相关联的二进制序列。 
在113处生成视觉特征,并使其与帧相关联以指示哪些帧具有嘴部移动并指示哪些帧中的嘴部没有移动。这样,跟踪并监视每个帧,以在为所俘获的视频处理各帧时确定发言者的嘴部何时移动何时不移动。 
以上的用于在视频帧内识别发言者何时说话和不说话的示例技术并非旨在限制本发明的实施例。诸示例被提供用于说明目的,且用于识别帧内的嘴部何时相对于先前处理的帧移动或不移动的任何技术都被认为落在本发明的实施例内。 
120处,使用来自麦克风的音频数据和视觉特征两者将混合的音频和视频相互分开。使音频与直接对应于升采样的俘获的视频帧的时间线相关联。应注意,视频帧以与声音信号不同的速率进行俘获(当前的设备常允许以14.4Kfps(千帧每秒) 俘获音频时以30fps(帧每秒)俘获视频)。此外,视频的每一帧都包括视觉特征,它标识发言者的嘴部何时移动和不移动。接着,为具有指示发言者嘴部移动的视觉特征的相应帧的同一时间片选择音频。即,130处,在与这些帧和音频两者相关联的相同时间片期间,将与这些帧相关联的视觉特征与音频相匹配。 
结果是用于语音分析的音频的更准确的表示,因为音频反映了发言者何时在说话。此外,当摄像机俘获一个以上的发言者时,音频可属于特定的发言者。这允许从同不同音频特征相关联的不同发言者的话音中辨认出与个别音频特征相关联的一个发言者的话音。此外,可容易地识别来自其它帧(不示出嘴部移动的帧)的潜在噪声以及其频带,并通过发言者说话时与发言者相关联的频带进行编辑。这样,实现了语音的更准确的反映并将其从发言者的环境中过滤出,且即使在两个发言者同时说话时也可更准确地鉴别与不同发言者相关联的语音。 
与准确地分开音频和视频相关联并适当地将音频与特定发言者的音频选择部分再匹配相关联的属性和参数可被公式化和表示,用于在贝叶斯网络中将该分离和再匹配建模。例如,音频和视频观察可表示为Zjt=[WitXit...WitXMt]T,t=1-T(其中T是整数),这可作为混合音频观察Xjt(j=1-M,其中M是麦克风数)和视觉特征Wit(i=1-N,其中N是音频-视觉源或发言者的数量)之间的乘法获得。通过允许在未观察到视觉语音时急剧减小音频信号,音频和视觉观察的这种选择改善了无声检测。音频和视觉语音混合处理可由以下的等式给出: 
( 1 ) . P ( s t ) = Π i P ( s it ) ;
(2).P(sit)~N(0,Cs); 
(3).P(sit|sit-1)~ N(bsit-1,Css); 
(4).P(xit|sit)~N(∑aijsjt,Cx);和 
(5).P(zit|sit)~N(Vist,Cz). 
在等式(1)-(5)中,sit是与时间t时的第i个发言者相对应的音频样本,且Cs是音频样本的协方差矩阵。等式(1)描述了音频源的统计独立性。等式(2)描述了平均数0的高斯密度函数且协方差Cs描述了每个源的声音样本。等式(3)中的参数b描述了与同一发言者相对应的连续音频样本之间的线性关系,且Css是连续时刻处声音样本的协方差矩阵。等式(4)示出了描述声音混合处理的高斯密度函数,其中A=[aij](i=1-N,j=1-M)是音频混合矩阵且Cx是混合的被观察音 频信号的协方差矩阵。Vi是使得音频-视觉观察Zit与未知分离源信号相关的M×N矩阵,且Cz是音频-视觉观察zit的协方差矩阵。该音频和视觉贝叶斯混合模型可被视为具有源独立约束(以上等式(1)中所标识)的卡尔曼滤波器。在学习模型参数过程中,音频观察的加白(whitening)提供了矩阵A的初步估计。使用最大似然估计法学习模型参数A、V、bi、Cs、Css和Cz。此外,使用约束的卡尔曼滤波器和学习到的参数来估计这些源。这些参数可用于配置根据视觉观察和噪声将发言者语音建模的贝叶斯网络。具有模型参数的样本贝叶斯网络在图1B中的示图100B中描述。 
图2是用于音频和视频分离和评估的另一方法200的流程图。方法200在计算机可读和可访问媒介中实现。方法200的处理可在操作系统内、固件内、与执行方法200的处理设备相关联的存储器或存储设备内、或者上述方法用作远程服务的远程处理设备内的可拆卸计算机可读媒体上整体或部分地实现。与方法200相关联的指令可在网络上访问,该网络可以是硬连线的、无线的或者硬连线和无线的组合。 
最初,配置一个摄像机和一个麦克风或者多个摄像机和麦克风,以监视并俘获与一个或多个发言者相关联的视频和音频。音频和视觉信息在210处被电子俘获或记录。接着,211处,将视频与音频分离,但视频和音频保持使时间与每一视频帧并与每一记录音频相关联的元数据,使得在需要时可在以后的阶段将视频和音频再混合。例如,可将视频的帧1与时间1相关联,且在时间1,具有与音频相关联的音频片1。该时间相关是与视频和音频相关联的元数据,并可用于将视频和音频再混合或再集成到单个多媒体数据文件中。 
接着,在220和221处,为获取视觉特征并使该特征与每一个帧相关联而分析视频帧。视觉特征识别发言者的嘴部何时移动或不移动,给出关于发言者何时说话的视觉线索。在一些实施例中,在211处分离视频和音频之前俘获或确定视觉特征。 
在一个实施例中,通过在222处处理神经网络以将每个帧内处理所需的像素减少到表示发言者面部的一组像素,使视觉线索与每一视频帧相关联。一旦知道面部区域,在223处,被处理的帧的面部像素被传到检测发言者的嘴部何时移动或不移动的过滤算法。过滤算法跟踪先前处理的帧,以便当检测到发言者嘴部移动(张开)时,可以确定相对于先前处理的帧发言者正在说话。与每个视频帧相关联的元 数据包括视觉特征,它识别发言者的嘴部何时移动或不移动。 
一旦处理了所有视频帧,如果音频和视频未被分开则在211处分开它们,随后在230处可以将视频和音频相互再匹配或再混合。在匹配处理期间,在231处,将具有指示发言者嘴部移动的视觉特征的帧与同一时间片内的音频再混合。例如,假定视频帧5具有指示发言者在说话的视觉特征且帧5记录于时间10且获取时间10处的音频片并将其与帧5再混合。 
在一些实施例中,匹配处理可以更稳健,以使240处与没有指示发言者在说话的视觉特征的帧内音频相关联的频带能被标注为潜在噪声,并在指示发言者在说话的帧中用于从与发言者说话的帧相匹配的音频中消除相同的噪声。 
例如,假定在发言者不说话的帧1-9处的音频内检测第一频带并假定在帧10中发言者说话。也随匹配帧10的相应音频出现第一频带。帧10也与具有第二频带的音频相匹配。因此,由于确定第一频带是噪声,则可从与帧10匹配的音频中滤去该第一频带。结果是与帧10相匹配的更准确的音频片,且这将改善对音频片执行的语音识别技术。 
按类似的方式,匹配可用于在同一帧内说话的两个不同发言者之间进行辨别。例如,考虑在帧3处第一发言者说话且在帧5处第二发言者说话的情况。接着,考虑在帧10处第一和第二发言者同时说话的情况。与帧3相关联的音频片具有第一组视觉特征,且帧5处的音频片具有第二组视觉特征。因此,帧10处,音频片可被过滤为两个分开的片段,其中每个分开的片段与不同的发言者相关联。上述用于噪声消除的技术也可集成并增强用于在同时发言的分开的发言者之间进行区分的技术,以进一步提升所俘获音频的清晰度。这允许语音识别系统具有更可靠的音频用于分析。 
在一些实施例中,如以上参考图1A所讨论的,可使匹配处理公式化以生成可在241处用于配置贝叶斯网络的参数。用这些参数配置的贝叶斯网络可用于随后与发言者交互并进行动态确定,以消除噪声并在不同发言者之间进行辨别并在同时说话的不同发言者之间进行辨别。随后,当在任何给定的处理时刻识别出音频是潜在噪声时,贝叶斯网络可对该音频滤出或产生零输出。 
图3是用于分开并评估音频和视频的又一方法300的流程图。该方法在计算机可读和可访问媒介中实现为软件指令、固件指令或软件和固件指令的组合。这些 指令可安装于任何网络连接上的远程的处理设备上、预安装在操作系统内、或者从一个或多个可拆卸计算机可读媒体安装。执行方法300的指令的处理设备还与分开的摄像机或麦克风设备、合成麦克风和摄像机设备、或者与处理设备集成的摄像机和麦克风设备接口。 
310处,监视与正在说话的第一发言者和第二发言者相关联的视频。与所监视的视频同时地,在310A处俘获与第一和第二发言者的话音相关联并与同发言者环境相关的任何背景噪声相关联的音频。视频设备俘获发言者及一部分环境的图像且音频设备俘获与发言者及其环境相关联的语音。 
320处,将视频分解为帧;每个帧都与记录帧的特定时间相关联。此外,分析每个帧以检测发言者嘴部的移动或不移动。在一些实施例中,在321处,这是通过将帧分解为较小的片,随后使视觉特征与每个帧相关联来实现的。视觉特征指示哪个发言者正在说话以及哪个发言者不在说话。在一种情形中,这可以使用训练过的神经网络首先识别每个被处理帧内的发言者面部并随后将这些面部传到查找相对于先前处理的帧与这些面部相关联的嘴部移动的矢量分类或匹配算法来完成。 
322处,在为获取视觉特征分析每个帧后,将音频和视频分开。每个视频帧或音频片都包括与初始俘获或记录它的时间相关联的时标。该时标允许音频在需要时与合适的帧再混合并允许该音频更准确地匹配特定一个发言者并允许减小或消除噪声。 
330处,将音频的诸部分与第一发言者相匹配并将音频的诸部分与第二发言者相匹配。这可以基于每一被处理帧及其视觉特征以各种方式完成。在331处,基于分离音频和视频的时间相关性发生匹配。例如,与具有相同时标的音频相匹配的帧(其中那些帧具有指示没有发言者正在说话的视觉特征)可用于识别与发言者环境内发生的噪声相关联的频带,如332处所述。所识别的噪声频带可在帧及相应的音频片中使用以使得检测到的语音更清晰或清脆。此外,与音频匹配的帧(其中仅一个发言者说话)可用于利用独特的音频特征辨别在不同的帧中两个发言者何时说话。 
在一些实施例中,在340处,可以为与发言者发生的后续交互而将320和330的分析和/或匹配处理建模。即,可用定义分析和匹配的参数配置贝叶斯网络,以使贝叶斯模型可在随后遇到与第一和第二发言者的会话时确定和改善语音分离和 识别。 
图4是音频和视频源分离和分析系统400的示图。音频和视频源分离和分析系统400在计算机可访问媒介中实现并分别实现了以上针对图1A-3和方法100A、200和300讨论的技术。通过结合技术以与该视频期间发言者所发出的音频相一致地评估与发言者相关联的视频,该音频和视频源分离和分析系统400操作上改善了语音识别。 
音频和视频源分离和分析系统400包括摄像机401、麦克风402和处理设备403。在一些实施例中,三个设备401-403集成于单个合成设备。在其它实施例中,这三个设备401-403通过本地或连网连接而相互连接和通信。通信可经由硬连线连接、无线连接或它们的组合发生。此外,在一些实施例中,摄像机401和麦克风402被集成于单个合成设备(例如,摄影机等)并连接到处理设备403。 
处理设备403包括指令404,这些指令404分别实现了图1A-3的方法100A、200和300中所述的技术。指令经由处理器403及其相关存储器或通信指令接收来自摄像机401的视频和来自麦克风402的音频。视频描述了说话或不说话的一个或多个发言者的帧,且音频描述了与背景噪声和与发言者有关的语音相关联的音频。 
指令404分析每个音频帧,以使视觉特征与每个帧相关联。视觉特征识别特定发言者或两个发言者何时说话以及它们何时不说话。在一些实施例中,指令404与其它应用程序或指令集协同来实现该操作。例如,每个帧可具有用经训练的神经网络应用软件404A识别的发言者的面部。各帧内的面部可传送到矢量匹配应用程序404B,该程序相对于先前处理的帧的面部评估这些帧内的面部以检测这些面部的嘴部是否移动。 
指令404在使视觉特征与每个视频帧相关联之后分离音频和视频帧。每一音频片和视频帧包括时标。时标可由摄像机401、麦克风402或处理器403分配。或者,当指令404分离视频和音频时,指令404在该时间点分配时标。时标提供可用于再混合和再匹配被分离的音频和视频的时间相关性。 
接着,指令404独立地评估帧和音频片。因此,具有指示没有发言者说话的视觉特征的帧可用于识别匹配音频片和它们的相应频带,以识别潜在噪声。可从具有指示发言者正在说话的视觉特征的帧中滤去潜在噪声,以改善音频片的清晰度;该清晰度将改进评估该音频片的语音识别系统。指令404还可用于评估并辨别与每 一个发言者相关联的独特音频特征。这些独特的音频特征还可用于将单个音频片分入各自具有与唯一发言者相关联的唯一音频特征的两个音频片。因此,指令404可在多个发言者同时说话时检测各发言者。 
在一些实施例中,指令404通过初始地经由摄像机401和麦克风402与一个或多个发言者交互而学习和执行的处理可被公式化为可在贝叶斯网络应用程序404C内配置的参数数据。这允许贝叶斯网络应用程序404C在后续与发言者的语音会话时独立于指令404地与摄像机401、麦克风402和处理器403交互。如果发言者处于新环境中,则指令404可再次由贝叶斯网络应用程序404C用于改善其性能。 
图5是音频和视频源分离和分析装置500的示图。音频和视频源分离和分析装置500驻留在计算机可读媒介501中并实现为软件、固件或其组合。音频和视频源分离和分析装置500在被载入一个或多个处理设备时通过结合发生谈话时同时监视的音频而改善与一个或多个发言者相关联的语音识别。音频和视频源分离和分析装置500可整体驻留在一个或多个计算机可拆卸媒体或远程存储位置上,且随后传递到处理设备用于执行。 
音频和视频源分离和分析装置500包括音频视频分离逻辑502、面部检测逻辑503、嘴部检测逻辑504以及音频和视频匹配逻辑505。面部检测逻辑503检测视频帧内的面部位置。在一个实施例中,面部检测逻辑503是被设计为获取像素帧并将这些像素的子集标识为一个或多个面部的经训练的神经网络。 
嘴部检测逻辑504获取与面部相关联的像素并识别与面部中的嘴部相关联的像素。嘴部检测逻辑504还相互评估多个面部帧,以确定面部中的嘴部何时移动或不移动。嘴部检测逻辑504的结果与由音频视频匹配逻辑所耗用的作为视觉特征的每个视频帧相关联。 
一旦嘴部检测逻辑504使视觉特征与每个视频帧相关联,音频视频分离逻辑502从音频中分离出视频。在一些实施例中,在嘴部检测逻辑504处理每个帧之前,音频视频分离逻辑502从音频中分离出视频。每个视频帧和每个音频片包括时标。这些时标可由音频视频分离逻辑502在分离时分配或者可由另一处理分配,诸如由俘获视频的摄像机和俘获音频的麦克风分配。或者,俘获视频和音频的处理器可使用指令来对视频和音频进行时标。 
音频和视频匹配逻辑505接收分离的加时标的视频帧和音频的流,视频帧具有由嘴部检测逻辑504分配的相关联的视觉特征。随后,评估每个帧和片,以识别噪声、识别与特定和单独的发言者相关联的语音。与该匹配和选择性再混合相关联的参数可用于配置对发言者发言建模的贝叶斯网络。 
音频和视频源分离和分析装置500的一些组件可结合入其它组件,且可以添加图5中未包含的一些附加组件。因此,图5被提供仅用于说明而非限制本发明的实施例。 
以上描述是说明性而非限制性的。通过阅读以上描述,许多其它实施例对于本领域的熟练技术人员来说是显而易见的。因而,本发明实施例的范围应参考所附权利要求书并连同权利要求书的等效技术方案的完整范围加以确定。 
摘要被提供用于符合要求允许读者快速确认技术公开内容的性质和要点的摘要的37C.F.R.ξ1.72(b)。可以理解,它不用于解释或限制权利要求书的范围或含义。 
在以上实施例的描述中,将各种特点一起组合在单个实施例中,以贯穿公开内容。公开的方法不被解释为所声明的本发明的实施例需要比每个权项中所述的特征更多的特征。相反,如以下权利要求所反映的,发明主题在于少于单个公开实施例的全部特征。因此,以下权利要求书被结合入实施例的描述,其中每个权项独立作为一单独的示例性实施例。 

Claims (22)

1.一种评估音频和视频源数据的方法,包括:
电子地俘获与发言者说话相关联的视觉特征,所述视觉特征指示发言者的嘴部移动,用于识别发言者在说话,其中电子地俘获所述视觉特征还包括对与所述发言者说话相关联的电子视频处理神经网络,并且还包括过滤所述发言者的被测面部以检测所述发言者嘴部的移动或不移动,其中所述神经网络被训练以检测并监视所述发言者的面部;
电子地俘获音频;
将所述音频的选择部分与所述视觉特征匹配;以及
将所述音频中那些不具有指示发言者在说话的匹配视觉特征的其余部分识别为与所述发言者说话无关的潜在噪声。
2.如权利要求1所述的方法,其特征在于,还包括:
电子地俘获与一另外的发言者说话相关联的附加视觉特征;以及
将来自所述潜在噪声的所述音频其余部分中的一些与所述另外的发言者说话匹配。
3.如权利要求1所述的方法,其特征在于,还包括生成与所述匹配和识别相关联的参数,并将所述参数提供到对所述发言者说话进行建模的贝叶斯网络。
4.如权利要求1所述的方法,其特征在于,匹配还包括针对同一时间片内所俘获音频的各部分比较所俘获视觉特征的各部分。
5.如权利要求1所述的方法,其特征在于,还包括在所俘获视觉特征的选定一些指示发言者未说话的时间段内中止所述音频的俘获。
6.一种评估音频和视频源数据的方法,包括:
监视第一发言者和第二发言者的电子视频;
同时俘获与所述第一和第二发言者说话相关联的音频;
分析所述视频以检测所述第一和第二发言者何时移动他们各自的嘴部;以及
将所述音频分为第一部分和第二部分,并基于所述分析将第一部分与第一发言者相匹配并将第二部分与第二发言者相匹配,所述匹配还包括识别与何时监控所述电子视频的选择部分以及何时俘获所述音频的选择部分相关联的时间相关性。
7.如权利要求6所述的方法,其特征在于,还包括对所述分析建模以随后与所述第一和第二发言者交互。
8.如权利要求6所述的方法,其特征在于,分析还包括处理一神经网络,以检测所述第一和第二发言者的面部,并处理矢量分类算法以检测所述第一和第二发言者的各自嘴部何时移动或不移动。
9.如权利要求6所述的方法,其特征在于,还包括为分析作准备而从同时俘获的音频中分离出所述电子视频。
10.如权利要求6所述的方法,其特征在于,还包括当所述分析未检测到所述第一和第二发言者的嘴部移动时中止所述音频的俘获。
11.如权利要求6所述的方法,其特征在于,还包括如果一部分不匹配所述第一发言者或第二发言者,则将所述俘获音频的该部分识别为噪声。
12.一种评估音频和视频源数据的系统,包括:
摄像机;
麦克风;以及
处理设备,其中所述摄像机俘获发言者的视频并将所述视频传送到所述处理设备,所述麦克风俘获与所述发言者及其环境相关联的音频并将所述音频传送到所述处理设备,所述处理设备包括识别所述发言者说话时所述视频的视觉特征的指令,使用时间相关性使所述音频的一些部分与那些视觉特征相匹配,并将所述音频中那些不具有指示发言者在说话的匹配视觉特征的其余部分识别为与所述发言者说话无关的潜在噪声,
其中所述指令与神经网络交互以从所俘获的视频中检测所述发言者的面部,并且所述指令与像素矢量算法交互以检测在所俘获的视频内与所述面部相关联的嘴部何时移动或不移动。
13.如权利要求12所述的系统,其特征在于,所述被俘获的视频还包括第二发言者的图像且所述音频包括与所述第二发言者相关联的声音,且其中当所述视觉特征中的一些指示所述第二发言者在说话时,所述指令将所述音频中的一些部分与所述第二发言者相匹配。
14.如权利要求12所述的系统,其特征在于,所述指令生成配置贝叶斯网络的参数数据,所述贝叶斯网络对与所述发言者的后续交互建模以确定所述发言者何时说话并确定适当的音频与所述后续交互中的发言者说话相关联。
15.一种评估音频和视频源数据的设备,包括:
用于分离与发言者说话相关联的音频和视频的装置;
用于识别指示所述发言者的嘴部移动或不移动的来自所述视频的视觉特征的装置;以及
用于使所述音频的一些部分与指示所述嘴部移动的所述视觉特征相关联的装置;以及
用于将所述音频中那些不具有指示发言者嘴部移动的匹配视觉特征的其余部分识别为与所述发言者说话无关的潜在噪声的装置;
其中用于识别指示所述发言者的嘴部移动或不移动的来自所述视频的视觉特征的装置还用于:
处理一神经网络以检测所述发言者的面部;以及
处理一矢量匹配算法以检测所述检测到的面部内的所述发言者嘴部的移动。
16.如权利要求15所述的设备,其特征在于,还包括用于使得所述音频的其它部分与指示所述嘴部不移动的视觉特征相关联的装置。
17.如权利要求15所述的设备,其特征在于,还包括:
用于识别指示另一发言者的不同嘴部移动或不移动的来自视频的第二视觉特征的装置;以及
用于使所述音频的不同部分与指示所述不同嘴部移动的第二视觉特征的选择一些相关联的装置。
18.如权利要求15所述的设备,其特征在于,用于关联的装置还用于:
将与俘获所述音频的一些部分的时间相关联的时间片和在所述视频内俘获所述指示所述嘴部移动的视觉特征的时间相匹配。
19.一种评估音频和视频源数据的设备,包括:
面部检测装置;
嘴部检测装置;以及
音频-视频匹配装置,其中所述面部检测装置检测视频内发言者的面部,所述嘴部检测装置检测并监视所述视频的面部内包含的嘴部的移动和不移动,且所述音频-视频匹配装置将所俘获音频的一些部分与由所述嘴部检测装置所识别的任何移动相匹配,并将所述音频中那些不具有匹配的嘴部移动的其余部分识别为与所述发言者说话无关的潜在噪声;
其中所述面部检测装置还用于:
处理一神经网络以检测所述发言者的面部;以及
其中所述嘴部检测装置还用于:
处理一矢量匹配算法以检测所述检测到的面部内的所述发言者嘴部的移动。
20.如权利要求19所述的设备,其特征在于,所述设备用于配置对所述发言者说话建模的贝叶斯网络。
21.如权利要求19所述的装置,其特征在于,所述面部检测装置包括一神经网络。
22.如权利要求19所述的设备,其特征在于,所述设备驻留在处理设备上,且所述处理设备与摄像机和麦克风相连接。
CN2005800079027A 2004-03-30 2005-03-25 评估音频和视频源数据的方法及设备 Expired - Fee Related CN1930575B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/813,642 2004-03-30
US10/813,642 US20050228673A1 (en) 2004-03-30 2004-03-30 Techniques for separating and evaluating audio and video source data
PCT/US2005/010395 WO2005098740A1 (en) 2004-03-30 2005-03-25 Techniques for separating and evaluating audio and video source data

Publications (2)

Publication Number Publication Date
CN1930575A CN1930575A (zh) 2007-03-14
CN1930575B true CN1930575B (zh) 2011-05-04

Family

ID=34964373

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2005800079027A Expired - Fee Related CN1930575B (zh) 2004-03-30 2005-03-25 评估音频和视频源数据的方法及设备

Country Status (6)

Country Link
US (1) US20050228673A1 (zh)
EP (1) EP1730667A1 (zh)
JP (1) JP5049117B2 (zh)
KR (2) KR101013658B1 (zh)
CN (1) CN1930575B (zh)
WO (1) WO2005098740A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11688035B2 (en) 2021-04-15 2023-06-27 MetaConsumer, Inc. Systems and methods for capturing user consumption of information

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7587318B2 (en) * 2002-09-12 2009-09-08 Broadcom Corporation Correlating video images of lip movements with audio signals to improve speech recognition
US20040073690A1 (en) 2002-09-30 2004-04-15 Neil Hepworth Voice over IP endpoint call admission
US7359979B2 (en) 2002-09-30 2008-04-15 Avaya Technology Corp. Packet prioritization and associated bandwidth and buffer management techniques for audio over IP
US7978827B1 (en) 2004-06-30 2011-07-12 Avaya Inc. Automatic configuration of call handling based on end-user needs and characteristics
US20060192775A1 (en) * 2005-02-25 2006-08-31 Microsoft Corporation Using detected visual cues to change computer system operating states
WO2007086042A2 (en) * 2006-01-25 2007-08-02 Nice Systems Ltd. Method and apparatus for segmentation of audio interactions
US8024189B2 (en) * 2006-06-22 2011-09-20 Microsoft Corporation Identification of people using multiple types of input
KR100835996B1 (ko) 2006-12-05 2008-06-09 한국전자통신연구원 적응형 발성 화면 분석 방법 및 장치
JP2009157905A (ja) * 2007-12-07 2009-07-16 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8218751B2 (en) 2008-09-29 2012-07-10 Avaya Inc. Method and apparatus for identifying and eliminating the source of background noise in multi-party teleconferences
KR101581883B1 (ko) * 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
JP5911796B2 (ja) * 2009-04-30 2016-04-27 サムスン エレクトロニクス カンパニー リミテッド マルチモーダル情報を用いるユーザ意図推論装置及び方法
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
CN102262880A (zh) * 2010-05-31 2011-11-30 苏州闻道网络科技有限公司 一种音频提取装置和方法
US9311395B2 (en) 2010-06-10 2016-04-12 Aol Inc. Systems and methods for manipulating electronic content based on speech recognition
US8601076B2 (en) 2010-06-10 2013-12-03 Aol Inc. Systems and methods for identifying and notifying users of electronic content based on biometric recognition
US8949123B2 (en) 2011-04-11 2015-02-03 Samsung Electronics Co., Ltd. Display apparatus and voice conversion method thereof
PL403724A1 (pl) * 2013-05-01 2014-11-10 Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie System rozpoznawania mowy i sposób wykorzystania dynamicznych modeli i sieci Bayesa
US9542948B2 (en) * 2014-04-09 2017-01-10 Google Inc. Text-dependent speaker identification
EP3192015A1 (en) * 2014-09-09 2017-07-19 Intel Corporation Improved fixed point integer implementations for neural networks
GB2533373B (en) * 2014-12-18 2018-07-04 Canon Kk Video-based sound source separation
CN105991851A (zh) 2015-02-17 2016-10-05 杜比实验室特许公司 处理电话会议系统中的烦扰
US10129608B2 (en) * 2015-02-24 2018-11-13 Zepp Labs, Inc. Detect sports video highlights based on voice recognition
US10109277B2 (en) * 2015-04-27 2018-10-23 Nuance Communications, Inc. Methods and apparatus for speech recognition using visual information
TWI564791B (zh) * 2015-05-19 2017-01-01 卡訊電子股份有限公司 播音控制系統、方法、電腦程式產品及電腦可讀取紀錄媒體
CN105959723B (zh) * 2016-05-16 2018-09-18 浙江大学 一种基于机器视觉和语音信号处理相结合的假唱检测方法
US20180018973A1 (en) 2016-07-15 2018-01-18 Google Inc. Speaker verification
US9741360B1 (en) * 2016-10-09 2017-08-22 Spectimbre Inc. Speech enhancement for target speakers
US10332515B2 (en) * 2017-03-14 2019-06-25 Google Llc Query endpointing based on lip detection
US10593351B2 (en) * 2017-05-03 2020-03-17 Ajit Arun Zadgaonkar System and method for estimating hormone level and physiological conditions by analysing speech samples
CN110709924B (zh) * 2017-11-22 2024-01-09 谷歌有限责任公司 视听语音分离
US10951859B2 (en) 2018-05-30 2021-03-16 Microsoft Technology Licensing, Llc Videoconferencing device and method
CN109040641B (zh) * 2018-08-30 2020-10-16 维沃移动通信有限公司 一种视频数据合成方法及装置
WO2020172828A1 (zh) * 2019-02-27 2020-09-03 华为技术有限公司 一种声源分离方法、装置及设备
KR102230667B1 (ko) * 2019-05-10 2021-03-22 네이버 주식회사 오디오-비주얼 데이터에 기반한 화자 분리 방법 및 장치
CN110544479A (zh) * 2019-08-30 2019-12-06 上海依图信息技术有限公司 一种去噪的语音识别方法及装置
CN110516755A (zh) * 2019-08-30 2019-11-29 上海依图信息技术有限公司 一种结合语音识别的身体轨迹实时跟踪方法及装置
CN110545396A (zh) * 2019-08-30 2019-12-06 上海依图信息技术有限公司 一种基于定位去噪的语音识别方法及装置
CN110544491A (zh) * 2019-08-30 2019-12-06 上海依图信息技术有限公司 一种实时关联说话人及其语音识别结果的方法及装置
CN110517295A (zh) * 2019-08-30 2019-11-29 上海依图信息技术有限公司 一种结合语音识别的实时人脸轨迹跟踪方法及装置
CN110503957A (zh) * 2019-08-30 2019-11-26 上海依图信息技术有限公司 一种基于图像去噪的语音识别方法及装置
CN110827823A (zh) * 2019-11-13 2020-02-21 联想(北京)有限公司 语音辅助识别方法、装置、存储介质及电子设备
CN113035225B (zh) * 2019-12-09 2023-02-28 中国科学院自动化研究所 视觉声纹辅助的语音分离方法及装置
CN111028833B (zh) * 2019-12-16 2022-08-16 广州小鹏汽车科技有限公司 一种交互、车辆的交互方法、装置
US11836886B2 (en) * 2021-04-15 2023-12-05 MetaConsumer, Inc. Systems and methods for capturing and processing user consumption of information
CN113593529B (zh) * 2021-07-09 2023-07-25 北京字跳网络技术有限公司 说话人分离算法的评估方法、装置、电子设备和存储介质
CN116758902A (zh) * 2023-06-01 2023-09-15 镁佳(北京)科技有限公司 一种多人说话场景下音视频识别模型训练及识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1213135A (zh) * 1997-08-26 1999-04-07 三星电子株式会社 高质量的音频编码/解码设备和数字通用盘
CN1257631A (zh) * 1997-03-27 2000-06-21 法国电讯公司 视频会议系统
CN1296607A (zh) * 1998-02-04 2001-05-23 夸尔柯姆股份有限公司 用于经噪声补偿的话音识别的系统和方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975960A (en) * 1985-06-03 1990-12-04 Petajan Eric D Electronic facial tracking and detection system and method and apparatus for automated speech recognition
US5621858A (en) * 1992-05-26 1997-04-15 Ricoh Corporation Neural network acoustic and visual speech recognition system training method and apparatus
US5586215A (en) * 1992-05-26 1996-12-17 Ricoh Corporation Neural network acoustic and visual speech recognition system
US5481543A (en) * 1993-03-16 1996-01-02 Sony Corporation Rational input buffer arrangements for auxiliary information in video and audio signal processing systems
US5506932A (en) * 1993-04-16 1996-04-09 Data Translation, Inc. Synchronizing digital audio to digital video
US6471420B1 (en) * 1994-05-13 2002-10-29 Matsushita Electric Industrial Co., Ltd. Voice selection apparatus voice response apparatus, and game apparatus using word tables from which selected words are output as voice selections
JP3798530B2 (ja) * 1997-09-05 2006-07-19 松下電器産業株式会社 音声認識装置及び音声認識方法
US5940118A (en) * 1997-12-22 1999-08-17 Nortel Networks Corporation System and method for steering directional microphones
JP3865924B2 (ja) * 1998-03-26 2007-01-10 松下電器産業株式会社 音声認識装置
US7081915B1 (en) * 1998-06-17 2006-07-25 Intel Corporation Control of video conferencing using activity detection
JP2000175170A (ja) * 1998-12-04 2000-06-23 Nec Corp 多地点テレビ会議システム及びその通信方法
GB9908545D0 (en) * 1999-04-14 1999-06-09 Canon Kk Image processing apparatus
FR2797343B1 (fr) * 1999-08-04 2001-10-05 Matra Nortel Communications Procede et dispositif de detection d'activite vocale
US6594629B1 (en) * 1999-08-06 2003-07-15 International Business Machines Corporation Methods and apparatus for audio-visual speech detection and recognition
US6683968B1 (en) * 1999-09-16 2004-01-27 Hewlett-Packard Development Company, L.P. Method for visual tracking using switching linear dynamic system models
US6754373B1 (en) * 2000-07-14 2004-06-22 International Business Machines Corporation System and method for microphone activation using visual speech cues
US6707921B2 (en) * 2001-11-26 2004-03-16 Hewlett-Packard Development Company, Lp. Use of mouth position and mouth movement to filter noise from speech in a hearing aid
JP4212274B2 (ja) * 2001-12-20 2009-01-21 シャープ株式会社 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム
US7219062B2 (en) * 2002-01-30 2007-05-15 Koninklijke Philips Electronics N.V. Speech activity detection using acoustic and facial characteristics in an automatic speech recognition system
US7165029B2 (en) * 2002-05-09 2007-01-16 Intel Corporation Coupled hidden Markov model for audiovisual speech recognition
US7472063B2 (en) * 2002-12-19 2008-12-30 Intel Corporation Audio-visual feature fusion and support vector machine useful for continuous speech recognition
US7203669B2 (en) * 2003-03-17 2007-04-10 Intel Corporation Detector tree of boosted classifiers for real-time object detection and tracking
US7454342B2 (en) * 2003-03-19 2008-11-18 Intel Corporation Coupled hidden Markov model (CHMM) for continuous audiovisual speech recognition
US7343289B2 (en) * 2003-06-25 2008-03-11 Microsoft Corp. System and method for audio/video speaker detection
US20050027530A1 (en) * 2003-07-31 2005-02-03 Tieyan Fu Audio-visual speaker identification using coupled hidden markov models
US7362350B2 (en) * 2004-04-30 2008-04-22 Microsoft Corporation System and process for adding high frame-rate current speaker data to a low frame-rate video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1257631A (zh) * 1997-03-27 2000-06-21 法国电讯公司 视频会议系统
CN1213135A (zh) * 1997-08-26 1999-04-07 三星电子株式会社 高质量的音频编码/解码设备和数字通用盘
CN1296607A (zh) * 1998-02-04 2001-05-23 夸尔柯姆股份有限公司 用于经噪声补偿的话音识别的系统和方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
James M.Rehg Kevin P.Murphy Paul W.Fieguth.Vision-Based Speaker Detection Using Bayesian Networks.IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION2.1999,2第111页左栏第5行至第38行. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11688035B2 (en) 2021-04-15 2023-06-27 MetaConsumer, Inc. Systems and methods for capturing user consumption of information

Also Published As

Publication number Publication date
JP5049117B2 (ja) 2012-10-17
EP1730667A1 (en) 2006-12-13
WO2005098740A1 (en) 2005-10-20
KR101013658B1 (ko) 2011-02-10
US20050228673A1 (en) 2005-10-13
KR20080088669A (ko) 2008-10-02
KR20070004017A (ko) 2007-01-05
JP2007528031A (ja) 2007-10-04
CN1930575A (zh) 2007-03-14

Similar Documents

Publication Publication Date Title
CN1930575B (zh) 评估音频和视频源数据的方法及设备
US9595259B2 (en) Sound source-separating device and sound source-separating method
US8484040B2 (en) Social analysis in multi-participant meetings
CN102084416B (zh) 音视频签名、导出签名的方法以及比较音视频数据的方法
PH12020551830A1 (en) Computerized systems and methods for determining authenticity using micro expressions
CN110545396A (zh) 一种基于定位去噪的语音识别方法及装置
Cristani et al. Look at who’s talking: Voice activity detection by automated gesture analysis
CN110544479A (zh) 一种去噪的语音识别方法及装置
KR20200092143A (ko) 딥러닝 신경망을 이용한 디스플레이 패널 불량 진단 시스템 및 방법
CN110970056A (zh) 一种从视频中分离音源的方法
CN110503957A (zh) 一种基于图像去噪的语音识别方法及装置
Prince et al. Synching models with infants: A perceptual-level model of infant audio-visual synchrony detection
Besson et al. Extraction of audio features specific to speech production for multimodal speaker detection
KR102518310B1 (ko) 자폐 스펙트럼 장애 진단 장치 및 방법
Hung et al. Towards audio-visual on-line diarization of participants in group meetings
CN114762039A (zh) 一种会议数据处理方法及相关设备
CN102667770B (zh) 用于计算机辅助地注解多媒体数据的方法和设备
CN113408405A (zh) 一种安检方法、装置、计算机设备及存储介质
Hou et al. Rule-embedded network for audio-visual voice activity detection in live musical video streams
Hung et al. Associating audio-visual activity cues in a dominance estimation framework
CN110544270A (zh) 结合语音识别且实时预测人脸追踪轨迹方法及装置
Lubitz et al. The VVAD-LRS3 Dataset for Visual Voice Activity Detection
JP2014195267A (ja) 映像音響処理システム、映像音響処理方法及びプログラム
Cristani et al. Audio-video integration for background modelling
Ishizuka et al. A speaker diarization method based on the probabilistic fusion of audio-visual location information

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110504

Termination date: 20170325

CF01 Termination of patent right due to non-payment of annual fee