CN1860504A - 用于视听内容合成的系统和方法 - Google Patents

用于视听内容合成的系统和方法 Download PDF

Info

Publication number
CN1860504A
CN1860504A CNA2004800282271A CN200480028227A CN1860504A CN 1860504 A CN1860504 A CN 1860504A CN A2004800282271 A CNA2004800282271 A CN A2004800282271A CN 200480028227 A CN200480028227 A CN 200480028227A CN 1860504 A CN1860504 A CN 1860504A
Authority
CN
China
Prior art keywords
talker
audiovisual
face
audio
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2004800282271A
Other languages
English (en)
Inventor
N·迪米特罗瓦
A·米勒
D·李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN1860504A publication Critical patent/CN1860504A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4751End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user accounts, e.g. accounts for children
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Abstract

提供了一种用于在视频图像处理器中合成视听内容的系统和方法。内容合成应用处理器从表示正在讲话的讲话者的视听输入信号中提取音频特征和视频特征。处理器使用所提取的视觉特征来创建讲话者脸部的计算机产生的动画模型。然后处理器使讲话者脸部的动画模型的面部运动与用于表示讲话者谈话的多个音频逻辑单元(诸如音素)同步。依照这种方式处理器合成讲话者脸部的视听表示,其与讲话者谈话准确地同步。

Description

用于视听内容合成的系统和方法
本发明总体上涉及视听系统,并且更准确地说涉及用于在视频图像处理器中合成视听内容的系统和方法。
计算机科学的发展继续增加计算机的速度和计算能力。当计算机与人类计算机用户通信时,大部分通信依照在图形显示器中的文本消息的形式进行,所述人类计算机用户从计算机屏幕读取所述文本消息。某些计算机应用,尤其是那些发展来显示计算机游戏图形的计算机应用,能够依照由计算机产生讲话者的视觉图像的形式来向计算机用户给出计算机输出。特别地是,计算机产生人脸的动画模型来表示谁是讲话者并且同时输出所述讲话者的谈话。
计算机系统很难创建由计算机产生的讲话人的逼真的视觉图像。这是由于人脸在讲话的过程中会表现出各种各样的面部表情。人脸可以示出许多表达情绪并且为所讲的话给出了附加含义的微妙特征。每个人从出生开始就在识别和解释面部表情。因此,人类计算机用户能够迅速地察觉计算机产生的劣质的动画人脸。劣质的动画人脸常常困扰着人类计算机用户。在最坏的情况下,劣质的动画人脸甚至可能防碍理解所述动画人脸所讲的消息。
因此在本领域中需要一种能够创建讲话者的逼真视听表示的系统和方法。在本领域中还需要一种能够为计算机产生的动画人脸创建逼真的面部表情的系统和方法。
为了解决上述现有技术的缺陷,本发明的系统和方法能够提供讲话者的逼真视听表示。本发明的系统和方法还能够为计算机产生的动画人脸创建逼真的面部表情。
本发明的系统和方法包括位于视频图像处理器的计算机系统中的内容合成应用处理器。内容合成应用处理器从表示正在讲话的讲话者的视听输入信号中提取音频特征和视频特征。处理器使用所提取的视觉特征来创建计算机产生的讲话者脸部的动画模型。处理器通过使用隐藏马尔可夫模型(Hidden Markov Model)或时延神经网络(Time Delayed Neural Network)来分类讲话者面部特征的视觉脸部运动分量,以便表示讲话者脸部的运动分量。
内容合成应用处理器包括学习模块,用于提取并分类讲话者谈话的音频特征和视频特征。处理器通过使用隐藏马尔可夫模型或时延神经网络来分类所提取的讲话者谈话的音频特征以便表示诸如音素之类的音频逻辑单元。然后处理器使讲话者脸部的动画模型的面部运动与用于表示讲话者谈话的多个音频逻辑单元同步。依照这种方式处理器合成与讲话者的谈话准确同步的讲话者脸部的逼真的视听表示。
在本发明的一个有益实施例中,在训练阶段中,处理器根据讲话者脸部的音频特征和视频特征来创建视听输入向量。然后处理器通过使用隐藏马尔可夫模型或时延神经网络来根据视听输入向量创建视听讲话脸部运动分量。然后处理器对视听输入向量执行语义关联过程,以便获得在用于表示讲话者脸部的音素和用于表示讲话者脸部的视位之间的关联。
在识别阶段中,处理器分析新的输入视频。处理器提取讲话者谈话的音频特征并且使用语义关联过程来找到所述音频特征的相应视频表示。然后处理器通过使用隐藏马尔可夫模型或时延神经网络来把相应的视频表示与视听讲话脸部运动分量相匹配。然后处理器为每个选择的视听讲话脸部运动分量创建计算机产生的动画脸部,并且使每个计算机产生的动画脸部与所述讲话者谈话同步。最终结果是用于提供与讲话者谈话同步的讲话者脸部的视听表示的输出。
本发明的目的是提供用于创建并显示与人脸有关的多媒体信息的系统和方法。
本发明的另一目的是提供用于创建并显示讲话者的逼真视听表示的系统和方法。
本发明的又一目的是提供用于创建并显示计算机产生的动画人脸的逼真面部表情的系统和方法。
本发明的另一目的是提供用于使讲话者脸部的动画模型的面部运动与用于表示讲话者谈话的多个音频逻辑单元同步的系统和方法。
本发明的又一目的是提供用于在视频图像处理器中合成视听内容的系统和方法。
上文相当宽泛地概括了本发明的特征和技术优点,以便那些本领域技术人员可以更好地理解随后的具体实施方式。以下将要描述本发明那些附加特征和优点,其形成了本发明权利要求的主题。那些本领域技术人员应当理解,可以容易地使用公开的概念和具体实施例作为基础来修改或设计其它结构从而实现与本发明相同的目的。那些本领域技术人员还应当认识到,这种等效构造在本发明的最宽形式内并不脱离其精神和范围。
在进行对本发明的具体描述之前,阐明本专利文献中所使用的特定词和短语的定义是有益的:术语“包括”和“包含”及其衍生词汇意指无限制地包括;术语“或”是相容的,意指和/或;短语“与...相关联”和“与其相关联的”及其衍生词汇可以意指包括、包括在内、与之互连、包含、包含在内、连接到或与之连接、耦合到或与之耦合、与之通信、与之合作、交错、并列、接近于、绑定到、具有、具有属性等;并且术语“控制器”、“处理器”或“设备”意指控制至少一个操作的任何装置、系统或其部分,这种装置可以用硬件、固件或软件或者至少两者的组合来实现。应当注意,与任何特定的控制器相关联的功能可以是集中式或分布式的,无论是本地的还是远程的。特别地是,控制器可以包括一个或多个数据处理器,以及相关联的输入/输出装置和存储器,所述一个或多个数据处理器执行一个或多个应用程序和/或操作系统程序。提供了本专利文献中的特定词和短语的定义。本领域内普通技术人员应当理解,在许多实例(如果不是大部分实例的话)中,这种定义适用于这种定义的词和短语的先前的使用以及将来的使用。
为了更完整地理解本发明及其优点,现在参考以下结合附图的描述,其中相同的数字指代相同的对象,并且其中:
图1是用于图示显示部件和示例性计算机的框图,所述计算机包括依照本发明原理的内容合成应用处理器;
图2是用于更详细地图示本发明的内容合成应用处理器的框图;
图3是用于图示本发明的某些软件模块的框图;
图4是用于图示本发明的内容合成应用处理器怎样获得讲话脸部运动分量(speaking face movement component SFMC)的框图;
图5是用于图示本发明的内容合成应用处理器怎样使用讲话脸部运动分量(SFMC)及其它参数来合成讲话者脸部动画并使其与讲话者谈话同步的框图;
图6图示了用于示出本发明方法的有益实施例的第一部分步骤的流程图;
图7图示了用于示出本发明方法的有益实施例的第二部分步骤的流程图;和
图8图示了用于示出本发明方法的有益实施例的第三部分步骤的流程图。
下述的图1到8和在本专利文献中用于描述发明原理的各个实施例仅仅是用于举例说明的目的,而不应当被解释对本发明的范围的任何限制。可以在任何合适的视听系统中使用本发明。
图1是用于图示显示部件110(具有显示屏115)和示例性计算机120的框图,所述计算机120包括依照本发明原理的内容合成应用处理器190。计算机120接收来自视听信号源130的视听信号。源130可以向计算机120提供先前所记录的视听信号。源130还可以向计算机120提供实况的或“流式”视听信号。计算机120还接收来自用户输入部件140的用户输入信号。用户输入部件140可以包括任何常规的用户输入信号源(例如,键盘、鼠标、计算机磁盘文件)。
计算机120包括中央处理器(CPU)150和存储器160。存储器160包括操作系统软件170和应用程序180。计算机120还包括本发明的内容合成应用处理器190。为了描述方便,将把内容合成应用处理器190作为与CPU 150和存储器160分离的部件来描述其结构和操作。然而应当理解,内容合成应用处理器190可以访问并利用在计算机120内的CPU 150和存储器160设备以便实现本发明的方法。
如稍后将更完整地描述,内容合成应用处理器190分析来自源130的视听输入信号,所述视听输入信号用于表示讲话者。内容合成应用处理器190从来自源130的视听输入信号中提取音频特征和视觉特征,并且使用所述音频特征和视觉特征来创建计算机产生的讲话者面部的动画模型,并且使所述讲话者面部的动画模型与讲话者谈话同步。计算机产生的讲话者面部的动画模型(与同步的谈话)可以在显示部件110的显示屏115上显示。显示部件110可以包括任何常规类型的显示部件(例如,电视、计算机监视器、平板显示屏)。
图2是用于更详细地图示本发明的内容合成应用处理器190的框图。内容合成应用处理器190能够把视听信号(及其各个分量)存储在存储部件220中。存储部件220可以包括随机存取存储器(RAM)。存储部件220可以包括诸如闪速存储器之类的非易失性随机存取存储器(RAM)。存储部件220可以包括诸如硬盘驱动器(未示出)之类的大量数据存储装置。存储部件220还可以包括用于读取可读/可写DVD或可再写的CD-ROM的附属外围驱动器或可移动磁盘驱动器(嵌入或附加的)。如图2所图示,此类的可移动磁盘驱动器能够接收并读取可再写的CD-ROM光盘225。
内容合成应用处理器190向控制器230提供视听信号。控制器230还能够从内容合成应用处理器190接收控制信号并且向内容合成应用处理器190发送控制信号。控制器230还通过存储部件220耦合到内容合成应用处理器190。
如图2所示,控制器230包括内容合成应用软件235。内容合成应用软件235包括能够实现本发明方法的计算机软件。在图3中示出了本发明的某些软件模块。
内容合成应用软件235包括(1)用于获得脸部的视觉显示的模块310,(2)用于跟踪面部特征的模块320,(3)学习模块330,(4)用于获得音频谈话部分的模块340,(5)用于提取谈话音频特征的模块350,(6)面部视听特征匹配和分类模块360,(7)针对选择参数的面部动画模块370,和(8)讲话脸部动画和同步模块380。下面更完整地描述软件模块的功能。
内容合成应用处理器190包括控制器230和内容合成应用软件235。控制器230和内容合成应用软件235一起构成能够实现本发明的内容合成应用处理器。
如上所述,内容合成应用处理器190从视听输入信号提取音频特征和视觉特征并且使用所述音频特征和视觉特征来创建计算机产生的讲话者的动画脸部。内容合成应用处理器190还使计算机产生的讲话者的动画脸部与讲话者谈话同步。为了实现此结果,内容合成应用处理器190首先从视听信号中获得音频特征和视觉特征。
图4图示了内容合成应用处理器190怎样从视听信号中获得讲话脸部运动分量(SFMC)。在图4中所示出的元素总体上用附图标记400来指代。图4中的输入视听信号由源410表示。源410向模块310提供视听信号。模块310从所述视听信号中获得讲话者脸部的视觉显示。模块310可以包括由W.R.Rabiner和A.Jacquin在论文“Object Tracking Using Motion-Adaptive Modeling of SceneContent”中所描述的类型的系统,96年全球通信系统学报,卷2,第877-881页(1996年11月)。然后模块310向模块320提供讲话者面部的视觉显示。
模块320跟踪讲话者面部的面部特征。模块320可以包括由G.Hager和K.Toyama在论文“The XVision System:A General PurposeSubstrate for Portable Real-Time Vision Applications”中所描述的类型的XVision软件系统,计算机视觉和理解,卷69(1),第23-37页(1997)。XVision系统提供了多个不同的基于特征和基于关联的跟踪器,所述跟踪器能够跟踪视频流内的边缘、拐角或区域。模块320向学习模块330提供讲话者面部特征的跟踪信息。
视听信号的源410还向模块340提供了视听信号。模块340获得讲话者的音频信号的谈话部分,所述讲话者的脸部由模块310识别。模块340可以包括由Dongge Li、Ishwar K.Seti、Nevenka Dimitrova和Thomas McGee在论文“Classification of General Audio Datafor Content-Based Retrieval”中所描述的类型的系统,模式识别学,卷22(5),第533-544页(2001)。然后模块340向模块350提供讲话者的谈话。模块350提取讲话者谈话的音频特征。模块350还可以包括在上面引用的论文“Classification of GeneralAudio Data for Content-Based Retrieval”中所描述的类型的系统。然后模块350向学习模块330提供所提取的讲话者谈话的音频特征。如稍后将更完整地描述的,学习模块330分类来自模块320的输入以及来自模块350的输入以便获得讲话脸部运动分量(speaking face movement component SFMC)420。讲话脸部运动分量(SFMC)420被存储在数据库505中(在图5中所示)。
学习模块330包括能够执行几种不同类型过程的软件模块。由学习模块330所执行的一类过程使用隐藏马尔可夫模型以便使用Baum-Welch算法来训练。由学习模块330所执行的另一类过程使用隐藏马尔可夫模型以便使用维特比(Viterbi)算法来识别。学习模块330还可以使用时延神经网络(TDNN)来作为隐藏马尔可夫模型的替代。学习模块330还能够执行用于执行语义关联计算的过程。
在本发明的一个有益实施例中,学习模块330使用隐藏马尔可夫模型(HMM)来分类讲话者面部的面部特征(从模块320输入)以及所提取的讲话者谈话的音频特征(从模块350输入)。来自模块320和模块350的数据值被用作n维特征向量f=f(f1,f2,f3,...,fn)的分量。对于时间分段记录该特征向量。然后把观测值符号馈送到隐藏马尔可夫模型(HMM)。
隐藏马尔可夫模型(HMM)是在信号处理中广泛使用的通用技术。隐藏马尔可夫模型(HMM)构造用于解释观测(符号)出现的模型并且使用所述模型来识别其它观测序列。至于关于隐藏马尔可夫模型(HMM)及其应用的背景信息,参阅L.R.Rabiner的论文“A Tutorialon Hidden Markov Models and Selected Applications in SpeechRecognition”,IEEE学报,卷77,第257-285页(1989)。
在HMM中,存在有限数目个可用的状态,并且所述HMM总是在那些状态之一。在每个时钟时间,HMM根据取决于先前状态的转移概率分送来进入新状态。在转移之后,HMM根据取决于当前状态的概率分布来产生输出符号。在HMM的形式定义中,状态被表示为Q={q1,q2,q3,...,qN},其中N是状态的数目。观测符号被表示为V={v1,v2,v3,...,vM},其中M是符号的数目。在状态之间的转移概率分布由矩阵A={aij}表示,其中aij=Pr{在t+1的qj|在t的qi},并且观测符号概率分布由矩阵B={bj(k)}表示,其中bj(k)是当当前状态为qj时产生vk的概率。
在学习模块330中的HMM的操作分两个阶段进行。第一阶段是训练阶段,而第二阶段是分类阶段。首先描述训练阶段。学习模块330构造多个不同的HMM,其中每个HMM对应于不同的逻辑单元。逻辑单元可以是词或音素或视位。在本发明的一个有益实施例中,逻辑单元是音素。音素是表示话语的语言中的声音单元。每个所讲语言具有不同的音素集。依照美国英语的朗曼词典,在美国英语中存在四十六个(46)音素。美国英语中的音素数目是某些讨论的主题。某些人认为存在四十(40)、四十三(43)、四十八(48)或五十(50)个这种音素。
在本发明的另一有益实施例中,逻辑单元是视位。视位是可以用来描述特定声音的通用面部图像。当人们发出每个单个特殊声音时,嘴以特殊的方式使讲话者的嘴唇形成某一形状。对应于声音的面部图像被称作视位。视位是音素的视觉等效物。听力受损的那些人可以通过观看视位来从视觉上察觉声音。这是听力受损的人怎样“唇读”讲话者脸部来确定他在讲什么。
学习模块330通过利用特征向量值的集合的训练来构造多个不同的HMM。HMM训练实质上包括调节参数拉姆达(λ)其中λ=(A,B,π)以便使观测序列Pr(O|λ)的概率最大化。符号π表示初始状态分布并且被定义为π={πi},其中πi是HMM的初始状态是qi的概率。字母O表示观测序列。
学习模块330收集已经通过记录谈话者的正面视图所获得的数据集。从语音数据库的文本语料库中选择预定数目的句子(例如,两百个句子)。音频信号和视频信号都以三十帧每秒(30fps)被数字化并且分析。这创建了视听训练数据样本。所述数据样本的一半用于训练。所述数据样本的一半用于分类(即,测试)。
首先考虑音频数据样本。对于每个语音分段,计算选择的不同的音频系数作为音频特征。存在可用于分类的多个声学特征。它们包括:MFCC(梅尔倒频谱系数,Mel Cepstral FrequencyCoefficients)、LPC(线性预测编码系数Linear Predictive CodingCoefficients)、Delta MFCC、Delta LPC、自相关MFCC、几种时间特征和几个频谱特征。可以使用滤波器组快速傅里叶变换(FastFourier Transform FFT)频谱的离散余弦变换(Discrete CosineTransform DCT)来提取MFCC特征。例如参见A.M.Noll的论文“Cepstrum Pitch Determination”,美国声学协会期刊,卷41,号2,第293-309页(1967)。沿着时间轴对窗口式输入数据逐帧地执行MFCC计算。可以使用的窗口类型包括方窗(Square window)和汉明窗(Hamming window)。
可以使用自相关方法来提取LPC特征。例如参见R.P.Ramachandrian等人的论文“A Comparative Study of Robust LinearPredictive Analysis Methods with Applications to SpeakerIdentification”,关于语音和音频处理的IEEE学报中,卷3,号2,第117-125页(1995年3月)。
可以使用下面的公式来用MFCC特征提取Delta MFCC特征:
ΔMFCCi(v)=MFCCi+1(v)-MFCCi(v)        (1)
Delta MFCC值是在MFCC相邻值之间的差值。
可以使用下面的公式来用LPC特征提取Delta LPC特征:
ΔLPCi(v)=LPCi+1(v)-LPCi(v)           (2)
Delta LPC值是在LPC相邻值之间的差值。
可以使用下面的公式来用MFCC特征提取自相关MFCC特征:
ACMFCC i ( l ) ( v ) = 1 L Σ j = 1 i + L ( MFC C j ( v ) · MFCC j + l ( v ) ) - - - ( 3 )
其中值L表示窗口长度,而下标i表示时间实例,并且下标j表示另一时间实例。
现在考虑视觉数据样本。内容合成应用处理器190使用面部运动跟踪算法来分析视觉脸部运动分量。视觉脸部运动分量对应于在确定粒度级(例如,词、声音)的面部失真(即,从静态模型的变换)。输出是对应于具体讲话脸部运动分量(SFMC)参数的所训练的HMM。此数据集用于训练音频到视觉的映射。训练过程的目标在于找到所有HMM的模型λ。本发明的图形驱动的面部动画制作系统和方法为递送并显示与人脸有关的多媒体信息的问题提供了有效的解决方案。
在本发明的另一有益实施例中,逻辑单元是一种视听输入向量。在训练过程期间,学习模块330结合音频特征和视频特征来创建视听输入向量。由于视听输入向量是呈现音素和视位的属性的逻辑单元,所以所述视听输入向量是混合逻辑单元,所述音素和视位对应于用于表示所讲音素的特定视听讲话脸部运动分量。输出是对应于具体讲话脸部运动分量(SFMC)参数的所训练的HMM。
考虑诸如在Matthew Brand的论文“Voice Puppetry”中所描述的现有技术系统,刊登于计算机绘图学报,ACM SIGGRAPH,第21-28页(1999年8月)。在语音木偶系统中,相关的讲话脸部运动分量只处于视觉空间。相比之下,本发明中的相关讲话脸部运动分量处于视听空间。使用视听空间中的讲话脸部运动分量的优点在于它提供了更综合且正确的分析。例如,在视觉空间中,音节“pa”和音节“ba”看起来是相同的。但是这两个音节的发音是不同的。在本发明的视听空间中,清楚地辨别“pa”音节的视听输入向量和“ba”音节的视听输入向量。
学习模块330还提供了语义关联(也被称为交叉模态关联)以便对于每个视听输入向量识别在音素和视位之间的映射。在交叉模态关联中,可以根据同步的相关型式来把从不同的介质源(例如,音频和图像)所提取的低级特征彼此相匹配。另外,可以使用交叉模态关联来进行根据第一类型的介质源(例如,音频)搜索在不同类型的介质源(例如,图像序列)上的内容的查询。例如参见D.Li和N.Dimitrova于2002年11月15日所提交的美国专利申请序号[概要号703002]“Content Retrieval Based on SemanticAssociation”。专利申请“Content Retrieval Based on SemanticAssociation”为本发明的受让人所占有,并且通过引用在此结合以供参考。
由学习模块330所使用的交叉模态技术比诸如在上述的语音木偶系统中所利用的现有技术更为有效。语音木偶系统要求非常复杂且昂贵的方法来把音频和视觉模式相关联。由学习模块330所使用的交叉模态搜索依照类似于传统的基于内容的多媒体检索系统的方式而直接基于低级特征。由学习模块330所使用的交叉模态搜索可以利用(1)潜在的语义索引,(2)典型相关或(3)交叉模态因素分析。
潜在的语义索引(LSI)是文本信息获取中的有力工具,其用于发现在不同的文本单元(例如,关键词和段)之间的基础语义关系。用于检测在视觉脸部和相关谈话之间的语义关联的方法可以是基于LSI的。此方法由四个步骤组成:构造联合多模态特征空间、标准化、奇异值分解(singular value decomposition SVD)和语义关联测量。
在t个视频帧中的每个给定n个视觉特征和m个音频特征,联合特征空间可以被表示为:
X=[V1,V2,...,Vn,A1,A2,...,Am]            (1)
其中
Vi=(vi(1),vi(2),...,vi(t))T                  (2)
并且Ai=(ai(1),ai(2),...,ai(t))T              (3)
各种视觉和音频特征可以具有完全不同的变化。因而需要对联合空间中每个特征依照其最大元素(或确定的其它统计度量)进行标准化并且标准化可以被表示为:
X ^ l ( : ) = X l ( : ) max ( abs ( X l ( : ) ) ) - - - ( 4 )
在标准化之后,标准化的矩阵
Figure A20048002822700172
中的所有元素具有在-1和1之间的值。然后SVD可以如下执行:
X ^ = S · V · D T - - - ( 5 )
其中S和D是构成左和右奇异向量的矩阵,并且V是奇异值按递减次序的对角矩阵。
只把和最重要的前k个奇异向量保持在S和D中,我们可以导出具有减少的特征维数的最佳近似 其中主要保存在视觉和音频特征之间的语义(相关)信息并且大大地减少了无关的噪声。然后可以使用传统的皮尔森(Pearson)相关或交互信息计算以便有效地识别并测量在不同模态之间的语义关联。实验示出LSI的有效性并且其优点超过直接使用传统的相关计算。
最小二乘意义上的
Figure A20048002822700175
的上述优化可以被表示为:
X ^ ≅ X ~ = S ~ · V ~ · D ~ T - - - ( 6 )
其中
Figure A20048002822700177
Figure A20048002822700178
Figure A20048002822700179
分别由S、V和D中的前k个向量组成。在所述文献中对于k选择适当的值仍然是未解决的问题。一般说来,k必须足够大到保持大部分语义结构并且足够小到除去某些无关的噪声。方程式(6)不适于使用全局或脱机训练的应用,这是因为必须即时执行分解。然而,由于奇异向量的正交属性,我们可以依照下列新形式来重写(6):
X ~ ≅ X ~ = X · D ~ · D ~ T - - - ( 7 )
此导出的新形式(7)对那些需要全局或脱机训练的SVD结果的应用来说是重要的。
分析新的输入音频可以由语义关联方法来执行以便找到匹配视频和最可能的面部运动。在语义关联的所有三个方法中,变换矩阵用来把低阶特征变换为减少的特征空间,其中可以估算在查询和搜索不同类型介质源的候选物之间的匹配。例如,对于潜在的语义索引,我们将使用根据上面方程式(7)所导出的变换矩阵。然后可以根据在变换空间中的皮尔森相关或交互信息来执行匹配估算以便找到最高相关(即,最佳匹配)。
在本发明的另一有益实施例中,学习模块330使用时延神经网络(Time Delayed Neural Network TDNN)来分类讲话者面部的面部特征(从模块320输入)以及所提取的讲话者谈话的音频特征(从模块350输入)。对于涉及时延神经网络(TDNN)的一般体系结构的背景信息,参阅S.Curinga等人的论文“Lip Movements SynthesisUsing Time-Delay”,欧洲信号处理会议论文集,1996(1996)。
TDNN在没有音素识别的情况下提供发音参数的估算,并且可以适当地建模协同发音效果。对于每个神经元通过计算窗口的每个位置的输入窗口的加权和,并且向所述和应用S形激活函数来计算TDNN中神经元的激活。每个输入节点组(称作具有共享权重的感受范围)只采取输入符号流的小窗口,所述输入符号流在每个时间步骤中通过窗口更进一步地“前进”。隐藏层的输出也用使用共享权重的感受窗口来覆盖。网络输出由输出神经元的不同时间步骤的平方和构成。
训练过程对TDNN的输入由HMM情况下的输入符号系列构成。由TDNN所执行的分类过程与由HMM执行的分类过程类似。学习模块330也能使用TDNN来分类讲话者脸部的面部特征(从模块320输入)以及所提取的讲话者谈话的音频特征(从模块350输入)以便创建先前所描述类型的视听输入向量。
图5图示了内容合成应用处理器190怎样使用讲话脸部运动分量(SFMC)及其它参数来合成讲话者脸部动画并使之与讲话者谈话同步。在图5中所示出的元素被总称为面部动画部件500。在涉及把信号经由通信信道发送到远程位置的任何应用中,面部动画部件500可以位于通信信道的接收器端。在通信信道的发送器端执行分类过程。在通信信道的接收器端执行面部动画和同步过程。
面部动画部件500的面部视听特征匹配和分类模块360被耦合到数据库505并且接收来自所述数据库505的输入。数据库505包含讲话脸部运动分量(SFMC)。面部视听特征匹配和分类模块360还接收来自讲话脸部视觉参数模块510的讲话脸部视觉参数。谈话模块520向音频特征提取模块530提供讲话者所讲词汇的音频。音频特征提取模块530从所述谈话中提取音频特征并且把它们提供到面部视听匹配和分类模块360。
在分类过程期间,依照先前为训练过程所描述的相同方法从视听信号提取相同的视听符号。面部视听特征匹配和分类模块360执行所述分类过程以便把视听特征分类为先前为训练过程所描述的预定义类之一。分类过程的粒度(例如,词、音素)是与训练过程相同等级的粒度。
然后面部视听特征匹配和分类模块360向选择参数面部动画模块370发送分类信息。选择参数面部动画模块370接收来自三维(3D)面部模型模块540和结构映射模块550的附加输入。选择参数面部动画模块370使用对应于适当分类的面部动画参数来合成讲话者脸部(即,创建计算机产生的讲话者脸部的动画模型)。
大部分现有技术系统是基于音素且基于视位的嘴唇同步系统。这种系统通过在表情之间内插或样条方法(splining)来解决合成讲话者脸部的问题。相比之下,本发明使用语义(交叉模态)关联来发现单个视位序列以及单个视位序列的序列。
然后把选择参数面部动画模块370的输出发送到讲话脸部动画和同步模块380。讲话脸部动画和同步模块380还接收来自谈话模块520的输入。讲话脸部动画和同步模块380使面部动画信息与来自谈话模块520的语音输入同步,以便创建并输出与讲话者谈话同步的讲话者脸部的动画图像。
可选择的音频表达分类模块560可以耦合在音频特征提取模块530和讲话脸部动画和同步模块380之间。音频表达分类模块560能够确定音频表达等级(例如,大声语音、兴奋语音、正常语音、温和语音)并且依照所述确定来分类音频。根据音频表达分类,讲话脸部动画和同步模块380可以修改动画面部参数来强调某些特征以便更准确地表达讲话者脸部的面部动画。
图6图示了用于示出本发明方法的有益实施例的第一部分步骤的流程图。在图6中所示出的方法步骤总体上用附图标记600来指代。在第一步骤中,内容合成应用处理器190接收讲话者的视听信号(步骤610)。内容合成应用处理器190分析视听信号以便获得讲话者脸部的视觉显示(步骤620)。然后内容合成应用处理器190获得讲话者空间特征的跟踪信息(步骤630)。然后学习模块330使用隐藏马尔可夫模型分类视觉脸部运动分量以便表示每个讲话脸部运动分量(SFMC)(步骤640)。然后本发明的方法继续到在图7中所示出的步骤710(步骤650)。
在步骤620所描述的操作同时,内容合成应用处理器190获得包含讲话者谈话的音频部分(步骤660)。然后内容合成应用处理器190提取讲话者谈话的音频特征(步骤670)。然后学习模块330使用隐藏马尔可夫模型来分类音频特征以便表示每个音频逻辑单元(例如音素)(步骤680)。然后本发明的方法继续到在图7中所示出的步骤710(步骤650)。
图7图示了用于示出本发明方法的有益实施例的第二部分步骤的流程图。在图7中所示出的方法步骤总体上用附图标记700来指代。在图7所示出的第一步骤中,内容合成应用处理器190接收(1)要分析的新音频信号和(2)来自步骤640的讲话脸部运动分量(SFMC)以及(3)来自步骤680的分类音频特征作为输入(步骤710)。然后内容合成应用处理器190把每个讲话脸部分量(SFMC)与每个相应的分类音频特征相匹配(步骤720)。然后内容合成应用处理器190为每个所选择的视听参数创建计算机产生的动画脸部,其用于表示所述讲话者(步骤730)。
内容合成应用处理器190使计算机产生的每个讲话者的动画脸部与讲话者谈话同步(步骤740)。这创建了与所述讲话者谈话同步的讲话者脸部的视听表示。然后把所述讲话者脸部的视听表示输出到显示部件110(步骤750)。
图8图示了用于示出本发明方法的有益实施例的第三部分步骤的流程图。在图8中所示出的方法步骤总体上用附图标记800来指代。学习模块330接收视听输入向量并且使用隐藏马尔可夫模型来创建视听讲话脸部运动分量(SFMC)(步骤810)。学习模块330接收视听输入向量并且创建视听讲话脸部运动分量(SFMC),并且使用语义关联以便获得在音素和视位之间的关联(即,映射)(步骤820)。
然后内容合成应用处理器190接收要分析的新的音频信号并且使用模块350来提取讲话者谈话的音频特征(步骤830)。然后内容合成应用处理器190使用语义关联来找到对应于所提取音频特征的视频表示(步骤840)。然后内容合成应用处理器190使用隐藏马尔可夫模型把音频表示与视听讲话脸部运动分量(SFMC)相匹配(步骤850)。
然后内容合成应用处理器190为每个所选择的视听讲话脸部运动分量(SFMC)创建计算机产生的动画脸部,其用于表示所述讲话者(步骤860)。内容合成应用处理器190使计算机产生的每个讲话者的动画脸部与讲话者谈话同步(步骤870)。这创建了与所述讲话者谈话同步的讲话者脸部的视听表示。然后把所述讲话者脸部的视听表示输出到显示部件110(步骤880)。
在先前所描述的步骤730、740和750中以及在先前所描述的步骤860、870和880中,使用计算机绘图方法来制作脸部动画。然而,可以使用替代方法。在替代方法中,使用所存储的讲话者视频片段以便生成对应于所讲短语或句子的视觉输出。在使用语义关联获得视听片段之后,我们获得视频片段序列。每个片段对应于单个音素。然而,在“缝合”时间点的过程中,所产生的视频可能呈现出不平稳的模式。可以把这些片段一起编辑为对应于整个句子或短语的单个视频。可以使用视频变形和编辑来减少在单个视频片段之间的不平稳性。此方法的优点在于不必使用3D模型和结构映射,而这是计算机绘图方法的基础。
本发明的系统和方法例如可以用在视频会议、交互式视频应用和对象级视频编辑中。为了给出能正确表示对应于所讲言语的面部运动的动画脸部,用户只需发送文本或谈话。本发明会通过在传输的接收端合成视觉语音元素来产生表示文本的语音模型的动画交谈脸部。本发明的系统和方法穿过传输信道发送音频信号。本发明的系统和方法还发送几个参数,所述参数告诉传输的接收端怎样驱动动画脸部以使得它对于所讲的词呈现正确的视觉特征。所述参数与在发送器端所执行的视听分类相关。
遍及本专利文献,已经把本发明描述为能够创建并使用讲话脸部运动分量(SFMC)。可以理解的是,本发明不局限于创建并使用讲话脸部运动分量(SFMC)。本发明还能够产生并使用其它类型的视听配置。讲话脸部运动分量只是本发明能够创建并使用的视听配置的一个特定实施例。
虽然已经相对于本发明的某些实施例详细描述了本发明,然而那些本领域技术人员应当理解在不脱离本发明最宽形式的原理和范围的情况下,可以在本发明内进行各种改变、替换、修改、变换和更改。

Claims (33)

1.一种数字传输系统中的设备,能够接收表示正在讲话的讲话者的视听输入信号并且能够使用表示讲话者谈话的多个音频逻辑单元来创建讲话者脸部的动画模型,所述设备包括内容合成应用处理器,所述内容合成应用处理器进行以下操作:
从所述视听输入信号中提取所述讲话者谈话的音频特征以及所述讲话者脸部的视觉特征;
根据所述音频特征和视觉特征来创建视听输入向量;
根据所述视听输入向量来创建视听配置;并且
对视听输入向量执行语义关联过程,以便获得在表示所述讲话者谈话的音素和表示所述讲话者脸部的视位之间的关联。
2.如权利要求1所述的设备,其中所述内容合成应用处理器能够通过下列操作来分析输入音频信号:
提取讲话者谈话的音频特征;
使用语义关联过程来找到所述音频特征的相应视频表示;并且
把所述相应视频表示与所述视听配置相匹配。
3.如权利要求2所述的设备,其中所述内容合成应用处理器还能够:
为每个选择的视听配置创建计算机产生的动画脸部;
使每个计算机产生的动画脸部与所述讲话者谈话同步;并且
输出与所述讲话者谈话同步的讲话者脸部的视听表示。
4.如权利要求1所述的设备,其中所述内容合成应用处理器从视听输入信号中所提取的音频特征包括梅尔倒频谱系数、线性预测编码系数、Delta梅尔倒频谱系数、Delta线性预测编码系数和自相关梅尔倒频谱系数之一。
5.如权利要求1所述的设备,其中所述内容合成应用处理器使用隐藏马尔可夫模型和时延神经网络之一来根据所述视听输入向量创建视听配置。
6.如权利要求2所述的设备,其中所述内容合成应用处理器使用隐藏马尔可夫模型和时延神经网络之一来把相应的视频表示与所述视听配置相匹配。
7.如权利要求3所述的设备,其中所述内容合成应用处理器还包括:
面部视听特征匹配和分类模块,用于把多个视听配置中的每个与相应分类的音频特征相匹配,以便创建面部动画参数;和
选择参数面部动画模块,用于为所选择的面部动画参数创建讲话者脸部的动画模型。
8.如权利要求7所述的设备,其中所述选择参数面部动画模块通过使用(1)具有纹理贴图的3D模型和(2)视频编辑之一来创建讲话者脸部的动画模型。
9.如权利要求2所述的设备,其中所述语义关联过程包括潜在语义索引、典型相关和交叉模态因素分析之一。
10.如权利要求1所述的设备,其中所述视听配置包括视听讲话脸部运动分量。
11.如权利要求8所述的设备,其中所述内容合成应用处理器还包括:
讲话脸部动画和同步模块,用于使讲话者脸部的每个动画模型与讲话者谈话的音频特征同步以便创建与所述讲话者谈话同步的所述讲话者脸部的视听表示;和
音频表达分类模块,用于确定讲话者谈话的音频表达等级,并且向所述讲话脸部动画和同步模块提供所述讲话者谈话音频表达等级,以便修改所述讲话者动画面部参数。
12.一种用于在视频图像处理器中合成视听内容的方法,所述方法包括步骤:
接收表示正在讲话的讲话者的视听输入信号;
从所述视听输入信号中提取所述讲话者谈话的音频特征以及所述讲话者脸部的视觉特征;
根据所述音频特征和视觉特征来创建视听输入向量;
根据所述视听输入向量来创建视听配置;并且
对所述视听输入向量执行语义关联过程,以便获得在表示所述讲话者谈话的音素和表示所述讲话者脸部的视位之间的关联。
13.如权利要求12所述的方法,还包括步骤:
分析讲话者谈话的输入音频信号;
提取所述讲话者谈话的音频特征;
使用语义关联过程来找到所述音频特征的相应视频表示;并且
把所述相应视频表示与所述视听配置相匹配。
14.如权利要求13所述的方法,还包括步骤:
为每个选择的视听配置创建计算机产生的动画脸部;
使每个计算机产生的动画脸部与所述讲话者谈话同步;并且
输出与所述讲话者谈话同步的讲话者脸部的视听表示。
15.如权利要求12所述的方法,其中从所述视听输入信号中所提取的音频特征包括梅尔倒频谱系数、线性预测编码系数、Delta梅尔倒频谱系数、Delta线性预测编码系数和自相关梅尔倒频谱系数之一。
16.如权利要求12所述的方法,其中使用隐藏马尔可夫模型和时延神经网络之一来根据所述视听输入向量创建所述视听配置。
17.如权利要求13所述的方法,其中使用隐藏马尔可夫模型和时延神经网络之一来把相应的视频表示与所述视听配置相匹配。
18.如权利要求12所述的方法,还包括步骤:
把多个视听配置中的每个与相应分类的音频特征相匹配,以便创建面部动画参数;并且
为所选择的面部动画参数创建讲话者脸部的动画模型。
19.如权利要求18所述的方法,还包括步骤:
通过使用(1)具有纹理贴图的3D模型和(2)视频编辑之一来创建讲话者脸部的动画模型。
20.如权利要求13所述的方法,其中所述语义关联过程包括潜在语义索引、典型相关和交叉模态因素分析之一。
21.如权利要求12所述的方法,其中所述视听配置包括视听讲话脸部运动分量。
22.如权利要求20所述的方法,还包括步骤:
使讲话者脸部的每个动画模型与讲话者谈话的音频特征同步;
创建与所述讲话者谈话同步的讲话者脸部的视听表示;
确定所述讲话者谈话的音频表达等级;并且
响应于确定所述讲话者谈话的音频表达等级来修改所述讲话者动画面部参数。
23.一种由用于在视频图像处理器中合成视听内容的方法所产生的合成视听信号,其中所述方法包括步骤:
接收表示正在讲话的讲话者的视听输入信号;
从所述视听输入信号中提取讲话者谈话的音频特征以及讲话者脸部的视觉特征;
根据所述音频特征和视觉特征来创建视听输入向量;
根据所述视听输入向量来创建视听配置;并且
对所述视听输入向量执行语义关联过程,以便获得在表示所述讲话者谈话的音素和表示所述讲话者脸部的视位之间的关联。
24.如权利要求23所述的合成视听信号,其中所述方法还包括步骤:
分析讲话者谈话的输入音频信号;
提取所述讲话者谈话的音频特征;
使用语义关联过程来找到所述音频特征的相应视频表示;并且
把相应的视频表示与所述视听配置相匹配。
25.如权利要求24所述的合成视听信号,其中所述方法还包括步骤:
为每个选择的视听配置创建计算机产生的动画脸部;
使每个计算机产生的动画脸部与所述讲话者谈话同步;并且
输出与所述讲话者谈话同步的讲话者脸部的视听表示。
26.如权利要求23所述的合成视听信号,其中从所述视听输入信号中所提取的音频特征包括梅尔倒频谱系数、线性预测编码系数、Delta梅尔倒频谱系数、Delta线性预测编码系数和自相关梅尔倒频谱系数之一。
27.如权利要求23所述的合成视听信号,其中使用隐藏马尔可夫模型和时延神经网络之一来根据所述视听输入向量创建所述视听配置。
28.如权利要求24所述的合成视听信号,其中使用隐藏马尔可夫模型和时延神经网络之一来把相应的视频表示与所述视听配置相匹配。
29.如权利要求25所述的合成视听信号,其中所述方法还包括步骤:
把多个视听配置中的每个与相应分类的音频特征相匹配,以便创建面部动画参数;并且
为所选择的面部动画参数创建讲话者脸部的动画模型。
30.如权利要求29所述的合成视听信号,所述方法还包括步骤:
通过使用(1)具有纹理贴图的3D模型和(2)视频编辑之一来创建讲话者脸部的动画模型。
31.如权利要求24所述的合成视听信号,其中所述语义过程包括潜在语义索引、典型相关和交叉模态因素分析之一。
32.如权利要求23所述的合成视听信号,其中所述视听配置包括视听讲话脸部运动分量。
33.如权利要求31所述的合成视听信号,其中所述方法还包括步骤:
使讲话者脸部的每个动画模型与讲话者谈话的音频特征同步;
创建与所述讲话者谈话同步的讲话者脸部的视听表示;
确定所述讲话者谈话的音频表达等级;并且
响应于确定所述讲话者谈话的音频表达等级来修改所述讲话者动画面部参数。
CNA2004800282271A 2003-09-30 2004-09-28 用于视听内容合成的系统和方法 Pending CN1860504A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US50709803P 2003-09-30 2003-09-30
US60/507,098 2003-09-30

Publications (1)

Publication Number Publication Date
CN1860504A true CN1860504A (zh) 2006-11-08

Family

ID=34393213

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2004800282271A Pending CN1860504A (zh) 2003-09-30 2004-09-28 用于视听内容合成的系统和方法

Country Status (6)

Country Link
US (1) US7636662B2 (zh)
EP (1) EP1671277A1 (zh)
JP (1) JP2007507784A (zh)
KR (1) KR20060090687A (zh)
CN (1) CN1860504A (zh)
WO (1) WO2005031654A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101937268A (zh) * 2009-06-30 2011-01-05 索尼公司 基于视觉唇形识别的设备控制
CN102455847A (zh) * 2010-10-15 2012-05-16 宏碁股份有限公司 基于语义的视觉效果产生系统
CN102547298A (zh) * 2010-12-17 2012-07-04 中国移动通信集团公司 图像信息输出方法、装置及终端
CN103279970A (zh) * 2013-05-10 2013-09-04 中国科学技术大学 一种实时的语音驱动人脸动画的方法
WO2014089732A1 (en) * 2012-12-10 2014-06-19 Intel Corporation Method, apparatus and system of video and audio sharing among communication devices
CN104995662A (zh) * 2013-03-20 2015-10-21 英特尔公司 基于化身的传输协议、图标生成和玩偶动画
CN101887709B (zh) * 2009-05-12 2016-03-02 奇景光电股份有限公司 利用影音链接处理多媒体数据的多媒体处理器及处理方法
WO2016155505A1 (zh) * 2015-03-27 2016-10-06 厦门幻世网络科技有限公司 一种基于移动终端的3d动画编辑方法
CN106101858A (zh) * 2016-06-27 2016-11-09 乐视控股(北京)有限公司 一种视频生成方法及装置
CN107210054A (zh) * 2015-02-03 2017-09-26 汤姆逊许可公司 用于同步视听内容与惯性测量的方法、装置和系统
CN111466124A (zh) * 2017-12-19 2020-07-28 皇家Kpn公司 增强的视听多用户通信
CN113435357A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 语音播报方法、装置、设备及存储介质
CN114255737A (zh) * 2022-02-28 2022-03-29 北京世纪好未来教育科技有限公司 语音生成方法、装置、电子设备
WO2023011221A1 (zh) * 2021-08-06 2023-02-09 南京硅基智能科技有限公司 混合变形值的输出方法及存储介质、电子装置

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6735253B1 (en) 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
US7143434B1 (en) 1998-11-06 2006-11-28 Seungyup Paek Video description system and method
WO2003051031A2 (en) 2001-12-06 2003-06-19 The Trustees Of Columbia University In The City Of New York Method and apparatus for planarization of a material by growing and removing a sacrificial film
WO2006096612A2 (en) 2005-03-04 2006-09-14 The Trustees Of Columbia University In The City Of New York System and method for motion estimation and mode decision for low-complexity h.264 decoder
GB2430073A (en) * 2005-09-08 2007-03-14 Univ East Anglia Analysis and transcription of music
US8024189B2 (en) * 2006-06-22 2011-09-20 Microsoft Corporation Identification of people using multiple types of input
WO2009126785A2 (en) 2008-04-10 2009-10-15 The Trustees Of Columbia University In The City Of New York Systems and methods for image archaeology
WO2009155281A1 (en) 2008-06-17 2009-12-23 The Trustees Of Columbia University In The City Of New York System and method for dynamically and interactively searching media data
US8463053B1 (en) 2008-08-08 2013-06-11 The Research Foundation Of State University Of New York Enhanced max margin learning on multimodal data mining in a multimedia database
US8224652B2 (en) * 2008-09-26 2012-07-17 Microsoft Corporation Speech and text driven HMM-based body animation synthesis
US8671069B2 (en) 2008-12-22 2014-03-11 The Trustees Of Columbia University, In The City Of New York Rapid image annotation via brain state decoding and visual pattern mining
KR101615262B1 (ko) 2009-08-12 2016-04-26 삼성전자주식회사 시멘틱 정보를 이용한 멀티 채널 오디오 인코딩 및 디코딩 방법 및 장치
US8419534B2 (en) * 2009-09-30 2013-04-16 Disney Enterprises, Inc. Systems and methods for using images to generate gameplay content
US8135221B2 (en) * 2009-10-07 2012-03-13 Eastman Kodak Company Video concept classification using audio-visual atoms
WO2012088403A2 (en) 2010-12-22 2012-06-28 Seyyer, Inc. Video transmission and sharing over ultra-low bitrate wireless communication channel
CN103650002B (zh) * 2011-05-06 2018-02-23 西尔股份有限公司 基于文本的视频生成
KR101328466B1 (ko) * 2011-10-18 2013-11-13 한국과학기술원 객체 움직임 예측을 위한 컴퓨터로 구현된 계층적 시간적 메모리 네트워크에서의 마르코프 모델의 입력 제공방법 및 이를 이용한 움직임 예측 방법
CN102820030B (zh) * 2012-07-27 2014-03-26 中国科学院自动化研究所 发音器官可视语音合成系统
US9104467B2 (en) * 2012-10-14 2015-08-11 Ari M Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
GB2510201B (en) * 2013-01-29 2017-05-03 Toshiba Res Europe Ltd A computer generated head
GB2510200B (en) * 2013-01-29 2017-05-10 Toshiba Res Europe Ltd A computer generated head
US9576587B2 (en) * 2013-06-12 2017-02-21 Technion Research & Development Foundation Ltd. Example-based cross-modal denoising
GB2516965B (en) 2013-08-08 2018-01-31 Toshiba Res Europe Limited Synthetic audiovisual storyteller
KR20150068609A (ko) * 2013-12-12 2015-06-22 삼성전자주식회사 이미지 정보 표시 방법 및 장치
CN104092654B (zh) * 2014-01-22 2016-03-02 腾讯科技(深圳)有限公司 媒体播放方法、客户端及系统
CN105898667A (zh) 2014-12-22 2016-08-24 杜比实验室特许公司 从音频内容基于投影提取音频对象
US9659570B2 (en) 2015-10-08 2017-05-23 International Business Machines Corporation Audiovisual information processing in videoconferencing
US10534955B2 (en) * 2016-01-22 2020-01-14 Dreamworks Animation L.L.C. Facial capture analysis and training system
WO2017137947A1 (en) * 2016-02-10 2017-08-17 Vats Nitin Producing realistic talking face with expression using images text and voice
US10460732B2 (en) * 2016-03-31 2019-10-29 Tata Consultancy Services Limited System and method to insert visual subtitles in videos
US10139780B2 (en) * 2016-10-11 2018-11-27 Charles Rinker Motion communication system and method
US10595039B2 (en) 2017-03-31 2020-03-17 Nvidia Corporation System and method for content and motion controlled action video generation
US10225516B2 (en) 2017-06-23 2019-03-05 Cisco Technology, Inc. Latency mitigation through intelligent extrapolation in multimedia systems
US10636193B1 (en) * 2017-06-29 2020-04-28 Facebook Technologies, Llc Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display
US10636192B1 (en) 2017-06-30 2020-04-28 Facebook Technologies, Llc Generating a graphical representation of a face of a user wearing a head mounted display
US10586368B2 (en) * 2017-10-26 2020-03-10 Snap Inc. Joint audio-video facial animation system
WO2019161229A1 (en) 2018-02-15 2019-08-22 DMAI, Inc. System and method for reconstructing unoccupied 3d space
US11468885B2 (en) 2018-02-15 2022-10-11 DMAI, Inc. System and method for conversational agent via adaptive caching of dialogue tree
EP3752957A4 (en) * 2018-02-15 2021-11-17 DMAI, Inc. SYSTEM AND PROCEDURE FOR SPEECH UNDERSTANDING VIA INTEGRATED AUDIO AND VIDEO-BASED VOICE RECOGNITION
US11538455B2 (en) * 2018-02-16 2022-12-27 Dolby Laboratories Licensing Corporation Speech style transfer
US10951859B2 (en) 2018-05-30 2021-03-16 Microsoft Technology Licensing, Llc Videoconferencing device and method
KR102079453B1 (ko) * 2018-07-31 2020-02-19 전자부품연구원 비디오 특성에 부합하는 오디오 합성 방법
CN109558853B (zh) * 2018-12-05 2021-05-25 维沃移动通信有限公司 一种音频合成方法及终端设备
WO2020129959A1 (ja) * 2018-12-18 2020-06-25 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置及び表示方法
WO2020152657A1 (en) * 2019-01-25 2020-07-30 Soul Machines Limited Real-time generation of speech animation
WO2020256471A1 (ko) * 2019-06-21 2020-12-24 주식회사 머니브레인 머신 러닝 기반의 발화 동영상 생성 방법 및 장치
KR102360840B1 (ko) * 2019-06-21 2022-02-09 주식회사 딥브레인에이아이 텍스트를 이용한 발화 동영상 생성 방법 및 장치
WO2020256472A1 (ko) * 2019-06-21 2020-12-24 주식회사 머니브레인 음성 신호를 이용한 발화 동영상 생성 방법 및 장치
WO2020256475A1 (ko) * 2019-06-21 2020-12-24 주식회사 머니브레인 텍스트를 이용한 발화 동영상 생성 방법 및 장치
KR102360839B1 (ko) * 2019-06-21 2022-02-09 주식회사 딥브레인에이아이 머신 러닝 기반의 발화 동영상 생성 방법 및 장치
KR102346755B1 (ko) * 2019-06-21 2022-01-03 주식회사 딥브레인에이아이 음성 신호를 이용한 발화 동영상 생성 방법 및 장치
WO2021112365A1 (ko) * 2019-12-02 2021-06-10 삼성전자 주식회사 음성 신호에서 헤드 모델 애니메이션을 생성하는 방법 및 이를 구현하는 전자 장치
US11544886B2 (en) * 2019-12-17 2023-01-03 Samsung Electronics Co., Ltd. Generating digital avatar
JP7299572B2 (ja) * 2019-12-26 2023-06-28 浙江大学 音声信号により駆動される顔アニメーションの生成方法
US11417041B2 (en) * 2020-02-12 2022-08-16 Adobe Inc. Style-aware audio-driven talking head animation from a single image
KR102331517B1 (ko) * 2020-07-13 2021-12-01 주식회사 딥브레인에이아이 발화 동영상 생성 방법 및 장치
KR20220013850A (ko) * 2020-07-27 2022-02-04 주식회사 딥브레인에이아이 발화 영상 생성 방법 및 장치
US11610356B2 (en) 2020-07-28 2023-03-21 Samsung Electronics Co., Ltd. Method and electronic device for providing sign language
KR102483416B1 (ko) * 2020-08-25 2022-12-30 주식회사 딥브레인에이아이 발화 동영상 생성 방법 및 장치
KR102501773B1 (ko) * 2020-08-28 2023-02-21 주식회사 딥브레인에이아이 랜드마크를 함께 생성하는 발화 동영상 생성 장치 및 방법
JP7083380B2 (ja) * 2020-09-28 2022-06-10 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
US20220374637A1 (en) * 2021-05-20 2022-11-24 Nvidia Corporation Synthesizing video from audio using one or more neural networks
CN117635784B (zh) * 2023-12-19 2024-04-19 世优(北京)科技有限公司 三维数字人脸部动画自动生成系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6839672B1 (en) * 1998-01-30 2005-01-04 At&T Corp. Integration of talking heads and text-to-speech synthesizers for visual TTS
US6052132A (en) * 1998-02-06 2000-04-18 Digital Equipment Corporation Technique for providing a computer generated face having coordinated eye and head movement
JP4236815B2 (ja) * 1998-03-11 2009-03-11 マイクロソフト コーポレーション 顔合成装置および顔合成方法
US6735566B1 (en) * 1998-10-09 2004-05-11 Mitsubishi Electric Research Laboratories, Inc. Generating realistic facial animation from speech
US6593936B1 (en) * 1999-02-01 2003-07-15 At&T Corp. Synthetic audiovisual description scheme, method and system for MPEG-7
US6366885B1 (en) * 1999-08-27 2002-04-02 International Business Machines Corporation Speech driven lip synthesis using viseme based hidden markov models
US6539354B1 (en) * 2000-03-24 2003-03-25 Fluent Speech Technologies, Inc. Methods and devices for producing and using synthetic visual speech based on natural coarticulation
IT1320002B1 (it) * 2000-03-31 2003-11-12 Cselt Centro Studi Lab Telecom Procedimento per l'animazione di un modello sintetizzato di voltoumano pilotata da un segnale audio.
GB0008537D0 (en) * 2000-04-06 2000-05-24 Ananova Ltd Character animation
US7149686B1 (en) * 2000-06-23 2006-12-12 International Business Machines Corporation System and method for eliminating synchronization errors in electronic audiovisual transmissions and presentations
IL153207A0 (en) 2000-07-11 2003-07-06 Abraham Glezerman Agent for guiding children in a virtual learning environment
US20020008716A1 (en) 2000-07-21 2002-01-24 Colburn Robert A. System and method for controlling expression characteristics of a virtual agent
US6661418B1 (en) * 2001-01-22 2003-12-09 Digital Animations Limited Character animation system
US7630932B2 (en) * 2002-01-31 2009-12-08 Transunion Interactive, Inc. Loan rate and lending information analysis system
US7133535B2 (en) * 2002-12-21 2006-11-07 Microsoft Corp. System and method for real time lip synchronization
US7168953B1 (en) * 2003-01-27 2007-01-30 Massachusetts Institute Of Technology Trainable videorealistic speech animation
US7990384B2 (en) * 2003-09-15 2011-08-02 At&T Intellectual Property Ii, L.P. Audio-visual selection process for the synthesis of photo-realistic talking-head animations

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101887709B (zh) * 2009-05-12 2016-03-02 奇景光电股份有限公司 利用影音链接处理多媒体数据的多媒体处理器及处理方法
CN101937268A (zh) * 2009-06-30 2011-01-05 索尼公司 基于视觉唇形识别的设备控制
CN102455847A (zh) * 2010-10-15 2012-05-16 宏碁股份有限公司 基于语义的视觉效果产生系统
CN102547298A (zh) * 2010-12-17 2012-07-04 中国移动通信集团公司 图像信息输出方法、装置及终端
CN102547298B (zh) * 2010-12-17 2014-09-10 中国移动通信集团公司 图像信息输出方法、装置及终端
US10798142B2 (en) 2012-12-10 2020-10-06 Intel Corporation Method, apparatus and system of video and audio sharing among communication devices
WO2014089732A1 (en) * 2012-12-10 2014-06-19 Intel Corporation Method, apparatus and system of video and audio sharing among communication devices
CN104756502A (zh) * 2012-12-10 2015-07-01 英特尔公司 通信设备之间的视频和音频共享的方法、设备和系统
CN104995662A (zh) * 2013-03-20 2015-10-21 英特尔公司 基于化身的传输协议、图标生成和玩偶动画
CN103279970A (zh) * 2013-05-10 2013-09-04 中国科学技术大学 一种实时的语音驱动人脸动画的方法
CN103279970B (zh) * 2013-05-10 2016-12-28 中国科学技术大学 一种实时的语音驱动人脸动画的方法
CN107210054A (zh) * 2015-02-03 2017-09-26 汤姆逊许可公司 用于同步视听内容与惯性测量的方法、装置和系统
WO2016155505A1 (zh) * 2015-03-27 2016-10-06 厦门幻世网络科技有限公司 一种基于移动终端的3d动画编辑方法
CN106101858A (zh) * 2016-06-27 2016-11-09 乐视控股(北京)有限公司 一种视频生成方法及装置
CN111466124A (zh) * 2017-12-19 2020-07-28 皇家Kpn公司 增强的视听多用户通信
CN111466124B (zh) * 2017-12-19 2022-04-15 皇家Kpn公司 用于渲染用户的视听记录的方法,处理器系统和计算机可读介质
CN113435357A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 语音播报方法、装置、设备及存储介质
WO2023011221A1 (zh) * 2021-08-06 2023-02-09 南京硅基智能科技有限公司 混合变形值的输出方法及存储介质、电子装置
US11847726B2 (en) 2021-08-06 2023-12-19 Nanjing Silicon Intelligence Technology Co., Ltd. Method for outputting blend shape value, storage medium, and electronic device
CN114255737A (zh) * 2022-02-28 2022-03-29 北京世纪好未来教育科技有限公司 语音生成方法、装置、电子设备
CN114255737B (zh) * 2022-02-28 2022-05-17 北京世纪好未来教育科技有限公司 语音生成方法、装置、电子设备

Also Published As

Publication number Publication date
KR20060090687A (ko) 2006-08-14
WO2005031654A1 (en) 2005-04-07
JP2007507784A (ja) 2007-03-29
EP1671277A1 (en) 2006-06-21
US7636662B2 (en) 2009-12-22
US20060290699A1 (en) 2006-12-28

Similar Documents

Publication Publication Date Title
CN1860504A (zh) 用于视听内容合成的系统和方法
Wang et al. Speech emotion recognition with dual-sequence LSTM architecture
CN111429889B (zh) 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质
CN113408385B (zh) 一种音视频多模态情感分类方法及系统
Katsaggelos et al. Audiovisual fusion: Challenges and new approaches
Sargin et al. Analysis of head gesture and prosody patterns for prosody-driven head-gesture animation
CN112151030B (zh) 一种基于多模态的复杂场景语音识别方法和装置
Stappen et al. Muse 2020 challenge and workshop: Multimodal sentiment analysis, emotion-target engagement and trustworthiness detection in real-life media: Emotional car reviews in-the-wild
Fu et al. Audio/visual mapping with cross-modal hidden Markov models
CN113823323B (zh) 一种基于卷积神经网络的音频处理方法、装置及相关设备
Xue et al. Cross-modal information fusion for voice spoofing detection
Lu et al. Face-based voice conversion: Learning the voice behind a face
Hosseini et al. Multimodal modelling of human emotion using sound, image and text fusion
CN111488486A (zh) 一种基于多音源分离的电子音乐分类方法及系统
Mestre et al. Augmenting pre-trained language models with audio feature embedding for argumentation mining in political debates
CN114360491B (zh) 语音合成方法、装置、电子设备及计算机可读存储介质
Stappen et al. MuSe 2020--The First International Multimodal Sentiment Analysis in Real-life Media Challenge and Workshop
ElMaghraby et al. Noise-robust speech recognition system based on multimodal audio-visual approach using different deep learning classification techniques
Jitaru et al. Lrro: a lip reading data set for the under-resourced romanian language
Shi A survey on audio synthesis and audio-visual multimodal processing
Zorić et al. Real-time language independent lip synchronization method using a genetic algorithm
Shih et al. Speech-driven talking face using embedded confusable system for real time mobile multimedia
Mohammadi et al. Speech recognition system based on machine learning in persian language
Chit et al. Myanmar continuous speech recognition system using convolutional neural network
CN117292437B (zh) 一种唇语识别方法、装置、芯片及终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20061108