CN1731833A - 语音驱动头部图像合成影音文件的方法 - Google Patents

语音驱动头部图像合成影音文件的方法 Download PDF

Info

Publication number
CN1731833A
CN1731833A CN 200510093269 CN200510093269A CN1731833A CN 1731833 A CN1731833 A CN 1731833A CN 200510093269 CN200510093269 CN 200510093269 CN 200510093269 A CN200510093269 A CN 200510093269A CN 1731833 A CN1731833 A CN 1731833A
Authority
CN
China
Prior art keywords
frame
sound
voice
rounding
lip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 200510093269
Other languages
English (en)
Other versions
CN100369469C (zh
Inventor
孙丹
王维国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Yifeng Communication Technology Co.,Ltd.
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CNB200510093269XA priority Critical patent/CN100369469C/zh
Publication of CN1731833A publication Critical patent/CN1731833A/zh
Application granted granted Critical
Publication of CN100369469C publication Critical patent/CN100369469C/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种语音驱动头部图像合成影音文件的方法。它包括取静态头部数码图像;提取头部、脸部及五官轮廓特征点数据坐标,并计算图像动画模式数据;生成包括口形闭合帧、口形张开帧、表情帧以及三种类型图像帧的各自数目在内的图像特征数据文件;采集语音数码信息;分析、提取语音特征数据,生成包括有声音语音帧和无声音语音帧在内的语音特征数据文件;将图像特征数据文件和语音特征数据文件同步合成,使得有声音语音帧对应口形张开帧,无声音语音帧对应口形闭合帧,然后输出。本发明具有图像逼真、可实现人脸及动物脸部表情的动画,制作方便简单,便于推广使用等特点。

Description

语音驱动头部图像合成影音文件的方法
技术领域
本发明涉及一种语音与图像合成影音文件的方法,特别是涉及一种语音驱动头部图像合成影音文件的方法。
背景技术
语音信号和视觉信号是人类进行学习和交流的重要手段,而综合利用语音信号和视觉信号使人们对信息的理解和掌握更加快捷、方便。语音驱动图像正是这样一种综合考虑声音和图像的多媒体技术。语音驱动图像是指用语音来驱动人们在用语言交流时所表达出的口形变化以及面部表情和动作,它能在一定程度上传达人们想要表达的意思,并能帮助人们加深对语言的理解。在计算机的人机交互的过程中或者在第三代移动通信应用中,如果人们面对的是一个会说话的人物形象,则使人觉得界面更为友善,方便人们的交流。中国专利申请02140286中,公开了一种“基于统计与规则结合的语音驱动人脸动画方法”,该方法是:预先得到人脸的动态音频和视频,运用统计和自学习的方法分析出人脸的运动参数并建立人脸运动模型,然后对语音和人脸特征点之间的关联模式进行统计学习。当给定新语音,利用学习到的模型以及一些规则,可以得到与该语音对应的人脸特征点运动参数,驱动人脸动画模型。这种方法有三个方面的局限性:一是必须预先得到人脸的视频(即动态图象),也就是说无法根据单一的静态图像进行处理;二是需要进行统计分析和建模,即要建立一个庞大的数据库,投入人力物力大,制作周期长,不便于普遍推广;三是对于动物脸的动态数据采集困难,其动画效果难以实现。
发明内容
为克服上述已有技术中存在的不足,本发明的目的是提供一种对单一的静态图像进行处理、即通过语音与图像合成技术使该静态图像中的人物或动物具有面目表情的简单易行的方法。
为实现上述目的,本发明提出一种语音驱动头部图像合成影音文件的方法包括下列步骤:
步骤1、取静态头部数码图像;
步骤2、提取头部、脸部及五官轮廓特征点数据坐标,并计算图像动画模式数据,用以确定口形闭合帧帧数、口形张开帧帧数以及表情帧帧数;
步骤3、生成包括口形闭合帧、口形张开帧、表情帧以及三种类型图像帧的各自数目在内的图像特征数据文件;
步骤4、采集语音数码信息;
步骤5、分析语音数码信息,提取语音特征数据;
步骤6、生成包括有声音语音帧和无声音语音帧在内的语音特征数据文件;
步骤7、所述图像特征数据文件和语音特征数据文件同步合成,使得有声音语音帧对应口形张开帧,无声音语音帧对应口形闭合帧,然后输出。
上述步骤2进一步包括下列步骤:
步骤21、根据头部、脸部及五官轮廓特征点数据坐标计算脸部动画模式数据,进而获取典型的头部、脸部及五官动画模式数据,将所获取的整个头部动画模式数据按照一定角度进行偏转,用以生成图像特征数据文件中摇头的表情帧。
步骤22、取五官轮廓特征点数据坐标中眼睛特征点数据,用眼睛上下边缘图像覆盖眼睛中间图像,用以生成图像特征数据文件中眨眼睛的表情帧。
步骤23、取五官轮廓特征点数据坐标中嘴部特征数据,将嘴部轮廓特征点数据坐标上下左右向中间部位移动或向四周扩张,用以生成图像特征数据文件中口形张开帧和口形闭合帧。
上述步骤5中进一步包括下列步骤:
步骤51、读取语音数码信息,判断语音数码信息文件是否终止,如是,结束本程序,并生成语音特征数据文件;如否,则执行步骤52;
步骤52、通过分析大量语音数码信息文件,进行有声音语音帧和无声音语音帧的过零率计算,用以确定有声阈值;
步骤53、进行噪音修正以及过零有效修正;
步骤54、过零率判断:设定有声阈值为100~728,其中女声和童声有声阈值上限为690~725之间,男声有声阈值上限为710~730之间。用以确定有声音语音帧和无声音语音帧是否在有声阈值内,如是,输出为“1”,如否,输出为“0”;
步骤55、将输出的“0”或“1”表示的无声音语音帧和有声音语音帧分别放入缓存区并重新开始读取语音数码信息。
上述步骤7进一步包括下列步骤:
步骤71、读取图像数据特征文件中口形张开帧数或口形闭合帧数;
步骤72、读取语音特征数据文件中无声音语音帧或有声音语音帧;
步骤73、判断语音特征数据是否有变化,如否,重新读取语音特征数据;如是,则当语音特征数据变为无声音语音帧(即数值为0时),则进行步骤74;如语音特征数据变为有声音语音帧(即数值为1时),则进行步骤75;
步骤74、当语音特征数据文件中连续的无声音语音帧的帧数小于4时,按照误差处理;当语音特征数据文件中连续的无声音语音帧的帧数大于图像数据特征文件中表情帧数+(20±5)时,在口形闭合帧中合理插入表情帧;当语音特征数据文件中连续的无声音语音帧的帧数为上述以外的值时,直接对应图像数据特征文件的口形闭合帧。
步骤75、当语音特征数据文件中连续的有声音语音帧的帧数小于4时,按照误差处理;当语音特征数据文件中连续的有声音语音帧的帧数大于或等于4并且小或等于两倍的口形张开帧数时,选取部分口形张开帧与该有声音语音帧对应;当语音特征数据文件中连续的有声音语音帧的帧数大于两倍的口形张开帧数时,按帧数循环输出口形张开的图像序列,如果是最后一帧图像,则采用闭合口形帧图像。
为让本发明之上述和其它目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合附图,作详细说明如下。
附图说明
图1为本发明所述方法的示意图;
图2为一种提取头部轮廓特征点数据坐标方法示意图;
图3为一种提取脸部轮廓特征点数据坐标方法示意图;
图4为一种提取五官轮廓特征点数据坐标方法示意图;
图5为另一种提取五官轮廓特征点数据坐标方法示意图;
图6为生成图像特征数据文件流程图;
图7为生成语音特征数据文件流程图;
图8为图像特征数据文件与语音特征数据文件合成影音文件方法的流程图。
具体实施方式
图1为本发明所述方法的示意图,在实际运用中,本发明可采取如下步骤:
(1)获取静态头部数码图像,例如人物头像或动物头像:图像可以是通过数码相机、扫描仪等方式获取的照片、图片,分辨率最好在800×600以上,图像清晰,以正面图像为好、头部突出,表情自然,格式可以为BMP、JPG、GIF等。BMP,JPG、GIF都是计算机和数码像机上常用和通用的图像存储格式。
(2)图像处理,利用图像跟踪技术,对图像进行预处理,选取图像轮廓特征点数据坐标:头部图像的处理和勾画方法如图2所示,例如选取头部轮廓图像中4个特征点数据坐标。脸部图像的处理和勾画方法如图3所示,可通过人工勾画或计算机边缘处理和边缘识别的方法勾勒出头脸部,其余部分作为背景,例如选取头脸部轮廓图像中4个特征点数据坐标;五官轮廓图像的处理和勾画方法如图4、图5所示,例如可选取五官轮廓图像中2~6个特征点数据坐标。
(3)图像特征提取,即提取上述图像轮廓特征点数据坐标,用以生成图像特征数据文件,其提取流程如图6所示。利用人类视觉特点以及图像处理中的检测技术,可以将图像中的头部图像轮廓特征点数据坐标值以及脸部图像轮廓特征点数据坐标从图像中提取出来。具体方法如下:
——颜色分离:通常得到的图片均为彩色图片,即每个点包含RGB三种颜色,我们在处理时需要把它转化成YUV彩色空间,转化公式是:
Y=(0.257*R)+(0.504*G)+(0.098*B)+16
U=-(0.148*R)-(0.291*G)+(0.439*B)+128
V=(0.439*R)-(0.368*G)-(0.071*B)+128
Y表示亮度,U和V表示色度和饱和度,在处理时,我们仅处理亮度信息。
——去噪处理:是通过滤波等手段进行平滑处理以去除噪声,通常采用中值滤波,这是一种最基本的图像处理算法,可在任何一本图像处理的书中得到。
——微分运算:是利用微分算子进行图像边缘检测,可采用的算子有Laplace(拉普拉兹)算子、Sobel(索贝尔)算子等,拉普拉兹算子是2阶微分算子,也就是说,相当于求取2次微分,它的精度还算比较高,但对噪声过于敏感(有噪声的情况下效果很差)是它的重大缺点,所以这种算子并不是特别常用。索贝尔算子是最常用的算子之一(它是一种一阶算子),方法简单效果也不错,但提取出的边缘比较粗,要进行细化处理。在这里我们选用效果比较理想的Sobel算子,模板大小为3×3,该算子可在任何一本图像处理的书中得到。
——二值化处理:即是对处理后的图像进行阈值操作,可先进行直方图分析,找到分界阈值,然后对图像中象素值大于阈值的象素取值为1,否则为0。
——参数计算:主要计算图像中各线段或图形的长度、面积、重心等参数,计算方法是进行象素的累加。这样就得到了头像中的各图形(如头部、脸部、眼睛、嘴巴等)的特征数据。
(4)图像动画模式:根据图像特征点坐标数据可以计算出脸部动画参数数据,从而获取典型的头部及脸部动画模式:摇头即将整个头部(第3步已经获得了头部特征和其他各有关部位特征)按照一定的角度进行偏转;眨眼即在眼睛特征范围内,用眼睛上下边缘图像覆盖眼睛中间图像(一般认为未经任何处理的头部图像的眼睛是睁开的),嘴巴张开和闭合的实现可通过嘴巴特征中上下侧向中间部位移动来实现。并计算图像动画模式数据,用以确定口形闭合帧帧数、口形张开帧帧数以及表情帧帧数;生成包括口形闭合帧、口形张开帧、表情帧以及三种类型图像帧的各自数目在内的图像特征数据文件;
(5)采集语音数码信息:语音可以通过录音设备或文本语音的转换技术获得,比如说语音格式可采用为WAVE,也可以是PCM(Pulse CodeModulation脉冲编码调制),AAC(Advanced Audio Coding高级音频编码),MP3,AMR(Adaptive Multi-Rate,适应多比率)等。
(6)分析语音数码信息,提取语音特征数据:语音数码信息分析的方法包括时域分析和频域分析等,主要通过线性预测、过零率分析、傅立叶变换、小波变换、时频分析等技术对语音数码信息进行分析。
(7)语音特征数据提取,其步骤如图7所示,通过对语音数据进行分析,可以获得语音特征参数:如能量、基频、功率谱等。
语音特征数据提取与选择是语音识别的一个重要环节。语音特征数据提取主要解决时域语音信号的数字表示问题,提取与选择的好坏直接影响到最后影音同步的效果。
语音信号的特征主要有时域和频域两种。时域特征如短时平均能量、短时平均过零率、共振峰、基音周期等;频域特征有傅立叶频谱等。现在还有结合时间和频率的特征,即时频谱,充分利用了语音信号的时序信息。
每一帧信号所对应的时域参数有,第每一帧信号所对应的时域参数有,第t帧语音的短时平均能量为
Eng ( t ) = 1 N Σ n = 0 N - 1 S t 2 ( n ) - - - ( 1 )
Eng ( t ) = 1 N Σ n = 0 N - 1 | S t ( n ) | - - - ( 2 )
其中N为分析窗的宽度,St(n)表示第t帧中第n个点的信号样值。短时平均过零率(Zero-Crossing-Rate,以下简称ZCT)为
ZCT ( t ) = Σ n = 0 N - 1 1 2 [ Sgn ( S t ( n ) S t ( n - 1 ) ) + 1 ] - - - ( 3 )
其中符号函数定义为
Sgn ( x ) = 1 , x > 0 Sgn ( x ) = 0 , x < 0 - - - ( 4 )
目前时域参数(能量和过零率)多用在语音的端点检测,判断语音的开始与结束上。而能量的使用多利用其对数值或把能量的包络作为参数使用。在我们的语音识别方法中,以短时过零率这个时域参数来作为例子。首先对大量语音文件进行人工分析,结合语音波形文件,分别统计有声语音帧和无声语音帧的ZCT数值,可以知道当该语音帧有声音时,ZCT往往会处于某个范围内,称之为有声阈值,无声语音帧则反之。流程通过分析每个语音帧ZCT值是否位于有声阈值内,自动判断是否有声。
短时过零率由于各人特点和说话环境的不同会由不小的变化,因此需要在应用的时候加入辅助判断,提高其精确性。由于时域参数不同于频域参数,不能直接判断出噪音,所以识别程序中还需要增加有除噪环节和过零准确性修正环节。通过辅助的修正判断提高了程序的准确性。
有声阈值的确定,是通过统计得出的。针对不同环境,不同年龄,不同性别的发音人,要提出一个通用的阈值,并不容易。以PCM格式的语音文件处理为例,对大量PCM音频文件的分析结果表明,声音越高,有声部分的ZCT值就越低。男声的有声阈值较大,跨度也大,女声和童声的有声阈值较小,跨度也小。在增加了两个修正环节,对PCM波形进行滤波以后,将有声阈值定在100~728。其中下限的设置影响不大,设为100是为了能够将无关信号造成的ZCT无序变动的影响消除。而女声和童声的ZCT有声阈值上限在690~725之间,无声区在725以上,若某发音人的ZCT有声阈值上限为710,一般而言,往往很少有无声段ZCT统计值位于710~725这一个区段内。意即将有声阈值上限设为725,对女声和童声基本是没有什么问题。而男声的ZCT有声阈值上限往往在710~730之间。这样男声的有声段和女声的无声段就有一个重叠,即725~730这一段。这个重叠区会对最后的判断结果造成误差。好在这个区域很窄。因此将有声阈值上限设一个居中值728,判断有一定误差,经过测试在4%以内。是可以接受的。效果测试还证明取上限值为728的效果要稍好于取727为阈值上线。
除噪修正:前面提到,采用时域信号进行识别,并不能从分析结果中直接获得音频特征的全部具体信息,需要对其特征进行辨识。
无效音判断:PCM是将声音采样值转化为二进制数据进行存储的,存在一个有效范围。以16-bit采样而言,其采样值在0~65535之间。在语音识别程序中,当读取的采样值>=65485或<=50时,均视为无效值,若这个采样点与前点或后点形成过零,同样视为无效。
噪音修正:对于有时某些接近于静音的音频段,由于录音设备或是周围环境的干扰,都可能造成采样点在0点附近浮动的,在此设置了两个环节处理这样,一是若过零量太小,视为过零无效,再有若过零存在,但是前后两个采样值距离太近,视为过零无效。这样可以有效提高了语音识别的准确性。
(8)语音特征序列:根据语音特征对语音数据进行重新分类,生成包括有声音语音帧和无声音语音帧在内的语音特征数据文件;从而形成新的语音特征数据序列。
(9)图像特征数据文件和语音特征数据文件同步合成,使得有声音语音帧对应口形张开帧,无声音语音帧对应口形闭合帧。根据分析得到的语音特征文件和图像特征文件,通过音视频合成算法得到一个与语音特征数据文件相对应的图像序列,保证在有声音语音帧对应口形张开的图像帧,无声音的语音帧对应口形闭合的图像帧。对于没有声音的语音帧用口形闭合的图像与之对应,口形张开的图像帧选择口形连续变化的一系列图像帧,将这些图像帧合理安排对应一段有声音的语音信号段,这样在连续播放图像序列的时候可以保证口形变化的连续性和平滑性;同时考虑到语音特征的自动判断必然存在一定的误差,没有声音的地方可能误判为有声音,因此需要加入误差判断机制,即找到一个合适的阈值,如果有声音的语音段大于这个值才按有声音进行图像的对应,否则,认为是判断误差,按没有声音处理。如果图像特征序列存在表情帧,则在连续多帧语音数据文件没有声音的时候,适当地插入表情帧,这样可以使形象更加逼真。
根据输入的语音特征分析文件以及图像特征文件,经过分析处理得到与输入语音特征相对应的一个新的图像序列,将原始语音和该图像序列合成后可以得到一个口形与声音对应的影音文件。
如图8所示,将生成的语音特征数据文件及图像特征数据文件作为输入。语音特征数据文件仅由0和1组成,其中可以“0”代表无声音语音帧,“1”代表有声音语音帧。图像特征数据文件由三个部分组成,口形闭合帧,口形张开帧以及表情帧,并且三种类型图像帧的各自数目存放在文件的开头。其中表情帧可包括摇头的表情帧,眨眼睛的表情帧等。因此图像特征文件的数据格式为:口形闭合帧数,表情帧帧数,口形张开帧数,口形闭合图像帧数据,表情帧图像数据,口形张开图像帧数据。本发明最重要的一点在于要实现口形与声音的对应,即在有声音的语音帧对应口形张开的图像,在没有声音的语音帧对应口形闭合的图像,而实现难点在于如何保持口形变化的连续性,从而达到一个比较好的合成效果。因此,在读取语音特征分析结果的同时,需要计算连续1或0的个数,即在某一段连续有声音语音帧或连续无声音语音帧的帧数。
当出现某一段连续无声音语音帧时,可以分为三种情况来处理:
●连续无声音语音帧的帧数<4时:此种情况下说明没有声音的语音段小于0.3s,而实际语音中没有声音的时间段明显长于0.3s,因此,认为此段分析结果为误差,按有声音处理。考虑到前一段语音同样为有声音,如“0”代表无声音语音帧,“1”代表有声音语音帧,所以从前一段语音开始,重新计算1的个数,并重新安排对应图像帧的输出。
●连续无声音语音帧的帧数>表情帧+(20±5)时,若表情帧不等于零(存在表情帧)时:此种情况下将表情帧循环安插在无声音语音帧的语音段内。
●连续无声音语音帧的帧数为其它数值时:此种情况下,语音帧全部对应口形闭合的图像。
当出现某一段连续无声音语音帧时,同样可以分为三种情况来处理:
●连续为1的语音帧的帧数小于4时,同样认为是分析误差,按0处理,对应口形闭合的图像帧。
●连续为1的语音帧的帧数大于或等于4且小于两倍的口形连续变化的图像帧数,此种情况下选取口形张开的图像中的一部分来和语音帧对应。
●连续为1的语音帧的帧数大或等于两倍的口形连续变化的图像帧数时,此种情况下,按帧数循环输出口形张开的图像序列,考虑到序列最后一帧图像的口形不一定与口形闭合图像过渡平滑,因此可以采用闭合口形。
(10)MPEG4(Moving Picture Expert Group)压缩:在合成好的影音文件中视频可以是YUV格式,音频可以是WAVE格式,采用MPEG4压缩技术对影音文件进行压缩以降低其对存储介质的需求。MPEG4是目前通用的计算机及数码设备采用的视频存储格式。
(11)输出:为满足在3G中应用的需求,可以对MPEG4压缩后的文件按照3GPP标准格式进行封装。
本发明具有影音效果逼真、制作方便简单,便于推广使用等特点。
虽然本发明已以较佳实施例披露如上,然其并非用以限定本发明,任何所属技术领域的技术人员,在不脱离本发明之精神和范围内,当可作些许之更动与改进,因此本发明之保护范围当视权利要求所界定者为准。

Claims (9)

1.一种语音驱动头部图像合成影音文件的方法,其特征是包括下列步骤:
步骤1、取静态头部数码图像;
步骤2、提取头部、脸部及五官轮廓特征点数据坐标,并计算图像动画模式数据,用以确定口形闭合帧帧数、口形张开帧帧数以及表情帧帧数;
步骤3、生成包括口形闭合帧、口形张开帧、表情帧以及三种类型图像帧的各自数目在内的图像特征数据文件;
步骤4、采集语音数码信息;
步骤5、分析语音数码信息,提取语音特征数据;
步骤6、生成包括有声音语音帧和无声音语音帧在内的语音特征数据文件;
步骤7、上述图像特征数据文件和语音特征数据文件同步合成,使得有声音语音帧对应口形张开帧,无声音语音帧对应口形闭合帧,然后输出。
2、根据权利要求1所述的方法,其特征是步骤2进一步包括下列步骤:
步骤21、根据头部、脸部及五官轮廓特征点数据坐标计算脸部动画模式数据,进而获取典型的头部、脸部及五官动画模式数据,将所获取的整个头部动画模式数据按照一定角度进行偏转,用以生成图像特征数据文件中摇头的表情帧。
3、根据权利要求2所述的方法,其特征是步骤2还进一步包括下列步骤:
步骤22、取五官轮廓特征点数据坐标中眼睛特征点数据,用眼睛上下边缘图像覆盖眼睛中间图像,用以实现眨眼睛的表情帧。
4、据权利要求3所述的方法,其特征是步骤2还进一步包括下列步骤:
步骤23、取五官轮廓特征点数据坐标中嘴部特征数据,将嘴部轮廓特征点数据坐标上下左右向中间部位移动或向四周扩张,用以实现口形张开帧和口形闭合帧。
5、根据权利要求1所述的方法,其特征是步骤5中的分析语音数码信息,提取语音特征数据进一步包括下列步骤:
步骤51、读取语音数码信息,判断语音数码信息文件是否终止,如是,结束本程序,并生成语音特征数据文件;如否,则执行步骤52;
步骤52、通过分析大量语音数码信息文件,进行有声音语音帧和无声音语音帧的过零率计算,用以确定有声阈值;
步骤53、进行噪音修正以及过零有效修正;
步骤54、过零率判断,用以确定有声音语音帧和无声音语音帧是否在有声阈值内,如是,输出为“1”,如否,输出为“0”;
步骤55、将输出的“0”或“1”表示的无声音语音帧和有声音语音帧分别放入缓存区并重新开始读取语音数码信息。
6、根据权利要求5所述的方法,其特征是上述有声阈设为100~728。
7、根据权利要求6所述的方法,其特征是上述有声阈值中女声和童声的有声阈值上限设为690~725。
8、根据权利要求6所述的方法,其特征是上述有声阈值中男声的有声阈值上限设为710~730。
9、根据权利要求1所述的方法,其特征是步骤7所述图像特征数据文件和语音特征数据文件同步合成,进一步包括下列步骤:
步骤71、读取图像数据特征文件中口形张开帧数或口形闭合帧数;
步骤72、读取语音特征数据文件中无声音语音帧或有声音语音帧;
步骤73、判断语音特征数据是否有变化,如否,重新读取语音特征数据;如是,当语音特征数据变为无声音语音帧(即数值为0时),则进行步骤74;如语音特征数据变为有声音语音帧(即数值为1时),则进行步骤75;
步骤74、当语音特征数据文件中连续的无声音语音帧的帧数小于4时,按照误差处理;当语音特征数据文件中连续的无声音语音帧的帧数大于图像数据特征文件中表情帧数+(20±5)时,在口形闭合帧中合理插入表情帧;当语音特征数据文件中连续的无声音语音帧的帧数为上述以外的值时,直接对应图像数据特征文件的口形闭合帧。
步骤75、当语音特征数据文件中连续的有声音语音帧的帧数小于4时,按照误差处理;当语音特征数据文件中连续的有声音语音帧的帧数大于或等于4并且小于或等于两倍的口形张开帧数时,选取部分口形张开帧与该有声音语音帧对应;当语音特征数据文件中连续的有声音语音帧的帧数大于两倍的口形张开帧数时,按帧数循环输出口形张开的图像序列,如果是最后一帧图像,则采用闭合口形帧图像。
CNB200510093269XA 2005-08-23 2005-08-23 语音驱动头部图像合成影音文件的方法 Active CN100369469C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNB200510093269XA CN100369469C (zh) 2005-08-23 2005-08-23 语音驱动头部图像合成影音文件的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNB200510093269XA CN100369469C (zh) 2005-08-23 2005-08-23 语音驱动头部图像合成影音文件的方法

Publications (2)

Publication Number Publication Date
CN1731833A true CN1731833A (zh) 2006-02-08
CN100369469C CN100369469C (zh) 2008-02-13

Family

ID=35964119

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB200510093269XA Active CN100369469C (zh) 2005-08-23 2005-08-23 语音驱动头部图像合成影音文件的方法

Country Status (1)

Country Link
CN (1) CN100369469C (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010081395A1 (zh) * 2009-01-19 2010-07-22 腾讯科技(深圳)有限公司 语音驱动动画中嘴唇形状变化、获取嘴唇动画的方法及装置
CN104869326A (zh) * 2015-05-27 2015-08-26 网易(杭州)网络有限公司 一种配合音频的图像显示方法和设备
CN105187736A (zh) * 2015-07-28 2015-12-23 广东欧珀移动通信有限公司 一种将静止人脸图片转化为视频的方法、系统及移动终端
CN105761559A (zh) * 2016-04-29 2016-07-13 东北电力大学 一种基于先入为主的反向共鸣的外语学习方法
CN106447750A (zh) * 2016-09-30 2017-02-22 长春市机器侠科技有限公司 一种深度写真影像重构表情同步视频生成方法
CN106653052A (zh) * 2016-12-29 2017-05-10 Tcl集团股份有限公司 虚拟人脸动画的生成方法及装置
CN106777204A (zh) * 2016-12-23 2017-05-31 北京奇虎科技有限公司 图片数据的处理方法、装置及移动终端
CN107623622A (zh) * 2016-07-15 2018-01-23 掌赢信息科技(上海)有限公司 一种发送语音动画的方法及电子设备
CN109087651A (zh) * 2018-09-05 2018-12-25 广州势必可赢网络科技有限公司 一种基于视频与语谱图的声纹鉴定方法、系统及设备
CN110072047A (zh) * 2019-01-25 2019-07-30 北京字节跳动网络技术有限公司 图像形变的控制方法、装置和硬件装置
CN110636323A (zh) * 2019-10-15 2019-12-31 博科达(北京)科技有限公司 一种基于云平台的全球直播及视频点播系统及方法
CN112992120A (zh) * 2019-12-02 2021-06-18 泛太丝亚企业管理顾问(上海)有限公司 语音转换虚拟脸部图像的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1320497C (zh) * 2002-07-03 2007-06-06 中国科学院计算技术研究所 基于统计与规则结合的语音驱动人脸动画方法
KR100451210B1 (ko) * 2002-10-26 2004-10-13 엘지전자 주식회사 이동 통신 화상 단말기에서 음성에 따른 영상 프레임율제어 장치 및 방법
US7133535B2 (en) * 2002-12-21 2006-11-07 Microsoft Corp. System and method for real time lip synchronization

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101482976B (zh) * 2009-01-19 2010-10-27 腾讯科技(深圳)有限公司 语音驱动嘴唇形状变化的方法、获取嘴唇动画的方法及装置
US8350859B2 (en) 2009-01-19 2013-01-08 Tencent Technology (Shenzhen) Company Limited Method and apparatus for changing lip shape and obtaining lip animation in voice-driven animation
WO2010081395A1 (zh) * 2009-01-19 2010-07-22 腾讯科技(深圳)有限公司 语音驱动动画中嘴唇形状变化、获取嘴唇动画的方法及装置
CN104869326A (zh) * 2015-05-27 2015-08-26 网易(杭州)网络有限公司 一种配合音频的图像显示方法和设备
CN104869326B (zh) * 2015-05-27 2018-09-11 网易(杭州)网络有限公司 一种配合音频的图像显示方法和设备
CN105187736B (zh) * 2015-07-28 2018-07-06 广东欧珀移动通信有限公司 一种将静止人脸图片转化为视频的方法、系统及移动终端
CN105187736A (zh) * 2015-07-28 2015-12-23 广东欧珀移动通信有限公司 一种将静止人脸图片转化为视频的方法、系统及移动终端
CN105761559A (zh) * 2016-04-29 2016-07-13 东北电力大学 一种基于先入为主的反向共鸣的外语学习方法
CN107623622A (zh) * 2016-07-15 2018-01-23 掌赢信息科技(上海)有限公司 一种发送语音动画的方法及电子设备
CN106447750A (zh) * 2016-09-30 2017-02-22 长春市机器侠科技有限公司 一种深度写真影像重构表情同步视频生成方法
CN106777204B (zh) * 2016-12-23 2020-08-07 北京安云世纪科技有限公司 图片数据的处理方法、装置及移动终端
CN106777204A (zh) * 2016-12-23 2017-05-31 北京奇虎科技有限公司 图片数据的处理方法、装置及移动终端
CN106653052B (zh) * 2016-12-29 2020-10-16 Tcl科技集团股份有限公司 虚拟人脸动画的生成方法及装置
CN106653052A (zh) * 2016-12-29 2017-05-10 Tcl集团股份有限公司 虚拟人脸动画的生成方法及装置
CN109087651A (zh) * 2018-09-05 2018-12-25 广州势必可赢网络科技有限公司 一种基于视频与语谱图的声纹鉴定方法、系统及设备
CN110072047A (zh) * 2019-01-25 2019-07-30 北京字节跳动网络技术有限公司 图像形变的控制方法、装置和硬件装置
WO2020151491A1 (zh) * 2019-01-25 2020-07-30 北京字节跳动网络技术有限公司 图像形变的控制方法、装置和硬件装置
US11409794B2 (en) 2019-01-25 2022-08-09 Beijing Bytedance Network Technology Co., Ltd. Image deformation control method and device and hardware device
CN110636323A (zh) * 2019-10-15 2019-12-31 博科达(北京)科技有限公司 一种基于云平台的全球直播及视频点播系统及方法
CN110636323B (zh) * 2019-10-15 2021-11-23 博科达(北京)科技有限公司 一种基于云平台的全球直播及视频点播系统及方法
CN112992120A (zh) * 2019-12-02 2021-06-18 泛太丝亚企业管理顾问(上海)有限公司 语音转换虚拟脸部图像的方法

Also Published As

Publication number Publication date
CN100369469C (zh) 2008-02-13

Similar Documents

Publication Publication Date Title
CN1731833A (zh) 语音驱动头部图像合成影音文件的方法
CN108596024B (zh) 一种基于人脸结构信息的肖像生成方法
CN103218842B (zh) 一种语音同步驱动三维人脸口型与面部姿势动画的方法
CN101673338B (zh) 基于多角度投影的模糊车牌识别方法
CN109448001B (zh) 一种图片自动裁剪方法
CN100596186C (zh) 一种基于视频和音频的交互式数字多媒体制作方法
CN110929762B (zh) 一种基于深度学习的肢体语言检测与行为分析方法及系统
CN110012237A (zh) 基于交互引导及云端增强渲染的视频生成方法及系统
CN102592113B (zh) 一种基于表观特征的静态手势快速识别法
CN1475969A (zh) 用于增强人像图像的方法和系统
CN1996344A (zh) 人脸表情信息的提取方法及处理
US20040085324A1 (en) Image-adjusting system and method
CN113657168B (zh) 基于卷积神经网络的学生学习情绪的识别方法
CN116528019B (zh) 基于语音驱动和人脸自驱动的虚拟人视频合成方法
CN103903236A (zh) 人脸图像超分辨率重建的方法和装置
CN106709964A (zh) 基于梯度修正和多向纹理提取的素描画生成方法及装置
CN113139977B (zh) 一种基于YOLO和U-Net的口腔曲断影像智齿分割方法
CN114419702A (zh) 数字人生成模型、模型的训练方法以及数字人生成方法
CN110708606A (zh) 一种智能剪辑视频的方法
US20240054711A1 (en) Method for Audio-Driven Character Lip Sync, Model for Audio-Driven Character Lip Sync and Training Method Therefor
CN111368800B (zh) 手势识别方法及装置
CN115455136A (zh) 智能数字人营销交互方法、装置、计算机设备及存储介质
CN112949560A (zh) 双通道特征融合下长视频表情区间连续表情变化识别方法
CN113920561A (zh) 一种基于零样本学习的人脸表情识别方法及装置
CN117975991B (zh) 基于人工智能的数字人驱动方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: WANG WEIGUO

Free format text: FORMER OWNER: SUN DAN; APPLICANT

Effective date: 20070420

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20070420

Address after: Beijing North 100044 North Xizhimen Avenue, No. 41 days trillion homes 4C501

Applicant after: Wang Weiguo

Address before: 100044 Beijing city Xizhimen North Street No. 41 days trillion homes 4C501

Applicant before: Sun Dan

Co-applicant before: Wang Weiguo

C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: GUANGZHOU CITY YIFENG COMMUNICATION SCIENCE CO., L

Free format text: FORMER OWNER: WANG WEIGUO

Effective date: 20090703

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20090703

Address after: F8, 11 floor, No. 689 Tianhe North Road, Guangzhou, Tianhe District

Patentee after: GUANGZHOU EAPHONE TECHNOLOGY Co.,Ltd.

Address before: Beijing City, Xizhimen North Street, No. 41 days trillion homes 4C501

Patentee before: Wang Weiguo

C56 Change in the name or address of the patentee
CP03 Change of name, title or address

Address after: 510620 Tianhe District, Guangdong, No. five road, No. 246,

Patentee after: Guangzhou Yifeng Health Technology Co.,Ltd.

Address before: F8, 11 floor, No. 689 Tianhe North Road, Guangzhou, Tianhe District

Patentee before: GUANGZHOU EAPHONE TECHNOLOGY Co.,Ltd.

CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: Room 601-2, No. 246, 248, and 250 Wushan Road, Tianhe District, Guangzhou City, Guangdong Province, 510000

Patentee after: Guangzhou Yifeng Communication Technology Co.,Ltd.

Country or region after: China

Address before: No. 246, Wushan Road, Tianhe District, Guangzhou, Guangdong 510620

Patentee before: Guangzhou Yifeng Health Technology Co.,Ltd.

Country or region before: China