CN104574478A - 一种编辑动画人物口型的方法及装置 - Google Patents

一种编辑动画人物口型的方法及装置 Download PDF

Info

Publication number
CN104574478A
CN104574478A CN201410843773.6A CN201410843773A CN104574478A CN 104574478 A CN104574478 A CN 104574478A CN 201410843773 A CN201410843773 A CN 201410843773A CN 104574478 A CN104574478 A CN 104574478A
Authority
CN
China
Prior art keywords
mouth
speaks
shape
audio file
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410843773.6A
Other languages
English (en)
Inventor
杨昌臻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Pixel Software Technology Co Ltd
Original Assignee
Beijing Pixel Software Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Pixel Software Technology Co Ltd filed Critical Beijing Pixel Software Technology Co Ltd
Priority to CN201410843773.6A priority Critical patent/CN104574478A/zh
Publication of CN104574478A publication Critical patent/CN104574478A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例提供了一种编辑动画人物口型的方法及装置,其中所述编辑动画人物口型的方法包括:加载预定义的面部模型文件;获取输入的文本信息;根据所输入的文本信息确定对应的口型。本发明实施例提供的编辑动画人物口型的方法及装置,可以使用户方便编辑动画人物口型并进行展示,从而提升了游戏中人物的表现效果。

Description

一种编辑动画人物口型的方法及装置
技术领域
本发明涉及计算机动画技术领域,尤其涉及一种编辑动画人物口型的方法及装置。
背景技术
随着图像与图形处理技术的不断发展,电子游戏用户对游戏人物的生动表现程度的要求也越来越高。而现有的电子游戏中,大多非玩家控制角色(Non-Player Characte,NPC)和玩家角色在特写镜头时,基本都是表情僵硬无变化。导致人物角色在游戏中表现不佳,不能生动地展现其性格与情绪。尤其是在角色之间出现对话场景时,各角色人物面部基本没有任何表情,这就极大的影响了游戏动画的效果,从而也就影响了电子游戏用户的体验。
发明内容
有鉴于此,本发明实施例提出一种编辑动画人物口型的方法及装置,以实现在游戏动画中编辑动画人物口型的目的。
一方面,本发明实施例提供了一种编辑动画人物口型的方法,所述方法包括:
加载预定义的面部模型文件;
获取输入的文本信息;
根据所输入的文本信息确定对应的口型。
另一方面,本发明实施例提供了一种编辑动画人物口型的装置,所述装置包括:
面部模型加载单元,用于加载预定义的面部模型;
对话文本获取单元,用于获取输入的文本信息;
口型编辑单元,根据所输入的文本信息确定对应的口型。
本发明实施例提供的辑动画人物口型的方法及装置,通过获取对话文本内容,根据所采集的对话文本内容编辑口型。可以使用户方便地编辑动画人物口型并展示,提升了游戏中人物的表现效果。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明第一实施例提供的编辑动画人物口型的方法的流程图;
图2是本发明第二实施例提供的编辑动画人物口型的方法的流程图;
图3是本发明第三实施例提供的编辑动画人物口型的方法的流程图;
图4是本发明第四实施例提供的编辑动画人物口型的方法的流程图;
图5是本发明第五实施例提供的编辑动画人物口型的方法的流程图;
图6是本发明第六实施例提供的编辑动画人物口型的方法的流程图;
图7是本发明第七实施例提供的编辑动画人物口型的装置的结构图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
图1示出了本发明的第一实施例。
图1是本发明第一实施例提供的编辑动画人物口型的方法的流程图。所述编辑动画人物口型的方法包括:
步骤S101,加载预定义的面部模型文件。
在游戏动画中,进行人物对话的角色包括NPC和其它角色人物。编辑人物口型时,应先确定该对话内容是由哪位角色人物所发出的。本实例中,将游戏动画中所有角色人物的面部信息都预先生成相应的模型。该模型可展示角色人物的面部及各器官特征。之后,将这些生成的面部模型保存至面部模型库文件中。在用户进行编辑动画人物口型前,可以从面部模型库中加载发出对话角色人物的面部模型。
步骤S102,获取输入的文本信息。
在游戏动画中,人物之间对话的口型与对话内容有着密不可分的联系。对话的发音直接决定着人物口型的变化。如果需要编辑口型,必然需要获取游戏中人物对话的内容。可以向需要编辑人物口型的用户通过提供一个对话框,供用户在此对话框内输入相应的对话文本,接收并获取用户输入的对话内容信息。
步骤S103,根据所输入的文本信息确定对应的口型。
口型是可以根据文字的发音来确定的。由此,可以预先设立一个口型库,使得所输入的文本信息能够匹配到对应的口型,从而进行输出展示。可以将常用的汉字与发音的口型建立对应关系,并保存生成口型库。在确定步骤S101所采集的文本内容后,按照其中的汉字与口型的关系在口型库中进行查找。确定文本内容所对应的口型后,并将其保存成相应的文件,供后期展示时调用。
本发明实施例通过加载预定义的面部模型文件,获取输入的文本信息,根据所输入的文本信息确定对应的口型。这样可以使用户只输入对话的文本内容即可编辑相应的动画人物口型并进行展示。简化了用户操作的同时,也提升了游戏中人物的表现效果。
图2示出了本发明的第二实施例。
图2是本发明第二实施例提供的编辑动画人物口型的方法的流程图。所述编辑动画人物口型的方法以本发明第一实施例为基础,进一步的,在所述根据所获取的文本信息内容编辑口型之后增加如下步骤:根据所获取的文本信息内容加载指定的配音文件;根据指定的配音文件调整口型。
参见图2,所述的编辑动画人物口型的方法,包括:
步骤S201,加载预定义的面部模型文件。
步骤S202,获取输入的文本信息。
步骤S203,根据所输入的文本信息确定对应的口型。
步骤S204,为获取到的文本信息内容加载预定义的配音音频文件。
在步骤S203中,所编辑后获取的口型是根据文本中的每一个字的发音来确定的,虽然相对准确,但由于日常人类交流的语音还存在着语气的变化。单纯依靠文字的发音并不能准确的表达相应的口型。为了更好的模拟对话时角色人物的口型,可以预先为输入的文本内容配音,并将配音文件保存。用户可以加载指定所保存的配音文件。
步骤S205,根据所加载的配音音频文件信息调整口型。
根据步骤S204所指定的配音文件,识别语气等使得口型产生的不同。并根据这些不同,对步骤S203所编辑的口型进行调整。
本发明实施例通过在所述根据所获取的文本信息内容编辑口型之后增加如下步骤:为获取到的文本信息内容加载预定义的配音音频文件;根据所加载的配音音频文件信息调整口型。通过根据配音文件进一步对口型进行调整,能够使调整口型与对话配合得更加贴切,从而使动画人物形象更加生动。
图3示出了本发明的第三实施例。
图3是本发明第三实施例提供的编辑动画人物口型的方法的流程图。所述编辑动画人物口型的方法以本发明第二实施例为基础,进一步的,将所述的根据所加载的配音音频文件调整口型具体优化为:根据所加载的配音音频文件中单个文字发音的时长调整口型。根据选择的配音音频文件的语音参数调整口型,所述的语音参数包括声母最大强度、声母峰值位置、韵母最大强度和韵母峰值位置。
参见图3,所述的编辑动画人物口型的方法,包括:
步骤S301,加载预定义的面部模型文件。
步骤S302,获取输入的文本信息。
步骤S303,根据所输入的文本信息确定对应的口型。
步骤S304,为获取到的文本信息内容加载预定义的配音音频文件。
步骤S305,根据所加载配音音频文件中的单个文字发音的时长调整口型。
用户可以先对配音文件中每一个文字发音时间的长短进行设置。即读取配音文件,并为配音文件设置时间轴。所述的设置时间轴是以配音文件所播放的时长为依据。用户可以在时间轴上进行拖放操作,来实现对配音文件中每一个文字发音时间长短的控制。
在调整好配音文件中每一个文字发音的时长后,用户可以根据单个文字发音的时长调整每个文字所对应口型的持续时间。这样可以使得动画人物的口型与其所发出的对话更加贴合。
本发明实施例通过将所述的根据所加载的配音音频文件调整口型具体优化为:根据所加载配音音频文件中的单个文字发音的时长调整口型。根据实际对话的单个文字发声时间长短调整口型,使得游戏动画中角色人物在对话中口型更加贴合实际,人物表现更加真实生动。
图4是本发明第四实施例提供的编辑动画人物口型的方法的流程图。所述编辑动画人物口型的方法以本发明第二实施例为基础,进一步的,将所述的根据所加载的配音音频文件调整口型具体优化为:根据所加载的配音音频文件的语音参数调整口型,所述的语音参数包括声母最大强度、声母峰值位置、韵母最大强度和韵母峰值位置。
参见图4,所述的编辑动画人物口型的方法,包括:
步骤S401,加载预定义的面部模型文件。
步骤S402,获取输入的文本信息。
步骤S403,根据所输入的文本信息确定对应的口型。
步骤S404,为获取到的文本信息内容加载预定义的配音音频文件。
步骤S405,根据所加载的配音音频文件的语音参数调整口型,所述的语音参数包括声母最大强度、声母峰值位置、韵母最大强度和韵母峰值位置。
在人们进行实际对话时,会对句子中的某些词汇加以强调。这些强调的字或词是通过加强发音的声母强度与峰值及韵母的强度与峰值来实现的。由此,在本实例中,将声母和韵母的强度及峰值作为参数来对口型进行调整。
用户可以根据语音参数中不同声母和韵母的最大强度与峰值,来预先建立对应的口型参数。通过用户对声母最大强度、声母峰值位置、韵母最大强度及韵母峰值位置设置的参数值,按照其与口型参数值的对应关系来调整口型。
用户对声母最大强度、声母峰值位置、韵母最大强度及韵母峰值位置参数值的调整为尽可能地贴近实际,所调整的数值量可能是非常小的变化,而预先设定的所对应的口型参数值可能并不能完全与之对应。对于这种情况,还可以采用插值计算方法来实现。插值算法可以采用线性或者正弦的计算方法。
例如预先设定声母最大强度值为0.6时,所对应的口型参数值为0.23;声母最大强度值0.7时,所对应的口型参数值为0.245。而当用户需要调整声母最大强度值为0.632时,可以采用将对应的口型参数生成线性图表或者正弦图表的插值计算方法来实现。即将0.632值插入到所述的线性图表或者正弦图表中,进而通过图表中查找到对应的口型参数值为0.237。
本发明实施例通过将所述的根据所加载的配音音频文件调整口型具体优化为:根据所加载的配音音频文件的语音参数调整口型,所述的语音参数包括声母最大强度、声母峰值位置、韵母最大强度和韵母峰值位置。可以根据实际对话中的语音重点,进一步调整口型的变化。从而使得游戏动画中角色人物在对话中的口型更加贴合实际,人物表现更加真实生动。
图5是本发明第五实施例提供的编辑动画人物口型的方法的流程图。所述编辑动画人物口型的方法以本发明第三实施例为基础,进一步的,在所述根据所加载配音音频文件中的单个文字发音的时长调整口型之后增加如下步骤:在所加载配音音频文件的播放时间段内,插入预设的表情,依照所加载的表情文件信息调整口型。
参见图5,所述的编辑动画人物口型的方法,包括:
步骤S501,加载预定义的面部模型文件。
步骤S502,获取输入的文本信息。
步骤S503,根据所输入的文本信息确定对应的口型。
步骤S504,为获取到的文本信息内容加载预定义的配音音频文件。
步骤S505,根据所加载配音音频文件中的单个文字发音的时长调整口型。
步骤S506,在所加载配音音频文件的播放时间段内,插入预设的表情,依照所插入的表情调整口型。
在游戏动画中,剧情中一般都会有大量的对白及各种不同情绪的表现。这是叙事的需要,也是塑造角色的需要。通常情况下,这些情绪的表现不仅仅是通过肢体动作来呈现的,更多的是通过表情展现出来的。表情不仅复杂多变,而且也十分微妙。因此,表情最能够直接反映人物的内心活动,是人物情绪变化及内心活动的外露表象。
角色的表情多变即会影响到会话时的口型。在本实施例中,依据步骤S505中所加载的配音音频文件的播放时长,来确定配音文件的时间轴。用户可以依照该时间轴来确定插入表情的具体时间。例如,当前角色对话内容为“开始对话”,“开始对话”的配音文件时长为3秒,用户就可以选择在3秒中的任何时间内插入表情。
同时,在插入表情的时间范围内,通过预设的表情与口型的对应来关系调整口型的变化。例如选择表情为“笑”时,可以按照预设的“笑”的表情来调整口型的相应变化。
本发明实施例通过在所述根据所加载配音音频文件中的单个文字发音的时长调整口型之后增加如下步骤;在所加载配音音频文件中的单个文字发音的时间段内,插入预设的表情文件,依照所加载的表情文件信息调整口型。通过加载表情进一步提升了游戏动画人物的表现力,并且通过表情与口型的进一步优化与调整,使得游戏动画中的角色人物表现更加真实生动。
图6是本发明第六实施例提供的编辑动画人物口型的方法的流程图。所述编辑动画人物口型的方法以本发明第五实施例为基础,进一步的,将所述的依照所插入的表情信息调整口型具体优化为:根据所插入的表情及输入的表情权重值调整口型。
参见图6,所述的编辑动画人物口型的方法,包括:
步骤S601,加载预定义的面部模型文件。
步骤S602,获取输入的文本信息。
步骤S603,根据所输入的文本信息确定对应的口型。
步骤S604,为获取到的文本信息内容加载预定义的配音音频文件。
步骤S605,根据所加载配音音频文件中的单个文字发音的时长调整口型。
步骤S606,在所加载配音音频文件的播放时间段内,插入预设的表情。
步骤S607,根据所插入的表情及输入的表情权重值调整口型。
同一表情可以分为多种,每一种也都存在着幅度差异。例如笑可以分为微笑、大笑及狂笑等。每一种在形态变化的幅度上都会存在着差异,同时也就会影响到口型的变化。
在本实施例中,用户可以通过输入相应的表情权重值,来得到对应的不同表情。例如,设置权重值在0-0.3之间为微笑,0.3-0.5之间为大笑等。根据用户输入的权重值,选取权重值所对应的预设表情,并根据输入的权重值按照预先设定的规则进一步调整口型。
本发明实施例通过将所述的依照所插入的表情信息调整口型具体优化为:根据所插入的表情及输入的表情权重值调整口型。将具体的表情进一步的细化,并且通过细化后的表情优化及人物口型的调整,使得游戏动画中的角色人物表现得更加真实生动。
图7示出本发明第七实施例
图7是本发明第七实施例提供的编辑动画人物口型的装置的结构图。
由图7可以看出,所述编辑动画人物口型的装置包括:面部模型加载单元710,对话文本获取单元720和口型编辑单元730。其中所述面部模型加载单元710,用于加载预定义的面部模型;对话文本获取单元720,用于获取输入的文本信息;口型编辑单元730,用于根据所输入的文本信息编辑口型。
进一步的,所述的编辑动画人物口型的装置还包括:音频加载单元740和第一口型调整单元750,其中,所述音频加载单元740用于根据所输入的文本信息内容加载预定义的配音音频文件;第一口型调整单元750用于根据所加载的配音音频文件调整口型。
进一步的,所述的第一口型调整单元750具体用于:
根据所加载的配音音频文件中单个文字发音的时长调整口型;
根据选择的配音音频文件的语音参数调整口型,所述的语音参数包括声母最大强度、声母峰值位置、韵母最大强度和韵母峰值位置。
进一步的,所述的编辑动画人物口型的装置还包括:表情插入单元760和第二口型调整单元770。其中所述表情插入单元760,在所加载配音文件的播放时间段内,插入预设的表情;第二口型调整单元770,用于依照插入的表情调整口型。
进一步的,所述的第二口型调整单元770具体用于:根据所插入的表情及输入的表情权重值调整口型。
上述编辑动画人物口型的装置可执行本发明实施例所提供的编辑动画人物口型的方法,具备执行方法相应的功能模块,可以使用户方便的编辑动画人物口型并展示,提升了游戏中人物的表现效果。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个计算装置上,或者分布在多个计算装置所组成的网络上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间的相同或相似的部分互相参见即可。
以上所述仅为本发明的优选实施例,并不用于限制本发明,对于本领域技术人员而言,本发明可以有各种改动和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种编辑动画人物口型的方法,其特征在于,包括:
加载预定义的面部模型文件;
获取输入的文本信息;
根据所输入的文本信息确定对应的口型。
2.根据权利要求1所述的方法,其特征在于,在根据所输入的文本信息及所编辑的口型信息,匹配对应的口型之后还包括:
为获取到的文本信息内容加载预定义的配音音频文件;
根据所加载的配音音频文件信息调整口型。
3.根据权利要求2所述的方法,其特征在于,所述的根据所加载的配音音频文件信息调整口型具体包括:
根据所加载配音音频文件中的单个文字发音的时长调整口型;和/或,
根据所加载的配音音频文件的语音参数匹配口型,所述的语音参数包括声母最大强度、声母峰值位置、韵母最大强度和韵母峰值位置。
4.根据权利要求3所述的方法,其特征在于,在所述根据所加载配音音频文件中的单个文字发音的时长匹配口型之后还包括;
在所加载配音音频文件的播放时间段内,插入预设的表情;
依照所插入的表情调整口型。
5.根据权利要求4所述的方法,其特征在于,所述的依照所插入的表情信息调整口型具体包括:
根据所插入的表情及输入的表情权重值调整口型。
6.一种编辑动画人物口型的装置,其特征在于,包括:
面部模型加载单元,用于加载预定义的面部模型;
对话文本获取单元,用于获取输入的文本信息;
口型编辑单元,根据所输入的文本信息确定对应的口型。
7.根据权利要求6所述的装置,其特征在于,所述的编辑动画人物口型的装置还包括:
音频加载单元,用于根据所输入的文本信息内容加载预定义的配音音频文件;
第一口型调整单元,用于根据所加载的配音音频文件调整口型。
8.根据权利要求7所述装置,其特征在于,所述的第一口型调整单元具体用于:
根据所加载的配音音频文件中单个文字发音的时长调整口型;和/或,
根据选择的配音音频文件的语音参数调整口型,所述的语音参数包括声母最大强度、声母峰值位置、韵母最大强度和韵母峰值位置。
9.根据权利要求8所述装置,其特征在于,所述的编辑动画人物口型的装置还包括:
表情插入单元,在所加载配音音频文件的播放时间段内,插入预设的表情;
第二口型调整单元,用于依照所加载的表情文件信息调整口型。
10.根据权利要求9所述装置,其特征在于,所述的第二口型调整单元具体用于:根据所插入的表情及输入的表情权重值调整口型。
CN201410843773.6A 2014-12-30 2014-12-30 一种编辑动画人物口型的方法及装置 Pending CN104574478A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410843773.6A CN104574478A (zh) 2014-12-30 2014-12-30 一种编辑动画人物口型的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410843773.6A CN104574478A (zh) 2014-12-30 2014-12-30 一种编辑动画人物口型的方法及装置

Publications (1)

Publication Number Publication Date
CN104574478A true CN104574478A (zh) 2015-04-29

Family

ID=53090444

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410843773.6A Pending CN104574478A (zh) 2014-12-30 2014-12-30 一种编辑动画人物口型的方法及装置

Country Status (1)

Country Link
CN (1) CN104574478A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104869326A (zh) * 2015-05-27 2015-08-26 网易(杭州)网络有限公司 一种配合音频的图像显示方法和设备
CN106297792A (zh) * 2016-09-14 2017-01-04 厦门幻世网络科技有限公司 一种语音口型动画的识别方法及装置
CN106446406A (zh) * 2016-09-23 2017-02-22 天津大学 一种将中文语句转化为人类口型的仿真系统及仿真方法
CN106463118A (zh) * 2016-07-07 2017-02-22 深圳狗尾草智能科技有限公司 一种同步语音及虚拟动作的方法、系统及机器人
CN106471572A (zh) * 2016-07-07 2017-03-01 深圳狗尾草智能科技有限公司 一种同步语音及虚拟动作的方法、系统及机器人
CN107330961A (zh) * 2017-07-10 2017-11-07 湖北燿影科技有限公司 一种文字影音转换方法和系统
CN107766437A (zh) * 2017-09-20 2018-03-06 珠海金山网络游戏科技有限公司 基于html5将网页输入文字生成口型gif的方法、装置和系统
CN107845123A (zh) * 2017-09-20 2018-03-27 珠海金山网络游戏科技有限公司 基于html5将网页输入文字生成口型动画的方法、装置和系统
US10339973B2 (en) 2017-02-13 2019-07-02 International Business Machines Corporation System and method for audio dubbing and translation of a video
WO2020047718A1 (zh) * 2018-09-03 2020-03-12 深圳狗尾草智能科技有限公司 实现机器人动作和语音同步的方法、系统及设备
CN112750187A (zh) * 2021-01-19 2021-05-04 腾讯科技(深圳)有限公司 一种动画生成方法、装置、设备及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101364309A (zh) * 2008-10-09 2009-02-11 中国科学院计算技术研究所 一种源虚拟角色上的口形动画生成方法
US20090125312A1 (en) * 2005-02-15 2009-05-14 Sk Telecom Co., Ltd. Method and system for providing news information by using three dimensional character for use in wireless communication network
CN101930747A (zh) * 2010-07-30 2010-12-29 四川微迪数字技术有限公司 一种将语音转换成口型图像的方法和装置
CN101937570A (zh) * 2009-10-11 2011-01-05 上海本略信息科技有限公司 基于语音和文字识别的动漫口形自动匹配实现方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090125312A1 (en) * 2005-02-15 2009-05-14 Sk Telecom Co., Ltd. Method and system for providing news information by using three dimensional character for use in wireless communication network
CN101364309A (zh) * 2008-10-09 2009-02-11 中国科学院计算技术研究所 一种源虚拟角色上的口形动画生成方法
CN101937570A (zh) * 2009-10-11 2011-01-05 上海本略信息科技有限公司 基于语音和文字识别的动漫口形自动匹配实现方法
CN101930747A (zh) * 2010-07-30 2010-12-29 四川微迪数字技术有限公司 一种将语音转换成口型图像的方法和装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104869326A (zh) * 2015-05-27 2015-08-26 网易(杭州)网络有限公司 一种配合音频的图像显示方法和设备
CN104869326B (zh) * 2015-05-27 2018-09-11 网易(杭州)网络有限公司 一种配合音频的图像显示方法和设备
CN106463118A (zh) * 2016-07-07 2017-02-22 深圳狗尾草智能科技有限公司 一种同步语音及虚拟动作的方法、系统及机器人
CN106471572A (zh) * 2016-07-07 2017-03-01 深圳狗尾草智能科技有限公司 一种同步语音及虚拟动作的方法、系统及机器人
WO2018006369A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 一种同步语音及虚拟动作的方法、系统及机器人
CN106471572B (zh) * 2016-07-07 2019-09-03 深圳狗尾草智能科技有限公司 一种同步语音及虚拟动作的方法、系统及机器人
CN106297792A (zh) * 2016-09-14 2017-01-04 厦门幻世网络科技有限公司 一种语音口型动画的识别方法及装置
CN106446406A (zh) * 2016-09-23 2017-02-22 天津大学 一种将中文语句转化为人类口型的仿真系统及仿真方法
US10339973B2 (en) 2017-02-13 2019-07-02 International Business Machines Corporation System and method for audio dubbing and translation of a video
US10607652B2 (en) 2017-02-13 2020-03-31 International Business Machines Corporation Dubbing and translation of a video
CN107330961A (zh) * 2017-07-10 2017-11-07 湖北燿影科技有限公司 一种文字影音转换方法和系统
CN107766437A (zh) * 2017-09-20 2018-03-06 珠海金山网络游戏科技有限公司 基于html5将网页输入文字生成口型gif的方法、装置和系统
CN107845123A (zh) * 2017-09-20 2018-03-27 珠海金山网络游戏科技有限公司 基于html5将网页输入文字生成口型动画的方法、装置和系统
WO2020047718A1 (zh) * 2018-09-03 2020-03-12 深圳狗尾草智能科技有限公司 实现机器人动作和语音同步的方法、系统及设备
CN112750187A (zh) * 2021-01-19 2021-05-04 腾讯科技(深圳)有限公司 一种动画生成方法、装置、设备及计算机可读存储介质

Similar Documents

Publication Publication Date Title
CN104574478A (zh) 一种编辑动画人物口型的方法及装置
US20200251089A1 (en) Contextually generated computer speech
US10360716B1 (en) Enhanced avatar animation
US9330657B2 (en) Text-to-speech for digital literature
KR20070020252A (ko) 메시지를 수정하기 위한 방법 및 시스템
KR102493141B1 (ko) 객체 기반 오디오 콘텐츠 생성 방법 및 시스템
CN111161755A (zh) 基于3d渲染引擎的中文唇音同步方法
KR20100120917A (ko) 아바타 영상 메시지를 생성하는 장치 및 방법
CN117932012B (zh) 一种基于人设大语言模型的对话系统在工业场景下的应用方法
CN111105776A (zh) 有声播放装置及其播放方法
KR20230075998A (ko) 텍스트 기반 아바타 생성 방법 및 시스템
CN112348932A (zh) 口型动画录制方法及装置、电子设备、存储介质
KR102184053B1 (ko) 대사를 캐릭터별 상이한 목소리로 변환하여 전달하는 웹툰 동영상 생성 방법
Engström et al. Using text-to-speech to prototype game dialog
JP6170604B1 (ja) 音声生成装置
JP2018159779A (ja) 音声再生態様決定装置、および音声再生態様決定プログラム
JP6190030B1 (ja) 音声生成プログラム
JP6185136B1 (ja) 音声生成プログラムおよびゲーム装置
JP6134043B1 (ja) 音声生成プログラムおよびゲーム装置
JP6163454B2 (ja) 音声合成装置、その方法及びプログラム
Paul The Voice Actor and Their Double: Working as a voice actor and teaching voice acting in the age of AI voice cloning
CN114664283A (zh) 语音合成中的文本处理方法及电子设备
CN117745899A (zh) 角色形象的驱动方法及装置、存储介质、电子装置
CN118304650A (zh) 一种游戏开发方法、系统、计算机设备及存储介质
CN117372588A (zh) 口型图像生成方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150429

RJ01 Rejection of invention patent application after publication