CN111340920B - 一种语义驱动的二维动画自动生成方法 - Google Patents
一种语义驱动的二维动画自动生成方法 Download PDFInfo
- Publication number
- CN111340920B CN111340920B CN202010136045.7A CN202010136045A CN111340920B CN 111340920 B CN111340920 B CN 111340920B CN 202010136045 A CN202010136045 A CN 202010136045A CN 111340920 B CN111340920 B CN 111340920B
- Authority
- CN
- China
- Prior art keywords
- animation
- sample
- dimensional animation
- training
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 48
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 239000000463 material Substances 0.000 claims abstract description 9
- 230000011218 segmentation Effects 0.000 claims abstract description 9
- 238000002372 labelling Methods 0.000 claims abstract description 7
- 230000003993 interaction Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 230000009191 jumping Effects 0.000 claims description 3
- 230000036544 posture Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 2
- 238000007906 compression Methods 0.000 claims description 2
- 239000004566 building material Substances 0.000 claims 1
- -1 cultural artwork Substances 0.000 claims 1
- 239000000126 substance Substances 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 4
- 238000002474 experimental method Methods 0.000 abstract description 3
- 241000219109 Citrullus Species 0.000 description 10
- 235000012828 Citrullus lanatus var citroides Nutrition 0.000 description 10
- 238000005457 optimization Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000001502 supplementing effect Effects 0.000 description 4
- 241000251468 Actinopterygii Species 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 235000011888 snacks Nutrition 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种语义驱动的二维动画自动生成方法,涉及计算机动画技术领域。包括建立二维动画素材库、训练样本动画集合、训练样本标注数据集合、训练样本语料集合、文本分词、命名实体识别、知识图谱、句法特征提取、全局/局部语义特征提取、构建二维动画生成器‑判别器神经网络。该语义驱动的二维动画自动生成方法,通过构建一个动态跟踪文本全局/局部语义的二维动画自动生成器,来实现文本到二维动画的自动生成,该方法能够保证动态场景和角色之间的全局一致性,并且能对生成的动画的合理性进行评估,通过实验发现用户对自动生成的二维动画具有较好的满意度,具有较好的市场推广价值。
Description
技术领域
本发明涉及计算机动画技术领域,具体为一种语义驱动的二维动画自动生成方法。
背景技术
影视动画产业包括用数字化技术生成、制作、管理、传播、运营和消费的数字视频产品及服务,具有高增值、强辐射、低消耗、广就业、软渗透的特点。纵观全球经济,欧美日发达国家的产业经济已由重化工业转向信息产业,目前又从信息产业转向创意产业,这反映了人类社会从追求物质享受向精神享受的发展趋势,网络视频、影视传播、动画游戏产业在美国、英国和日本都是支柱产业,美、日等国都把大力推进视频媒体技术和产业作为新经济持续发展的发动机。
目前语义驱动的二维动画自动生成方法,成体系的方法十分少见,大部分为各个子集部分的尝试,如:语音驱动口唇动画、姿态识别、计算机合成CG等等,由于计算媒体、AI、虚拟现实、5G通讯的飞速发展,这类计算媒体技术,已经对影视行业开始全面渗透,类似于AI自动剧本写作、编剧、艺术照风格迁移、表情动画、自动剪辑、动画预演、AI特效特技等等技术在计算动画领域的不断尝试和不断突破,目前语义驱动的动画自动生成,主要以表情动画为主,并未见到与本发明方法相似的成果,为此,提出一种语义驱动的二维动画自动生成方法来提高二维动画自动生成效果。
发明内容
针对现有技术的不足,本发明提供了一种语义驱动的二维动画自动生成方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种语义驱动的二维动画自动生成方法,包括以下步骤:
S1、构建二维动画素材库,包括构成二维动画的所有基本元素如:动画角色以及角色对应的各种常用动画姿态、动画中的常用场景、动画中常出现的各类道具,这些素材用于自动构建二维动画;
S2、建立训练样本动画场景集合,该训练样本动画集合包含大量的具有语言描述的动画场景,组成动画场景的所有元素均为前景、背景分割清晰的动画元素;
S3、建立训练样本标注数据集合,该集合与训练样本动画场景集合中的每个样本一一对应,该集合针对训练样本动画场景集合中的每一个样本,进行动画元素的标注;
S4、建立训练样本语料集合,该集合与训练样本动画场景集合中的每个样本一一对应,该集合中的每个样本为一段汉语故事文本,用于描述训练样本动画场景集合中的一个样本;
S5、对训练样本语料集合中的每条样本首先进行分词、命名实体识别处理,提取出文本中所有的实体名称,然后使用构建好的动画领域知识图谱进行推理,并完善和补全实体对象,如样本:小猫钓鱼;分词后得到:小猫/钓鱼;命名实体识别:小猫,鱼,知识图谱推理补全实体:小猫,钓鱼竿,小河,水桶,鱼,小凳子...,该步骤主要用于提取文本中的关键信息,通过命名实体识别以及针对动画领域建立的常用知识图谱获取和补充构建动画的必要元素,然后对这些元素的几何参数进行编码;
S6、句法特征提取,通过对训练样本语料集合中的每条样本做句法分析,为每个样本中的句子添加句法标签;
S7、将上述的所有句法特征按照样本词汇的顺序保存下来,为后续训练做准备,在上述特征工程步骤执行完成之后,需要搭建深度神经网络,对特征和样本建立对应的生成器并进行训练,由于本方法是语义的二维动画的自动生成方法,训练阶段需要提取训练样本语料集合中每个样本的全局语义特征和局部语义特征,首先使用基于神经网络的KL算法实现压缩当前样本整体语义信息的作用,该算法的输入为当前样本的全部内容,输出为压缩后的全文语义特征编码;
S8、获得当前样本的全文特征编码之后,需要对当前样本中的单条句子进行编码获取局部语义特征,为了确保特征中包含足够的信息,需要将步骤S6中提取的所有信息添加到当前句子中;
S9、获得局部语义特征之后,构建二维动画生成器-判别器神经网络,开始训练该神经网络;
S10、构建好二维动画生成器-判别器神经网络架构之后,需要将前面准备好的数据加载到网络中进行模型的训练,训练好生成器之后,在实际使用中只需要对生成器模型输入文本和编码好的句子,即可自动生成二维动画短片。
进一步优化本技术方案,所述步骤S1中,各种常用动画姿态主要包括抬手、指向、摇头、跳跃、走、跑以及左顾右盼,动画中的常用场景如:客厅、厨房、广场、河边、公园以及小山等等,动画中常出现的各类道具如:皮球、玩具、零食、各种植物、小动物以及生活用品等等。
进一步优化本技术方案,所述步骤S2中,组成动画的各个元素均具有唯一图层,且动画元素边界可辨识度高。
进一步优化本技术方案,所述步骤S3中,进行动画元素的标注包括动画元素的名称、类别、运动状态序列、坐标序列、朝向序列、旋转序列、交互状态序列、交互实体序列,序列采样频率为3次/秒。
进一步优化本技术方案,所述步骤S4中,该集合的每个样本的文字规模限定在300个汉字以内。
进一步优化本技术方案,所述步骤S5中,补充构建动画的必要元素为角色、场景以及各类道具等,元素的几何参数如:长、宽、高、坐标、旋转、朝向以及图层顺序等等。
进一步优化本技术方案,所述步骤S6中,添加句法标签如:我们喜欢吃西瓜,句法结构为:我们/pn喜欢/vv吃/vv西瓜/nn。
进一步优化本技术方案,所述步骤S7中,一个二维动画与一个全文语义特征编码一一对应。
进一步优化本技术方案,所述步骤S8中,我们喜欢吃西瓜,保存为:S#我们pn#喜欢vv nsubj1 ccomp3#吃vv dobj4#西瓜nn#E。
有益效果
与现有技术相比,本发明提供了一种语义驱动的二维动画自动生成方法,具备以下有益效果:
该语义驱动的二维动画自动生成方法,通过构建一个动态跟踪文本全局/局部语义的二维动画自动生成器,来实现文本到二维动画的自动生成,该方法能够保证动态场景和角色之间的全局一致性,并且能对生成的动画的合理性进行评估,通过实验发现用户对自动生成的二维动画具有较好的满意度,具有较好的市场推广价值。
附图说明
图1为本发明提出的一种语义驱动的二维动画自动生成方法的句法依存关系示意图;
图2为本发明提出的一种语义驱动的二维动画自动生成方法的全文特征提取示意图;
图3为本发明提出的一种语义驱动的二维动画自动生成方法的文字的表示示意图;
图4为本发明提出的一种语义驱动的二维动画自动生成方法的二维动画生成器-判别器神经网络架构示意图。
具体实施方式
下面将结合本发明的实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1-4所述,本发明公开了一种语义驱动的二维动画自动生成方法,包括以下步骤:
S1、构建二维动画素材库,包括构成二维动画的所有基本元素如:动画角色以及角色对应的各种常用动画姿态、动画中的常用场景、动画中常出现的各类道具,这些素材用于自动构建二维动画;
S2、建立训练样本动画场景集合,该训练样本动画集合包含大量的具有语言描述的动画场景,组成动画场景的所有元素均为前景、背景分割清晰的动画元素;
S3、建立训练样本标注数据集合,该集合与训练样本动画场景集合中的每个样本一一对应,该集合针对训练样本动画场景集合中的每一个样本,进行动画元素的标注;
S4、建立训练样本语料集合,该集合与训练样本动画场景集合中的每个样本一一对应,该集合中的每个样本为一段汉语故事文本,用于描述训练样本动画场景集合中的一个样本;
S5、对训练样本语料集合中的每条样本首先进行分词、命名实体识别处理,提取出文本中所有的实体名称,然后使用构建好的动画领域知识图谱进行推理,并完善和补全实体对象,如样本:小猫钓鱼;分词后得到:小猫/钓鱼;命名实体识别:小猫,鱼,知识图谱推理补全实体:小猫,钓鱼竿,小河,水桶,鱼,小凳子...,该步骤主要用于提取文本中的关键信息,通过命名实体识别以及针对动画领域建立的常用知识图谱获取和补充构建动画的必要元素,然后对这些元素的几何参数进行编码;
S6、请参考图1所述,句法特征提取,通过对训练样本语料集合中的每条样本做句法分析,为每个样本中的句子添加句法标签,句法依存关系如图1;
S7、请参考图2所述,将上述的所有句法特征按照样本词汇的顺序保存下来,为后续训练做准备,在上述特征工程步骤执行完成之后,需要搭建深度神经网络,对特征和样本建立对应的生成器并进行训练,由于本方法是语义的二维动画的自动生成方法,训练阶段需要提取训练样本语料集合中每个样本的全局语义特征和局部语义特征,首先使用基于神经网络的KL算法实现压缩当前样本整体语义信息的作用,该算法的输入为当前样本的全部内容,输出为压缩后的全文语义特征编码,全文特征提取示意图如图2,其中S1,S2,..S6表示输入的全文内容,通过神经网络A到F层,最后经过全连接层得到输出特征向量G1,G2,G3,G4;
S8、请参考图3所述,获得当前样本的全文特征编码之后,需要对当前样本中的单条句子进行编码获取局部语义特征,为了确保特征中包含足够的信息,需要将步骤S6中提取的所有信息添加到当前句子中,如:我们喜欢吃西瓜,保存为:S#我们pn#喜欢vv nsubj1ccomp3#吃vv dobj4#西瓜nn#E,为了方便使用词向量进行表示,我们将现有的36个词性标签和34个句法依存关系标签表示为固定的数字并叠加到句子中,上面文字的表示变为参考图3所示:其中vec()表示向量,E()表示词性标签和依存关系标签的序号对应位置为1,其余位置为0的向量,该向量的长度为词性标签个数与句法依存关系标签个数之和;
S9、请参考图4所述,获得局部语义特征之后,构建二维动画生成器-判别器神经网络,开始训练该神经网络,本方法建立的二维动画生成器-判别器神经网络架构如图4所示;
S10、请参考图4所述,构建好二维动画生成器-判别器神经网络架构之后,需要将前面准备好的数据加载到网络中进行模型的训练,其中图4的左边部分为:基于神经网络的KL算法,用于提取文本的整体信息,以保证在生成二维动画时,具有较好的逻辑和视觉一致性,图4中最下面椭圆为整体文本中的独立句子进行局部特征编码之后的结果,每个椭圆代表一个句子的编码结果,A11,A21,...,An1,这些图标表示生成的动画内容,AnimationDiscriminator则是用于判断生成的动画内容是否是真实的,训练好生成器之后,在实际使用中只需要对生成器模型输入文本和编码好的句子,即可自动生成二维动画短片。
作为本实施例的具体优化方案,所述步骤S1中,各种常用动画姿态主要包括抬手、指向、摇头、跳跃、走、跑以及左顾右盼,动画中的常用场景如:客厅、厨房、广场、河边、公园以及小山等等,动画中常出现的各类道具如:皮球、玩具、零食、各种植物、小动物以及生活用品等等。
作为本实施例的具体优化方案,所述步骤S2中,组成动画的各个元素均具有唯一图层,且动画元素边界可辨识度高。
作为本实施例的具体优化方案,所述步骤S3中,进行动画元素的标注包括动画元素的名称、类别、运动状态序列、坐标序列、朝向序列、旋转序列、交互状态序列、交互实体序列,序列采样频率为3次/秒。
作为本实施例的具体优化方案,所述步骤S4中,该集合的每个样本的文字规模限定在300个汉字以内。
作为本实施例的具体优化方案,所述步骤S5中,补充构建动画的必要元素为角色、场景以及各类道具等,元素的几何参数如:长、宽、高、坐标、旋转、朝向以及图层顺序等等。
作为本实施例的具体优化方案,所述步骤S6中,添加句法标签如:我们喜欢吃西瓜,句法结构为:我们/pn喜欢/vv吃/vv西瓜/nn。
作为本实施例的具体优化方案,所述步骤S7中,一个二维动画与一个全文语义特征编码一一对应。
作为本实施例的具体优化方案,所述步骤S8中,我们喜欢吃西瓜,保存为:S#我们pn#喜欢vv nsubj1 ccomp3#吃vv dobj4#西瓜nn#E。
本发明的有益效果是:通过构建一个动态跟踪文本全局/局部语义的二维动画自动生成器,来实现文本到二维动画的自动生成,该方法能够保证动态场景和角色之间的全局一致性,并且能对生成的动画的合理性进行评估,通过实验发现用户对自动生成的二维动画具有较好的满意度,具有较好的推广价值。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (7)
1.一种语义驱动的二维动画自动生成方法,其特征在于,包括以下步骤:
S1、构建二维动画素材库,包括构成二维动画的所有基本元素,包括动画角色以及角色对应的各种常用动画姿态、动画中的常用场景、和动画中常出现的各类道具,这些素材用于自动构建二维动画;
S2、建立训练样本动画场景集合,该训练样本动画集合包含大量的具有语言描述的动画场景,组成动画场景的所有元素均为前景、背景分割清晰的动画元素;
S3、建立训练样术标注数据集合,该集合与训练样本动画场景集合中的每个样本一一对应,该集合针对训练样本动画场景集合中的每一个样本,进行动画元素的标注;
S4、建立训练样本语料集合,该集合与训练样本动画场景集合中的每个样本一一对应,该集合中的每个样本为一段汉语故事文本,用于描述训练样本动画场景集合中的一个样本;
S5、对训练样本语料集合中的每条样本首先进行分词、命名实体识别处理,提取出文本中所有的实体名称,然后使用构建好的动画领域知识图谱进行推理,并完善和补全实体对象,该步骤用于提取文本中的关键信息,通过命名实体识别以及针对动画领域建立的常用知识图谱获取和补充构建动画的必要元素,然后对这些元素的几何参数进行编码;
S6、句法特征提取,通过对训练样本语料集合中的每条样本做句法分析,为每个样本中的句子添加句法标签;
S7、将上述的所有句法特征按照样本词汇的顺序保存下来,为后续训练做准备,在上述特征工程步骤执行定成之后,搭建深度神经网络,对特征和样本建立对应的生成器并进行训练,训练阶段提取训练样本语料集合中每个样本的全局语义特征和局部语义特征,首先使用基于神经网络的KL算法实现压缩当前样本整体语义信息的作用,该算法的输入为当前样本的全部内容,输出为压缩后的全文语义特征编码;
S8、获得当前样本的全文特征编码之后,对当前样本中的单条句子进行编码获取局部语义特征,为了确保特征中包含足够的信息,将步骤S6中提取的所有信息添加到当前句子中;
S9、获得局部语义特征之后,构建二维动画生成器-判别器神经网络,开始训练该神经网络;
S10、构建好二维动画生成器-判别器神经网络架构之后,将前面准备好的数据加载到网络中进行模型的训练,训练好生成器之后,对生成器模型输入文本和编码好的句子,即可自动生成二维动画短片。
2.根据权利要求1 所述的一种语义驱动的二维动画自动生成方法,其特征在于,所述步骤S1中,各种常用动画姿态包括抬手、指向、挥手、摇头、跳跃、走、跑以及左顾右盼,动画中的常用场景包括城市常用场景、乡村常用场景、室内常用场景、户外常用场景,动画中常出现的各类道具包括消费品、工业品、农业品、医疗保健品、电子品、建筑材料、交通工具、文化艺术品、化学制品。
3.根据权利要求1所述的一种语义驱动的二维动画自动生成方法,其特征在于,所述步骤S2中,组成动画的各个元素均具有唯一图层,且动画元素边界可辨识度高。
4.根据权利要求1所述的一种语义驱动的二维动画自动生成方法,其特征在于,所述步骤S3中,进行动画元素的标注包括动画元素的名称、类别、运动状态序列、坐标序列、朝向序列、旋转序列、交互状态序列和交互实体序列,序列采样频率为3次/秒。
5.根据权利要求1所述的一种语义驱动的二维动画自动生成方法,其特征在于,所述步骤S4中,该集合的每个样本的文字规模限定在300个汉字以内。
6.根据权利要求1所述的一种语义驱动的二维动画自动生成方法,其特征在于,所述步骤S5中,补充构建动画的必要元素包括角色、场景以及各类道具,元素的几何参数包括长、宽、高、坐标、旋转、朝向以及图层顺序。
7.根据权利要求1所述的一种语义驱动的二维动画自动生成方法,其特征在于,所述步骤S7中,一个二维动画与一个全文语义特征编码一一对应。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010136045.7A CN111340920B (zh) | 2020-03-02 | 2020-03-02 | 一种语义驱动的二维动画自动生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010136045.7A CN111340920B (zh) | 2020-03-02 | 2020-03-02 | 一种语义驱动的二维动画自动生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111340920A CN111340920A (zh) | 2020-06-26 |
CN111340920B true CN111340920B (zh) | 2024-04-09 |
Family
ID=71187160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010136045.7A Active CN111340920B (zh) | 2020-03-02 | 2020-03-02 | 一种语义驱动的二维动画自动生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111340920B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114022596A (zh) * | 2021-11-02 | 2022-02-08 | 上海交通大学 | 动画场景的自动生成系统 |
CN114254158B (zh) * | 2022-02-25 | 2022-06-10 | 北京百度网讯科技有限公司 | 视频生成方法及其装置、神经网络的训练方法及其装置 |
CN115170704B (zh) * | 2022-07-06 | 2024-04-02 | 北京信息科技大学 | 一种三维场景动画自动生成方法、系统 |
CN116310012B (zh) * | 2023-05-25 | 2023-07-25 | 成都索贝数码科技股份有限公司 | 一种基于视频的三维数字人姿态驱动方法、设备及系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184200A (zh) * | 2010-12-13 | 2011-09-14 | 中国人民解放军国防科学技术大学 | 一种计算机辅助的动画图文分镜半自动生成方法 |
CN104217454A (zh) * | 2014-08-21 | 2014-12-17 | 中国科学院计算技术研究所 | 一种视频驱动的人脸动画生成方法 |
CN104992461A (zh) * | 2015-06-29 | 2015-10-21 | 北京奇虎科技有限公司 | 一种快速动画场景构建方法和装置 |
CN106340049A (zh) * | 2015-07-15 | 2017-01-18 | 中国传媒大学 | 一种基于动画语义的验证码产生方法 |
CN106447748A (zh) * | 2016-09-14 | 2017-02-22 | 厦门幻世网络科技有限公司 | 一种用于生成动画数据的方法和装置 |
CN107003825A (zh) * | 2014-09-09 | 2017-08-01 | 马克·史蒂芬·梅多斯 | 通过自然语言输出控制电影指导和动态角色的系统和方法 |
CN108305306A (zh) * | 2018-01-11 | 2018-07-20 | 中国科学院软件研究所 | 一种基于草图交互的动画数据组织方法 |
CN108763190A (zh) * | 2018-04-12 | 2018-11-06 | 平安科技(深圳)有限公司 | 基于语音的口型动画合成装置、方法及可读存储介质 |
CN108846887A (zh) * | 2018-06-20 | 2018-11-20 | 首都师范大学 | Vr视频的生成方法及装置 |
CN109409255A (zh) * | 2018-10-10 | 2019-03-01 | 长沙千博信息技术有限公司 | 一种手语场景生成方法及装置 |
CN109816758A (zh) * | 2018-12-21 | 2019-05-28 | 武汉西山艺创文化有限公司 | 一种基于神经网络的二维角色动画生成方法和装置 |
CN110298906A (zh) * | 2019-06-28 | 2019-10-01 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN110598576A (zh) * | 2019-08-21 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 一种手语交互方法、装置及计算机介质 |
-
2020
- 2020-03-02 CN CN202010136045.7A patent/CN111340920B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184200A (zh) * | 2010-12-13 | 2011-09-14 | 中国人民解放军国防科学技术大学 | 一种计算机辅助的动画图文分镜半自动生成方法 |
CN104217454A (zh) * | 2014-08-21 | 2014-12-17 | 中国科学院计算技术研究所 | 一种视频驱动的人脸动画生成方法 |
CN107003825A (zh) * | 2014-09-09 | 2017-08-01 | 马克·史蒂芬·梅多斯 | 通过自然语言输出控制电影指导和动态角色的系统和方法 |
CN104992461A (zh) * | 2015-06-29 | 2015-10-21 | 北京奇虎科技有限公司 | 一种快速动画场景构建方法和装置 |
CN106340049A (zh) * | 2015-07-15 | 2017-01-18 | 中国传媒大学 | 一种基于动画语义的验证码产生方法 |
WO2018050001A1 (zh) * | 2016-09-14 | 2018-03-22 | 厦门幻世网络科技有限公司 | 一种用于生成动画数据的方法和装置 |
CN106447748A (zh) * | 2016-09-14 | 2017-02-22 | 厦门幻世网络科技有限公司 | 一种用于生成动画数据的方法和装置 |
CN108305306A (zh) * | 2018-01-11 | 2018-07-20 | 中国科学院软件研究所 | 一种基于草图交互的动画数据组织方法 |
CN108763190A (zh) * | 2018-04-12 | 2018-11-06 | 平安科技(深圳)有限公司 | 基于语音的口型动画合成装置、方法及可读存储介质 |
CN108846887A (zh) * | 2018-06-20 | 2018-11-20 | 首都师范大学 | Vr视频的生成方法及装置 |
CN109409255A (zh) * | 2018-10-10 | 2019-03-01 | 长沙千博信息技术有限公司 | 一种手语场景生成方法及装置 |
CN109816758A (zh) * | 2018-12-21 | 2019-05-28 | 武汉西山艺创文化有限公司 | 一种基于神经网络的二维角色动画生成方法和装置 |
CN110298906A (zh) * | 2019-06-28 | 2019-10-01 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN110598576A (zh) * | 2019-08-21 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 一种手语交互方法、装置及计算机介质 |
Non-Patent Citations (2)
Title |
---|
Hui Liang等.Semantic Framework for interactive animation generation.《VRCAI '16》.2016,第1卷137-145. * |
基于语义的角色动画生成系统的研究与实现;李栋;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20190315;第2019年卷(第03期);I138-1026 * |
Also Published As
Publication number | Publication date |
---|---|
CN111340920A (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111340920B (zh) | 一种语义驱动的二维动画自动生成方法 | |
Achlioptas et al. | Referit3d: Neural listeners for fine-grained 3d object identification in real-world scenes | |
CN104461525B (zh) | 一种可自定义的智能咨询平台生成系统 | |
CN110825901A (zh) | 基于人工智能的图文匹配方法、装置、设备及存储介质 | |
CN112417172B (zh) | 一种多模态情绪知识图谱的构建及展示方法 | |
KR102490319B1 (ko) | 인공지능 콘텐츠 자동 생성 및 변형 방법 | |
Khurram et al. | Dense-captionnet: a sentence generation architecture for fine-grained description of image semantics | |
CN108305306B (zh) | 一种基于草图交互的动画数据组织方法 | |
CN117011875A (zh) | 多媒体页面的生成方法、装置、设备、介质和程序产品 | |
CN116701669A (zh) | 多媒体内容生成方法、装置、设备及存储介质 | |
Kumar et al. | A survey of evolution of image captioning techniques | |
Perez-Martin et al. | A comprehensive review of the video-to-text problem | |
Sharma et al. | Evolution of visual data captioning Methods, Datasets, and evaluation Metrics: A comprehensive survey | |
Huang et al. | A survey for graphic design intelligence | |
CN117453880A (zh) | 多模态数据的处理方法、装置、电子设备及存储介质 | |
CN112100501A (zh) | 信息流的处理方法、装置及电子设备 | |
CN113407766A (zh) | 视觉动画显示方法及相关设备 | |
CN117252958A (zh) | 基于文本生成图像的方法、装置、电子设备及存储介质 | |
US20240152695A1 (en) | Automatically generating graphic design variants from input text | |
CN117808934A (zh) | 一种数据处理方法及相关设备 | |
CN107193913A (zh) | 动画素材的搜索方法及系统 | |
Luo et al. | Multimodal fusion for traditional Chinese painting generation | |
KR20090028123A (ko) | 인터랙티브 콘텐츠 자동 저작 기술 | |
Zhang et al. | CrePoster: Leveraging multi-level features for cultural relic poster generation via attention-based framework | |
CN118155023B (zh) | 一种文生图及模型训练方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |