CN111369687A - 合成虚拟对象的动作序列的方法及设备 - Google Patents

合成虚拟对象的动作序列的方法及设备 Download PDF

Info

Publication number
CN111369687A
CN111369687A CN202010142920.2A CN202010142920A CN111369687A CN 111369687 A CN111369687 A CN 111369687A CN 202010142920 A CN202010142920 A CN 202010142920A CN 111369687 A CN111369687 A CN 111369687A
Authority
CN
China
Prior art keywords
action
segment
sequence
continuous
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010142920.2A
Other languages
English (en)
Other versions
CN111369687B (zh
Inventor
康頔
李晶
陈卫东
张维
乔亮
暴林超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010142920.2A priority Critical patent/CN111369687B/zh
Publication of CN111369687A publication Critical patent/CN111369687A/zh
Priority to JP2022532845A priority patent/JP2023504649A/ja
Priority to PCT/CN2020/127484 priority patent/WO2021174898A1/zh
Priority to EP20923172.9A priority patent/EP4016467A4/en
Application granted granted Critical
Publication of CN111369687B publication Critical patent/CN111369687B/zh
Priority to US17/680,706 priority patent/US11978142B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

公开了一种合成虚拟对象的动作序列的方法、设备、装置和计算机可读存储介质。该方法包括:获取所述虚拟对象的动作序列的描述信息;基于所述描述信息和由视频素材构建的连续动作片段库,确定与所述动作序列中的至少一部分动作相似的连续动作片段集合;以及基于所述连续动作片段集合,合成所述虚拟对象的动作序列,其中,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。该方法可以合成灵活、连续的动作序列,从而使得虚拟对象的动作更灵活逼真。

Description

合成虚拟对象的动作序列的方法及设备
技术领域
本公开涉及人工智能服务领域,更具体地涉及一种合成虚拟对象的动作序列的方法、设备、装置和计算机可读存储介质。本公开还涉及一种生成虚拟对象动作的视频的方法。
背景技术
目前的虚拟对象(例如,虚拟人物、虚拟动物、三维卡通对象等)的动作主要依赖于美术人员人工设计。通常情况下,美术人员完成一个或多个动作(例如,虚拟对象奔跑、跳跃、行走等)的设计后,将其与动作的关键词对应的存储在数据库中。计算机读取虚拟人物的动作描述信息,例如“小明行走一段时间后跳跃”,然后使用关键词匹配读取出相应的动作设计,完成虚拟对象“小明”的动作序列的串联。通过这样的方式完成的动作序列通常会使得虚拟对象的动作呆板僵硬。同时,由于需要耗费大量的美术人员人工设计动作,导致虚拟对象的动作呈现耗费过高的成本。
发明内容
本公开的实施例提供了合成虚拟对象的动作序列的方法、设备、电子设备和计算机可读存储介质。
本公开的实施例提供了一种合成虚拟对象的动作序列的方法,包括:获取所述虚拟对象的动作序列的描述信息;基于所述描述信息和由视频素材构建的连续动作片段库,确定与所述动作序列中的至少一部分动作相似的连续动作片段集合;以及基于所述连续动作片段集合,合成所述虚拟对象的动作序列,其中,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。
本公开的实施例提供了一种生成虚拟对象动作的视频的方法,包括:获取描述所述虚拟对象的动作序列的文本信息或音频信息;以及基于所述文本信息或音频信息,将所述虚拟对象的动作序列重定向到虚拟对象上,以输出所述虚拟对象动作的视频;其中,所述虚拟对象动作的视频是基于由视频素材构建的连续动作片段库中的动作序列连续动作片段集合合成的,其中,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。
本公开的实施例提供了一种合成虚拟对象的动作序列的设备,包括:动作序列获取模块,被配置为获取所述虚拟对象的动作序列的描述信息;相似动作片段获取模块,被配置为基于所述描述信息和由视频素材构建的连续动作片段库,确定与所述动作序列中的至少一部分动作的相似的连续动作片段集合;和动作合成模块,被配置为基于所述连续动作片段集合,合成所述虚拟对象的动作,其中,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。
本公开的实施例提供了一种合成虚拟对象的动作序列的装置,包括:处理器;存储器,存储器存储有计算机指令,该计算机指令被处理器执行时实现上述方法。
本公开的实施例提供了一种计算机可读存储介质,其上存储有计算机指令,该计算机指令被处理器执行时实现上述方法。
本公开提出一种合成虚拟对象的动作序列的方法。该方法通过从真实的视频中提取动作信息,从而大大减少美术人员的工作量。同时,该方法还可以从连续动作片段库检索到与动作描述信息中的关键词相似的动作,以避免所合成的虚拟对象的动作呆板。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例的描述中所需要使用的附图作简单的介绍。下面描述中的附图仅仅是本公开的示例性实施例。
图1是示出为虚拟对象设计动作序列的场景的示例示意图。
图2A是示出根据本公开实施例的合成虚拟对象的动作序列的方法的流程图。
图2B是示出根据本公开实施例的合成虚拟对象的动作序列的方法的示意图。
图2C示出根据本公开实施例的合成虚拟对象的动作序列的设备的结构图。
图3A是示出根据本公开实施例的构建连续动作片段库的操作的流程图。
图3B是示出根据本公开实施例的构建连续动作片段库的示意图。
图4是示出根据本公开实施例的确定连续动作片段库中与所述动作序列至少一部分动作的相似的连续动作片段集合的示意图。
图5示出根据本公开实施例的生成虚拟对象动作的视频的方法的流程图。
图6是示出根据本公开实施例的合成虚拟对象的动作序列的设备的结构图。
具体实施方式
为了使得本公开的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
在本说明书和附图中,具有基本上相同或相似步骤和元素用相同或相似的附图标记来表示,且对这些步骤和元素的重复描述将被省略。同时,在本公开的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性或排序。
为便于描述本公开,以下介绍与本公开有关的概念。
人工智能(Artificial intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
可选地,下文中的各个模型都可以是人工智能模型,尤其是基于人工智能的神经网络模型。通常,基于人工智能的神经网络模型被实现为无环图,其中神经元布置在不同的层中。通常,神经网络模型包括输入层和输出层,输入层和输出层通过至少一个隐藏层分开。隐藏层将由输入层接收到的输入变换为对在输出层中生成输出有用的表示。网络节点经由边全连接至相邻层中的节点,并且每个层内的节点之间不存在边。在神经网络的输入层的节点处接收的数据经由隐藏层、激活层、池化层、卷积层等中的任意一项被传播至输出层的节点。神经网络模型的输入输出可以采用各种形式,本公开对此不作限制。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本公开的实施例提供的方案涉及人工智能、自然语言处理和机器学习等技术,具体通过如下实施例进行说明。
图1是示出为虚拟对象设计动作序列的场景100的示例示意图。
目前,虚拟对象(例如,虚拟人物、虚拟动物、三维卡通对象等)的动作主要依赖于美术人员人工设计。例如,假设美术人员希望为图1中的虚拟人物“小明”设计甩手的动作。美术人员会设计“小明”各个运动部件(例如,头、左手、右手、左臂、右臂、左腿、右腿等)在甩手这个动作的动作时长里每个运动部件的动作信息。动作信息包括每个运动部件在该帧中的三维坐标、旋转角和运动加速度等。例如,在第一帧中,“小明”的头的三位坐标为(X,Y,Z),而在第二帧中,“小明”的头的三维坐标为(X’,Y’,Z’)。
当美术人员完成虚拟对象“小明”在各个帧中的动作设计后,将该动作的动作信息与动作名称“甩手”对应的存储。由于虚拟对象可能具备很多动作,这将需要耗费大量的美术人员人工设计动作,导致设计虚拟对象的动作动画的成本过高。
在完成各个单一动作的设计后,计算设备将读取虚拟对象“小明”的动作描述信息,例如“小明行走一段时间后甩手”,然后使用关键词匹配读取出相应的动作设计“行走”和“甩手”,从而触发相应的动作,进而完成虚拟对象“小明”的动作序列的串联和合成。但是由于只有在动作描述信息中出现与动作名称完全相同的关键字时才会触发相应的动作,其余的时刻虚拟人物“小明”都将保持静止,这样会导致合成效果僵硬。例如,如果动作描述信息中记载“小明行走一段时间后摆动双手”,由于动作库中没有“摆动双手”这个动作,在最终合成的动作中“小明”可能在行走一段时间后保持静止,而没有摆动双手的效果。
本公开提出一种合成虚拟对象的动作序列的方法。该方法通过从真实的视频中提取动作信息,从而大大减少美术人员的工作量。同时,该方法还可以从连续动作片段库检索到与动作描述信息中的关键词相似的动作,以避免所合成的虚拟对象的动作呆板。
图2A是示出根据本公开实施例的合成虚拟对象的动作序列的方法200的流程图。图2B是示出根据本公开实施例的合成虚拟对象的动作序列的方法200的示意图。图2C示出根据本公开实施例的合成虚拟对象的动作序列的设备2000的结构图。
根据本公开的实施例的合成虚拟对象的动作序列的方法200可以应用于任何的电子设备中。可以理解,电子设备可以是不同种类的硬件设备,例如个人数字助理(PDA)、音频/视频设备、移动电话、MP3播放器、个人计算机、膝上型计算机、服务器等等。例如,该电子设备可以是图2C中合成虚拟对象的动作序列的设备2000。以下,本公开以设备2000为例进行说明,本领域技术人员应当理解本公开并不以此为限。
参见图2C,设备2000可以包括处理器2001和存储器2002。处理器2001和存储器2002可以通过总线2003相连。
处理器2001可以根据存储在存储器2002中的程序执行各种动作和处理。具体地,处理器2001可以是一种集成电路芯片,具有信号的处理能力。上述处理器可以是通用处理器、数字信号处理器(DSP)、专用集成电路(AS I C)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,可以是X87架构或ARM架构的。
存储器2002上存储有计算机指令,该计算机指令被微处理器执行时实现方法200。存储器2002可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)或闪存。易失性存储器可以是随机存取存储器(RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(SDRAM)、双倍数据速率同步动态随机存取存储器DDRSDRAM)、增强型同步动态随机存取存储器(ESDRAM)、同步连接动态随机存取存储器(SLDRAM)和直接内存总线随机存取存储器(DR RAM)。应注意,本公开描述的方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
首先,在操作201中,设备2000可以获取虚拟对象的动作序列的描述信息。
虚拟对象包括虚拟人物、虚拟动物、三维卡通对象等。虚拟对象的动作序列中可以包括虚拟对象的每个运动部件在视频或其它呈现方式中各个帧中的运动信息。这些运动信息包括:运动部件位置、速度、加速度中的至少一项。对于虚拟人物而言,运动部件可以包括头部、双手、肘部等运动关节。对于虚拟动物而言,运动部件可以包括四肢、尾巴等运动关节。运动信息可以以3d pose的方式存储。本公开不对虚拟对象和运动部件的类型进行限制。
虚拟对象的动作序列的描述信息可以是如图2B所示的描述信息220。描述信息220不仅可以以文本的形式记载着一段虚拟对象的动作情况,例如图2B中示出的“小明行走一段时间后摆动双手”,描述信息220还可以以音频的形式来描述虚拟对象的动作情况。例如,描述信息220可以是以一段激昂的音乐来描述虚拟对象动作的情绪,或者以一段鼓点来描述虚拟对象动作的节奏。当描述信息220是音频信息时,描述信息220还可以包括虚拟对象的对话、或者场景的旁白等等。本公开不对描述信息220的形式进行限制。
接下来,在操作202中,基于所述描述信息和连续动作片段库,设备2000确定与动作序列中的至少一部分动作相似的连续动作片段集合。
参考图2B,设备2000可以采用各种方式来确定连续动作片段库210中与动作序列中的至少一部分动作相似的连续动作片段集合230。例如,设备2000可以将连续动作片段库210中的每个连续动作片段的语义信息(例如标题、字幕、动作描述等)和动作属性信息(例如,动作节奏、动作情绪)中的任意一项与描述信息220中的一部分片段进行对比,计算二者之间的相似度,然后选择相似度最高的前k个连续动作片段作为连续动作片段集合230,其中k为大于0的整数。如图2B所示,连续动作片段集合230中可以包括多个连续动作片段,例如连续动作片段231和232。
可选地,操作202还可以包括:基于所述描述信息,获取虚拟对象的动作序列的表示向量,其中,该表示向量融合了动作序列的语义信息和动作属性信息;以及基于该虚拟对象的动作序列的表示向量,确定连续动作片段库中与动作序列中各动作相似的连续动作片段集。
虚拟对象的动作序列的表示向量可以是多模态的表示向量。模态(modality)可以指示信息的来源或者形式。例如,当描述信息220既包括文字信息又包括音频信息时,描述信息220的音频信息、文字信息等都可以被称为一种模态。不同的模态具有不同的统计特性,蕴含着不同的信息。例如,音频信息通常表示为频率、幅度、音色等,而文字信息通常表示为离散的词句。因此,为了更好的表征描述信息220的特征,设备2000可以分别从描述信息220的音频信息、文字信息中提取不同的特征信息,并将这些特征信息进行融合(fusion)和关联分析。
为了获取描述信息220的表示向量,设备2000可以从描述信息220的音频信息中提取动作属性信息,其中动作属性信息可以包括虚拟对象的动作节奏、动作情绪中的至少一项。可选地,动作属性信息可以将虚拟对象的动作节奏、动作情绪融合成一个表示向量。例如,设备2000可以利用Vggish模型来将描述信息220的音频信息转换为描述信息220的音频特征的表示向量。设备2000通过解析音频信息的方式来构建该代表音频信息的梅尔倒频谱(Mel-Frequency Cepstral Coefficients,MFCC)特征或Log-Mel特征。可选地,设备2000还可以对MFCC特征或Log-Mel特征进行时序融合以构建代表性更强的表示向量。当然,设备2000也可以使用其他神经网络模型来获取描述信息220的音频信息的表示向量,本公开对此不作限制。
为了获取描述信息220的表示向量,设备2000还可以从描述信息220的文字信息中提取语义信息。设备2000可以对文字形式的模态信息(例如,图2B中的“小明行走一段时间后摆动双手”)进行进一步的解析以获取描述信息220的语义信息,进而将其转化为描述信息220的表示向量。例如,设备2000可以利用BERT(Bidirectional EncoderRepresentations from Transformers,双向编码器表示转换器)算法来将描述信息220的文字信息分别分割成多个单词,然后通过将这些单词通过词嵌入(word embedding)的方式转换成词向量,最后将这些词向量拼接起来作为描述信息220的表示向量。BERT算法中的编码神经网络模型(Encoder)可以将这些词向量转换成编码隐藏状态向量。在一些实施例中,编码神经网络模型可以被实现为长短期记忆神经网络模型,可以理解的是编码神经网络模型还可以被实现为任何能够对词向量进行编码以获取编码隐藏状态向量的神经网络模型。通过BERT算法,设备2000可以提取出描述信息220中与上下文相关的自然语言特征,该算法把词语映射为词向量,从而语义相近的词语对应的词向量也更加相似。当然,设备2000也可以使用其他神经网络模型来获取描述信息220的语义信息的表示向量,本公开对此不作限制。
如果描述信息220既包括文字信息又包括音频信息,文字信息的表示向量和音频信息的表示向量有可能是互补且冗余的。设备2000可以采用各种方式来将描述信息220的这两种表示向量进行进一步的处理,以得到能够表征二者的表示向量。通常,将多个模态的数据所蕴含的特征信息数值化为实值向量的过程被称为多模态表示。多模态表示可以包括多模态融合表示和多模态深度表示。其中,将不同模态的特征整合成(例如简单拼接)单个向量的过程可以被称为多模态融合表示,整合而成的单个向量可以被称为多模态融合表示向量。对多模态融合表示向量进行进一步分析而获得的向量可以被称为多模态深度表示向量。例如,可以利用神经网络模型将描述信息220的多模态融合表示向量进一步抽象为更高层次的向量,该向量也被称为多模态深度表示向量。多模态深度表示向量可以是多维浮点数向量,如128位浮点型向量。本公开中的记载的表示向量既可以是多模态融合表示向量、也可以是多模态深度表示向量。本公开对描述信息220的表示向量的具体表征方式并不做限制。
由于多模态深度表示向量以向量的方式来表征描述信息220,并且涵盖了多个模态的信息,因此使用多模态深度表示向量可以更快更准确地检索到连续动作片段,以更方便地获取连续动作片段集合230。
连续动作片段库210是基于视频素材构建的。这些视频素材可以是现有的电影、电视剧、短片等等,也可以时在线的视频素材。设备2000从视频素材中提取运动对象(例如,真人演员)的一个或多个连续动作的运动信息来构建连续动作片段库210。比如,一个连续动作将包括运动对象完整走完一步路的动作,或者从起跳到落地的动作等等。而连续动作片段将包括这个完整连续的动作的动作信息。当然每个连续动作的时长可以相同也可以不同,本公开对此不作限制。
连续动作片段库210中的每个连续动作片段包括连续动作片段的唯一标识符、连续动作片段的动作信息、以及连续动作片段对应的表示向量。连续动作片段对应的表示向量也可以是上述的多模态融合表示向量或多模态深度表示向量,其融合了视频素材在该动作片段中的运动属性信息和语义信息,甚至画面信息。其中,动作属性信息和语义信息是从视频素材的音频数据和文本数据中提取的。在图2B中示意性地示出了连续动作片段集合230的两个连续动作片段。例如,对于连续动作片段231而言,其具有的表示向量融合语义信息“行走”,以及动作属性信息(也即运动对象在行走时的动作节奏和动作情绪等)。而连续动作片段232的表示向量则融合有语义信息“甩手”。
由此,设备2000可以将虚拟对象的动作序列的表示向量中的各个动作序列片段的表示向量与连续动作片段库210中的各个连续动作序列片段对应的表示向量进行比较。两个表示向量之间的距离越小,表示两个表示向量的相似度越高,从而可以获得与虚拟对象的动作序列中的至少一部分动作相似的连续动作片段集合230。
最后,在操作203中,基于所述连续动作片段集合,设备2000合成所述虚拟对象的动作序列。
描述信息220所描述的动作序列中的各个动作的动作信息和连续动作片段231或232是相似的,则虚拟对象的运动序列也可以使用与连续动作片段231和232中的动作信息来表达。由此,设备2000根据连续动作片段集合230,可以推测出描述信息220“小明行走一段时间后摆动双手”的动作信息也可以包括“行走”和“甩手”中的动作信息。设备2000可以将连续动作片段集合以虚拟对象的动作序列的时序信息的顺序进行拼接,从而合成虚拟对象的动作序列。
可选地,设备2000可以将所合成的动作重定向(retarget)到虚拟新闻主播、虚拟游戏解说、虚拟门迎、虚拟导购中的任一虚拟对象上。重定向,尤其是运动重定向(motionretarget)是一种在对象大小和比例(例如,手、腿、躯干等)不同的情况下将运动信息从一个源角色复制到另一个目标角色的过程。例如,视频素材中可能是一个一米六的演员在行走,而虚拟对象可能是一个一米八的虚拟门迎。因此,需要将演员的运动信息进行变化才能更好的贴合虚拟门迎的动作状态。运动重定向可以根据某些约束,把一套骨骼的动作迁移到另外一套骨骼,不同的骨骼的长度、比例可能有所不同。常见的约束如脚必须在地面以上,不同骨骼的旋转角度不超过某一阈值等。
方法200通过从视频素材中估计运动信息的方式,解决了虚拟对象的动作对美术人员的依赖的问题。由于方法可以利用互联网上大量的、甚至在线的视频数据,因此连续动作片段库210中的内容更加丰富,不容易重复出现。通过融合了语义信息和运动属性信息的表示向量的比对使得合成的动作序列的节奏不仅能够匹配文字数据中的语义还能够匹配语音的节奏和情绪,使得合成的动作序列更加自然。方法200可以实现,例如,当虚拟新闻主播放慢语速强调某一词语时,每说一个字,手就跟着上下抖动一次。方法200还可以从连续动作片段库检索到与动作描述信息中的关键词相似的动作,从而可以获取更多的备选连续动作片段,进而避免所合成的虚拟对象的大部分时间处于呆板的静止状态,从而在虚拟现实的应用场景中实现更为灵动的仿真效果。
图3A是示出根据本公开实施例的构建连续动作片段库的操作300的流程图。图3B是示出根据本公开实施例的构建连续动作片段库的示意图。
参见图3B,视频库310包括视频库中多个视频素材的视频信息,其中每个视频素材的视频信息包括视频素材的唯一标识符(i d)、音乐、台词、字幕、视频文件本身等等。视频库310可能是以关系数据库方式存储视频信息的数据库。
连续动作片段库210可以以这些连续动作片段的表示向量为键,以动作信息为值构建键值对(key-value pairs),从而连续动作片段库210可以对应地存储连续动作片段的表示向量和动作信息。连续动作片段库210可以是近似最近邻(Approximate NearestNeighbor,ANN)检索数据库。在近似最近邻检索库中可以采取近似最近邻检索的方式快速地找到与检索键(例如,虚拟对象的动作序列的表示向量)相似的一个或多个数据。具体地,近似最近邻检索可以利用海量数据之间形成的簇状聚集分布的特性,通过对数据分析聚类的方法对连续动作片段库210中的连续动作片段对应的表示向量进行分类或编码。接着,近似最近邻检索可以根据查询键预测其所属的数据类别,返回类别中的部分或全部作为检索结果。可选地,连续动作片段库210可以利用Annoy、Faiss等工具被构建为近似最近邻检索库。当然,还可以使用其他工具来构建近似最近邻检索库,本公开对此不作限制。连续动作片段库210也可以是其它类型的数据库,例如经典的关系数据库。
请注意,虽然在图3B中将连续动作片段库210和视频库310分开示出,但本领域技术人员应当理解,连续动作片段库210可以是根据视频库310生成的独立的数据库,连续动作片段库210也可以是视频库310中的一部分,只要其能够存储相应信息即可。
为了从视频库310中构建这样的连续动作片段库210,设备2000可以执行图3A中的操作301-304。
参见图3A,在操作301中,设备2000可以从视频素材中提取运动对象的动作信息、动作属性信息和语义信息。如上所述,运动信息可以包括:运动部件位置、速度、加速度中的至少一项。动作属性信息可以包括运动对象的动作节奏、动作情绪中的至少一项。其中,动作属性信息和语义信息是从视频素材的音频数据和文本数据中提取的。运动信息是从视频素材中的画面数据中提取的。例如,设备2000可以从视频素材的每一帧画面中估计运动部件(例如,诸如头部、双手、肘部等人体关节)的三维坐标。然后设备2000可以从相邻两帧或多帧之间的同一运动部件的三维坐标来估计该运动部件的旋转角、加速度(包括旋转加速度、直线加速度)、速度等参数。
可选地,操作301还可以包括:对所提取的运动对象的动作信息进行降维。例如,设备2000可以对从视频中估计出来的所有人体关节的位置、速度、加速度等特征利用主成分分析算法(Principal Components Analysis,PCA)来进行降维,从而仅保留动作信息中最重要的成分,丢弃噪音,使得提取的运动信息更加平滑、稳定。
此外,语义信息和动作属性信息还可以通过图2A和图2B中描述的方式被表征为表示向量,该表示向量包含时序信息。
在操作302中,设备2000基于所述运动对象的动作信息,将所述视频素材划分为多个连续动作片段。视频的时长短则数分钟,长则数小时。时长过长(帧数过多的)的动作信息的语义、节奏等通常难以整段都符合需求,而且还会导致计算量大,不利于特征相似度比较。为了方便合成动作,设备2000可以把这些包含过多帧数的动作信息根据动作切分为包含较少帧数的动作信息片段,这样的运动信息片段也即连续动作片段。每个连续动作片段将包括运动对象完成一个完整的动作的运动信息,比如从起跳到落地。从而使得设备2000能够更容易的找到匹配节奏、语义的动作,进而合成更加多样化的动作。
可选地,操作302还可以包括:确定视频素材的每一帧中的运动对象的运动状态;在至少一个特定帧中的所述运动对象的运动状态为静止的情况下,以至少一个特定帧为分割点将视频素材划分为多个动作片段。例如,设备2000可以训练支持向量机(SVM)分类器来判断每一帧的虚拟对象是处于运动状态还是静止状态。SVM分类器可以通过有监督机器学习算法来对输入信息进行分类。当某一帧的虚拟对象处于静止状态时,该帧可以被认为是一个特定帧。然后设备2000可以认定两个特定帧之间的多个帧组成了一个完整的动作。或者,设备2000还可以预先设定一个标准动作帧,该帧表示一个动作完成的起始状态和完成状态(假设一个动作的起始状态和完成状态相同,例如,跳跃的起始状态和完成状态都是静止站立)。然后,设备2000可以比较每一帧的运动信息与标准动作帧的运动信息,如果第n帧和第n+k帧都与标准动作帧中的运动信息相似,那么可以认定第n帧和第n+k帧之间的多个帧构成了一个完整的动作。设备2000还可以结合上述两种方法,比如,在向上弹跳过程中,可能也出现人物在未落地的时候的运动信息与标准动作帧中的运动信息相同或相似的情况,此时,通过静止状态和运动状态的分类信息就可以确定人物仍在运动中,一个完整的动作尚未完成。因此将二者结合可以得到更好的分类结果。本领域技术人员应当理解如何将视频素材进行划分还可以包括多种方式,本公开并不以此为限。
在操作303中,设备2000可以将每个连续动作片段对应的动作属性信息和语义信息转换为连续动作片段对应的表示向量。设备2000可以根据上述分类结果把动作序列及其对应的语义信息、动作属性信息切分为片段,并将其与动作信息进行关联。可选地,视频素材中表征语义信息和动作属性信息的表示向量可以根据上述分类的方式,被划分为多个表示向量,每个表示向量对应于一个连续动作片段,其融合该连续动作片段的语义信息、动作属性信息。
在操作304中,设备2000将每个动作片段对应的表示向量与动作片段的唯一标识符、动作信息对应地存储。例如,将这些信息对应地存储于连续动作片段库210。
由此,通过操作301至操作304,设备2000可以快速地获取连续动作片段库210。
图4是示出根据本公开实施例的确定连续动作片段库中与所述动作序列至少一部分动作的相似的连续动作片段集合的示意图。
例如,参见图4,设备2000可以基于虚拟对象的动作序列的表示向量,获取第一动作序列片段的表示向量。然后,设备2000基于第一动作序列片段的表示向量,获取第一连续动作片段。第一连续动作片段的表示向量与所述第一动作序列片段的表示向量具备第一相似度。其中,第一相似度大于等于连续动作片段库中的其它连续动作片段的表示向量与第一动作序列片段的表示向量的相似度。
例如,假设连续动作片段库210中包括100个连续动作片段,每个连续动作片段的时长/代表的帧数可能不同。设备2000在获取第一动作序列时,可以从虚拟对象的动作序列的表示向量中截取与连续动作片段库210中任一连续动作片段的时长相同的表示向量作为备选动作序列片段A的表示向量,然后,计算备选动作序列片段A的表示向量和该连续动作片段的表示向量之间的相似度A。接着,设备2000从虚拟对象的动作序列的表示向量中截取与另一连续动作片段的时长相同的表示向量作为备选动作序列片段B的表示向量,然后,计算备选动作序列片段B的表示向量和该连续动作片段的表示向量之间的相似度B。设备2000比较相似度A和相似度B,然后选取相似度高的那个备选动作序列片段继续与其它备选动作序列片段进行比较,直到完成100个连续动作片段的比较,从而选取到相似度最高的连续动作片段作为第一连续动作片段。如果有时长不同的连续动作片段与其对应的备选动作序列片段的相似度相同,那么选取时长较短的那个连续动作片段作为第一连续动作片段。
接着,设备2000可以基于虚拟对象的动作序列的表示向量,获取第二动作序列片段的表示向量,第二序列动作片段为第一动作序列片段的下一个动作序列片段。然后设备2000可以基于第一连续动作片段的末尾多帧的动作信息、第二动作序列片段的表示向量,获取第二连续动作片段。其中,第二相似度大于等于连续动作片段库中的其它动作片段的表示向量与第二动作序列片段的表示向量的相似度。如图4所示,第一连续动作片段的灰色部分表示第一连续动作片段的末尾n帧。假设第一连续动作片段的表示向量与虚拟对象的动作序列中的第1帧至第k帧的表示向量最为相似。那么在获取第二连续动作片段时,设备2000可以从第k-n帧开始截取虚拟对象的动作序列的表示向量作为用于获取第二连续动作片段的备选动作序列片段。例如,假设需要截取与备选动作片段C相同时长的第二连续动作片段,并且备选动作片段C具有m帧。那么可以截取虚拟对象的动作序列的表示向量中表示第k-n帧至第k-n+m帧的表示信息。然后设备2000采用与获取第一连续动作片段类似的方式,即可获取第二连续动作片段。
本公开并不局限于上述获取第一相似动作片段和第二相似动作片段的方式。例如,设备2000还可以将连续动作片段库210中的连续动作片段均压缩至相同的时长,然后与定长的动作序列片段的表示向量进行比较。或者,设备2000还可以利用邻近检索库的特性来完成第一相似片段和第二相似片段的检索。
在获取连续动作片段集合230后,设备2000可以将连续动作片段集合230中的连续动作片段进行拼接。其中,所述拼接包括将相邻的连续动作片段中的前一连续动作片段的末尾多帧与后一连续动作片段的起始多帧的动作信息进行融合。例如,设备2000可以将每个连续动作片段的末尾n帧与下一片段的开始n帧的旋转角加权平均,以使得合成动作能够在不同的连续动作片段平滑过渡,其中n为偶数。例如,假设第一连续动作片段表示虚拟对象的动作序列中的第i帧至第i+l1帧的动作。第二连续动作片段表示虚拟对象的动作序列中的第i+l1-n帧至第i+l1-n+l2帧的动作。为了使得连续动作片段平滑过渡,设备将第一连续动作片段中表示虚拟对象的动作序列中的第i+l1-n帧至第i+l1帧这n帧的动作信息与第二连续动作片段中表示虚拟对象的动作序列中的第i+l1-n帧至第i+l1帧这n帧的动作信息进行融合。例如,设备2000可以使用以下公式来计算当前连续动作片段第x帧每个运动部件的输出旋转角
Figure BDA0002399722360000151
Figure BDA0002399722360000152
Figure BDA0002399722360000153
为一个向量,表示前一连续动作片段第x帧虚拟对象的运动信息,每个运动部件的运动信息可以用旋转角表示。例如,向量
Figure BDA0002399722360000154
中的每一元素表示人体某一关节的旋转角。
Figure BDA0002399722360000155
表示当前动作片段第x帧每个运动部件的旋转角。x的取值范围为
Figure BDA0002399722360000156
例如,假设当前连续动作片段为第二连续动作片段。当x=0时,
Figure BDA0002399722360000157
为第一连续动作片段第l1-0.5*n帧的虚拟对象的各个运动部件的旋转角(其表示用第一连续动作片段来近似的情况下的虚拟对象的运动序列中第i+l1-0.5*n帧的运动信息)。
Figure BDA0002399722360000158
为第二连续动作片段第0.5*n帧的虚拟对象的各个运动部件的旋转角(其表示用第二连续动作片段来近似的情况下的虚拟对象的运动序列中第i+l1-0.5*n帧的运动信息)。此时,将x=0带入上述公式,可以得到虚拟对象的运动序列中第i+l1-0.5*n帧的旋转角
Figure BDA0002399722360000159
通过上述公式可以实现,前一连续动作片段与当前连续动作片段末尾n帧与下一片段的开始n帧的旋转角加权平均,并且前一连续动作片段的权重随着x的增加而减少,后一连续动作片段的权重随着x的增加而增加。
图5示出根据本公开实施例的生成虚拟对象动作的视频的方法500的流程图。
在操作501中,设备2000可以获取描述所述虚拟对象的动作序列的文本信息或音频信息。描述虚拟对象的动作序列的文本信息或音频信息可以是方法200中的描述信息220。例如,文本信息可以是“小明行走一段时间后摆动双手”。音频信息可以是以一段激昂的音乐来描述虚拟对象动作的情绪,或者以一段鼓点来描述虚拟对象动作的节奏。
在操作502中,设备2000可以基于文本信息或音频信息,将虚拟对象的动作序列重定向到虚拟对象上,以输出虚拟对象动作的视频。
其中,所述虚拟对象动作的视频是基于由视频素材构建的连续动作片段库中的动作序列连续动作片段集合合成的,并且,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。与方法200类似地,设备2000可以将文本信息或音频信息转换为虚拟对象的动作序列的表示向量,然后在连续动作片段库210中检索出相似的连续动作片段集230。将连续动作片段集230拼接完成后,设备2000将获取虚拟对象的动作序列。
设备2000可以将所合成的动作重定向(retarget)到虚拟新闻主播、虚拟游戏解说、虚拟门迎、虚拟导购中的任一个虚拟对象上。重定向可以在对象大小和比例(例如,手、腿、躯干等)不同的情况下将运动信息从一个源角色复制到另一个目标角色。例如,在线视频素材中可能是一个一米六的演员在行走,而虚拟对象可能是一个一米八的虚拟门迎。因此,需要将演员的运动信息进行变化才能更好的贴合虚拟门迎的动作状态。运动重定向可以根据某些约束,把一套骨骼的动作迁移到另外一套骨骼,不同的骨骼的长度、比例可能有所不同。常见的约束如脚必须在地面以上,不同骨骼的旋转角度不超过某一阈值等。在完成重定向后,可以将虚拟对象动作的视频输出。
方法500仅通过输入文本信息或音频信息,即可输出符合文本信息中的语义信息和符合音频信息的运动节奏信息的虚拟对象的视频,并且在该视频中虚拟对象的运动自然不僵硬。
图6是示出根据本公开实施例的合成虚拟对象的动作序列的设备2000的结构图。
设备2000可以包括动作序列获取模块601、相似动作片段获取模块602和动作合成模块603。
动作片段集确定模块601可以被配置为获取所述虚拟对象的动作序列的描述信息。虚拟对象包括虚拟人物、虚拟动物、三维卡通对象等。虚拟对象的动作序列中可以包括虚拟对象的每个运动部件在视频或其它呈现方式中各个帧中的运动信息。这些运动信息包括:运动部件位置、速度、加速度中的至少一项。
相似动作片段获取模块602可以被配置为基于所述描述信息和由视频素材构建的连续动作片段库,确定与所述动作序列中的至少一部分动作的相似的连续动作片段集合。可选地,相似动作片段获取模块602还可以被配置为基于所述描述信息,获取虚拟对象的动作序列的表示向量,其中,该表示向量融合了动作序列的语义信息和动作属性信息;以及基于该虚拟对象的动作序列的表示向量,确定连续动作片段库中与所述动作序列中各动作相似的连续动作片段集。其中,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。
动作合成模块603可以被配置为基于所述连续动作片段集合,合成所述虚拟对象的动作。可选地,设备2000还可以将所合成的动作重定向(retarget)到虚拟新闻主播、虚拟游戏解说、虚拟门迎、虚拟导购中的任一个虚拟对象上。重定向,尤其是运动重定向(motionretarget)是一种在对象大小和比例(例如,手、腿、躯干等)不同的情况下将运动信息从一个源角色复制到另一个目标角色的过程。例如,视频素材中可能是一个一米六的演员在行走,而虚拟对象可能是一个一米八的虚拟门迎。因此,需要将演员的运动信息进行变化才能更好的贴合虚拟门迎的动作状态。运动重定向可以根据某些约束,把一套骨骼的动作迁移到另外一套骨骼,不同的骨骼的长度、比例可能有所不同。常见的约束如脚必须在地面以上,不同骨骼的旋转角度不超过某一阈值等。
设备2000通过从视频素材中估计运动信息的方式,解决了虚拟对象的动作对美术人员的依赖的问题。设备2000还可以从连续动作片段库检索到与动作描述信息中的关键词相似的动作,从而可以获取更多的备选连续动作片段,进而避免所合成的虚拟对象的大部分时间处于呆板的静止状态,从而在虚拟现实的应用场景中实现更为灵动的仿真效果。
本公开的实施例提供了一种计算机可读存储介质,其上存储有计算机指令,该计算机指令被处理器执行时实现方法200和方法500。
根据本公开的实施例的方法200和方法500通过从视频素材中估计运动信息的方式,解决了虚拟对象的动作对美术人员的依赖的问题。由于方法可以利用互联网上大量的视频数据,因此连续动作片段库中的内容更加丰富,不容易重复出现。通过融合了语义信息和运动属性信息的表示向量的比对使得合成的动作序列的节奏不仅能够匹配文字数据中的语义还能够匹配语音的节奏和情绪,使得合成的动作序列更加自然。方法200和方法500可以实现,例如,当虚拟新闻主播放慢语速强调某一词语时,每说一个字,手就跟着上下抖动一次。方法200还可以从连续动作片段库检索到与动作描述信息中的关键词相似的动作(而不需找到与关键词完全相同的动作),从而可以获取更多的备选连续动作片段,进而避免所合成的虚拟对象的大部分时间处于呆板的静止状态,从而在虚拟现实的应用场景中实现更为灵动的仿真效果。
需要说明的是,附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
一般而言,本公开的各种示例实施例可以在硬件或专用电路、软件、固件、逻辑,或其任何组合中实施。某些方面可以在硬件中实施,而其他方面可以在可以由控制器、微处理器或其他计算设备执行的固件或软件中实施。当本公开的实施例的各方面被图示或描述为框图、流程图或使用某些其他图形表示时,将理解此处描述的方框、装置、系统、技术或方法可以作为非限制性的示例在硬件、软件、固件、专用电路或逻辑、通用硬件或控制器或其他计算设备,或其某些组合中实施。
在上面详细描述的本发明的示例实施例仅仅是说明性的,而不是限制性的。本领域技术人员应该理解,在不脱离本发明的原理和精神的情况下,可对这些实施例或其特征进行各种修改和组合,这样的修改应落入本发明的范围内。

Claims (15)

1.一种合成虚拟对象的动作序列的方法,包括:
获取所述虚拟对象的动作序列的描述信息;
基于所述描述信息和由视频素材构建的连续动作片段库,确定与所述动作序列中的至少一部分动作相似的连续动作片段集合;以及
基于所述连续动作片段集合,合成所述虚拟对象的动作序列;
其中,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。
2.如权利要求1所述的合成虚拟对象的动作序列的方法,其中,所述确定与所述动作序列中的至少一部分动作相似的连续动作片段集合包括:
基于所述描述信息,获取所述虚拟对象的动作序列的表示向量,其中,所述虚拟对象的动作序列的表示向量融合了所述动作序列的语义信息和动作属性信息;
基于所述虚拟对象的动作序列的表示向量,确定连续动作片段库中与所述动作序列中各动作相似的连续动作片段集。
3.如权利要求1所述的合成虚拟对象的动作序列的方法,还包括:
将所合成的动作序列重定向到虚拟新闻主播、虚拟游戏解说、虚拟门迎、虚拟导购中的任一个虚拟对象上。
4.如权利要求1所述的合成运动对象动作的方法,
其中,所述连续动作片段库的构建包括:
从所述视频素材中提取运动对象的动作信息、动作属性信息和语义信息;
基于所述运动对象的动作信息,将所述视频素材划分为多个连续动作片段;
将每个连续动作片段对应的动作属性信息和语义信息转换为所述连续动作片段对应的表示向量;以及
将每个连续动作片段对应的表示向量与所述动作信息对应地存储。
5.如权利要求4所述的合成运动对象动作的方法,其中,
所述动作信息包括所述运动对象的各个动作部件的位置、速度、加速度中的至少一项;
所述动作属性信息包括运动对象的动作节奏、动作情绪中的至少一项;
其中,所述动作属性信息和所述语义信息是从所述视频素材的音频数据和文本数据中提取的。
6.如权利要求4所述的合成运动对象动作的方法,其中,所述从视频素材中提取运动对象的动作信息、动作属性信息和语义信息还包括:对所提取的运动对象的动作信息进行降维。
7.如权利要求4所述的合成运动对象动作的方法,其中,所述将视频素材划分为多个连续动作片段包括:
确定所述视频素材的每一帧中的运动对象的运动状态;
在至少一个特定帧中的所述运动对象的运动状态为静止的情况下,以所述至少一个特定帧为分割点将视频素材划分为多个连续动作片段。
8.如权利要求2所述的合成虚拟对象的动作序列的方法,其中,所述确定连续动作片段库中与所述动作序列至少一部分动作的相似的连续动作片段集合,包括:
基于所述虚拟对象的动作序列的表示向量,获取第一动作序列片段的表示向量;
基于所述第一动作序列片段的表示向量,获取第一连续动作片段,所述第一连续动作片段的表示向量与所述第一动作片段的表示向量具备第一相似度,
其中,第一相似度大于等于连续动作片段库中的其它连续动作片段的表示向量与第一动作序列片段的表示向量的相似度。
9.如权利要求8所述的合成虚拟对象的动作序列的方法,其中,所述确定连续动作片段库中与所述动作序列至少一部分动作的相似的连续动作片段集合,还包括:
基于所述虚拟对象的动作序列的表示向量,获取第二动作序列片段的表示向量,所述第二序列动作片段为第一动作序列片段的下一个动作序列片段;
基于第一相似动作片段的末尾多帧的动作信息、第二动作序列片段的表示向量,获取第二连续动作片段,所述连续动作片段的表示向量与所述第二动作片段的表示向量具备第二相似度,
其中,第二相似度大于等于连续动作片段库中的其它连续动作片段的表示向量与第二动作序列片段的表示向量的相似度。
10.如权利要求1所述的合成虚拟对象的动作序列的方法,其中,所述合成所述虚拟对象的动作还包括:
将所述连续动作片段集合以所述虚拟对象的动作序列的时序信息进行拼接;
其中,所述拼接包括将相邻的连续动作片段中的前一连续动作片段的末尾多帧与后一连续动作片段的起始多帧的动作信息进行融合。
11.一种生成虚拟对象动作的视频的方法,包括:
获取描述所述虚拟对象的动作序列的文本信息或音频信息;以及
基于所述文本信息或音频信息,将所述虚拟对象的动作序列重定向到虚拟对象上,以输出所述虚拟对象动作的视频;
其中,所述虚拟对象动作的视频是基于由视频素材构建的连续动作片段库中的动作序列连续动作片段集合合成的,
其中,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。
12.如权利要求11所述的生成虚拟对象动作的视频的方法,其中,所述虚拟对象为虚拟新闻主播、虚拟游戏解说、虚拟门迎、虚拟导购中的任一个。
13.一种合成虚拟对象的动作序列的设备,包括:
动作序列获取模块,被配置为获取所述虚拟对象的动作序列的描述信息;
相似动作片段获取模块,被配置为基于所述描述信息和由视频素材构建的连续动作片段库,确定与所述动作序列中的至少一部分动作的相似的连续动作片段集合;和
动作合成模块,被配置为基于所述连续动作片段集合,合成所述虚拟对象的动作,
其中,所述连续动作片段库中的每个连续动作片段包括所述连续动作片段的唯一标识符、所述连续动作片段的动作信息、以及所述连续动作片段对应的表示向量。
14.一种合成虚拟对象的动作序列的装置,包括:
处理器;
存储器,存储器存储有计算机指令,该计算机指令被处理器执行时实现如权利要求1-12中任一项所述的方法。
15.一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时实现如权利要求1-12中的任一项所述的方法。
CN202010142920.2A 2020-03-04 2020-03-04 合成虚拟对象的动作序列的方法及设备 Active CN111369687B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010142920.2A CN111369687B (zh) 2020-03-04 2020-03-04 合成虚拟对象的动作序列的方法及设备
JP2022532845A JP2023504649A (ja) 2020-03-04 2020-11-09 仮想オブジェクトのモーションシーケンスの合成方法及び生成方法、並びに合成装置、コンピュータプログラム
PCT/CN2020/127484 WO2021174898A1 (zh) 2020-03-04 2020-11-09 合成虚拟对象的动作序列的方法及设备
EP20923172.9A EP4016467A4 (en) 2020-03-04 2020-11-09 METHOD AND APPARATUS FOR COMPOSITION ACTION SEQUENCE OF A VIRTUAL OBJECT
US17/680,706 US11978142B2 (en) 2020-03-04 2022-02-25 Method and device for synthesizing motion sequence of virtual object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010142920.2A CN111369687B (zh) 2020-03-04 2020-03-04 合成虚拟对象的动作序列的方法及设备

Publications (2)

Publication Number Publication Date
CN111369687A true CN111369687A (zh) 2020-07-03
CN111369687B CN111369687B (zh) 2021-03-30

Family

ID=71206675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010142920.2A Active CN111369687B (zh) 2020-03-04 2020-03-04 合成虚拟对象的动作序列的方法及设备

Country Status (5)

Country Link
US (1) US11978142B2 (zh)
EP (1) EP4016467A4 (zh)
JP (1) JP2023504649A (zh)
CN (1) CN111369687B (zh)
WO (1) WO2021174898A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446938A (zh) * 2020-11-30 2021-03-05 重庆空间视创科技有限公司 基于多模态的虚拟主播系统及方法
CN112735472A (zh) * 2020-12-25 2021-04-30 航天科工深圳(集团)有限公司 音视频旋律动作自生成方法及装置
WO2021174898A1 (zh) * 2020-03-04 2021-09-10 腾讯科技(深圳)有限公司 合成虚拟对象的动作序列的方法及设备
CN113642394A (zh) * 2021-07-07 2021-11-12 北京搜狗科技发展有限公司 一种虚拟对象的动作处理方法、装置和介质
TWI752629B (zh) * 2020-08-12 2022-01-11 英業達股份有限公司 訓練虛擬動物基於控制參數運動的方法
CN114615513A (zh) * 2022-03-08 2022-06-10 北京字跳网络技术有限公司 视频数据生成方法、装置、电子设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936038A (zh) * 2021-10-13 2022-01-14 支付宝(杭州)信息技术有限公司 骨骼检测装置及其使用方法、训练方法和训练装置
CN117237687A (zh) * 2022-06-07 2023-12-15 英业达科技有限公司 自动分类过渡动作的方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102179048A (zh) * 2011-02-28 2011-09-14 武汉市高德电气有限公司 基于动作分解和行为分析实现实景游戏的方法
CN103678569A (zh) * 2013-12-09 2014-03-26 北京航空航天大学 一种面向虚拟场景生成的视频图像素材库的构造方法
CN108665492A (zh) * 2018-03-27 2018-10-16 北京光年无限科技有限公司 一种基于虚拟人的舞蹈教学数据处理方法及系统
CN109118562A (zh) * 2018-08-31 2019-01-01 百度在线网络技术(北京)有限公司 虚拟形象的讲解视频制作方法、装置以及终端
CN110033505A (zh) * 2019-04-16 2019-07-19 西安电子科技大学 一种基于深度学习的人体动作捕捉与虚拟动画生成方法
CN110047121A (zh) * 2019-03-20 2019-07-23 北京字节跳动网络技术有限公司 端到端的动画生成方法、装置及电子设备
CN110288077A (zh) * 2018-11-14 2019-09-27 腾讯科技(深圳)有限公司 一种基于人工智能的合成说话表情的方法和相关装置
JP2019197368A (ja) * 2018-05-09 2019-11-14 日本放送協会 立体映像奥行き圧縮装置および立体映像奥行き圧縮プログラム
CN110533752A (zh) * 2019-07-23 2019-12-03 深圳大学 一种人体动作编辑模型的生成方法、存储介质及电子设备
CN110637326A (zh) * 2017-05-24 2019-12-31 古野电气株式会社 影像生成装置
WO2020027294A1 (ja) * 2018-08-03 2020-02-06 日本電信電話株式会社 仮想世界構築システム及び方法
CN110807126A (zh) * 2018-08-01 2020-02-18 腾讯科技(深圳)有限公司 文章转换成视频的方法、装置、存储介质及设备
CN110833690A (zh) * 2019-10-30 2020-02-25 上海国威互娱文化科技有限公司 一种基于现场互动的虚拟同步的一体机
CN110858409A (zh) * 2018-08-24 2020-03-03 北京微播视界科技有限公司 动画生成方法和装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4695275B2 (ja) * 2001-03-07 2011-06-08 独立行政法人科学技術振興機構 動画像生成システム
TWI235962B (en) * 2003-06-06 2005-07-11 Ind Tech Res Inst Method for converting high level motion scripts to computer animations
CN100440257C (zh) * 2006-10-27 2008-12-03 中国科学院计算技术研究所 一种虚拟人群运动的三维可视化方法
JP5200483B2 (ja) * 2007-10-18 2013-06-05 ソニー株式会社 冊子型表示装置、冊子型表示装置を用いた動画編集方法
US20090150920A1 (en) * 2007-12-10 2009-06-11 Loyal Tv Inc System and method for aggregating, distributing, and monetizing the collective wisdom of consumers
CN104484034B (zh) * 2014-11-27 2017-07-28 韩慧健 一种基于手势识别的手势运动基元过渡帧定位方法
CN106548503B (zh) * 2016-10-19 2019-07-05 华东师范大学 一种基于命令流三维角色的动画合成方法
DE102017203721A1 (de) * 2017-03-07 2018-09-13 Bitmanagement Software GmbH Vorrichtung und Verfahren zur Darstellung eines Raumbilds von einem Objekt in einer virtuellen Umgebung
US10467788B2 (en) * 2017-05-03 2019-11-05 Adobe Inc. Automated action shot generation in a digital medium environment
JP7144931B2 (ja) 2017-12-14 2022-09-30 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
CN108986186B (zh) * 2018-08-14 2023-05-05 山东师范大学 文字转化视频的方法和系统
CN110125932B (zh) 2019-05-06 2024-03-19 达闼科技(北京)有限公司 一种机器人的对话交互方法、机器人及可读存储介质
CN111369687B (zh) * 2020-03-04 2021-03-30 腾讯科技(深圳)有限公司 合成虚拟对象的动作序列的方法及设备

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102179048A (zh) * 2011-02-28 2011-09-14 武汉市高德电气有限公司 基于动作分解和行为分析实现实景游戏的方法
CN103678569A (zh) * 2013-12-09 2014-03-26 北京航空航天大学 一种面向虚拟场景生成的视频图像素材库的构造方法
CN110637326A (zh) * 2017-05-24 2019-12-31 古野电气株式会社 影像生成装置
CN108665492A (zh) * 2018-03-27 2018-10-16 北京光年无限科技有限公司 一种基于虚拟人的舞蹈教学数据处理方法及系统
JP2019197368A (ja) * 2018-05-09 2019-11-14 日本放送協会 立体映像奥行き圧縮装置および立体映像奥行き圧縮プログラム
CN110807126A (zh) * 2018-08-01 2020-02-18 腾讯科技(深圳)有限公司 文章转换成视频的方法、装置、存储介质及设备
WO2020027294A1 (ja) * 2018-08-03 2020-02-06 日本電信電話株式会社 仮想世界構築システム及び方法
CN110858409A (zh) * 2018-08-24 2020-03-03 北京微播视界科技有限公司 动画生成方法和装置
CN109118562A (zh) * 2018-08-31 2019-01-01 百度在线网络技术(北京)有限公司 虚拟形象的讲解视频制作方法、装置以及终端
CN110288077A (zh) * 2018-11-14 2019-09-27 腾讯科技(深圳)有限公司 一种基于人工智能的合成说话表情的方法和相关装置
CN110047121A (zh) * 2019-03-20 2019-07-23 北京字节跳动网络技术有限公司 端到端的动画生成方法、装置及电子设备
CN110033505A (zh) * 2019-04-16 2019-07-19 西安电子科技大学 一种基于深度学习的人体动作捕捉与虚拟动画生成方法
CN110533752A (zh) * 2019-07-23 2019-12-03 深圳大学 一种人体动作编辑模型的生成方法、存储介质及电子设备
CN110833690A (zh) * 2019-10-30 2020-02-25 上海国威互娱文化科技有限公司 一种基于现场互动的虚拟同步的一体机

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021174898A1 (zh) * 2020-03-04 2021-09-10 腾讯科技(深圳)有限公司 合成虚拟对象的动作序列的方法及设备
US11978142B2 (en) 2020-03-04 2024-05-07 Tencent America LLC Method and device for synthesizing motion sequence of virtual object
TWI752629B (zh) * 2020-08-12 2022-01-11 英業達股份有限公司 訓練虛擬動物基於控制參數運動的方法
CN112446938A (zh) * 2020-11-30 2021-03-05 重庆空间视创科技有限公司 基于多模态的虚拟主播系统及方法
CN112446938B (zh) * 2020-11-30 2023-08-18 重庆空间视创科技有限公司 基于多模态的虚拟主播系统及方法
CN112735472A (zh) * 2020-12-25 2021-04-30 航天科工深圳(集团)有限公司 音视频旋律动作自生成方法及装置
CN112735472B (zh) * 2020-12-25 2024-04-09 航天科工深圳(集团)有限公司 音视频旋律动作自生成方法及装置
CN113642394A (zh) * 2021-07-07 2021-11-12 北京搜狗科技发展有限公司 一种虚拟对象的动作处理方法、装置和介质
WO2023279960A1 (zh) * 2021-07-07 2023-01-12 北京搜狗科技发展有限公司 虚拟对象的动作处理方法、装置和存储介质
CN114615513A (zh) * 2022-03-08 2022-06-10 北京字跳网络技术有限公司 视频数据生成方法、装置、电子设备及存储介质
CN114615513B (zh) * 2022-03-08 2023-10-20 北京字跳网络技术有限公司 视频数据生成方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP2023504649A (ja) 2023-02-06
WO2021174898A1 (zh) 2021-09-10
EP4016467A4 (en) 2023-02-08
US20220292752A1 (en) 2022-09-15
EP4016467A1 (en) 2022-06-22
US11978142B2 (en) 2024-05-07
CN111369687B (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN111369687B (zh) 合成虚拟对象的动作序列的方法及设备
JP7210774B2 (ja) テキストに基づくアバターの行動制御方法、デバイス及びコンピュータプログラム
Chakraborty et al. Transfer learning with fine tuning for human action recognition from still images
CA3189604C (en) Dance segment recognition method, dance segment recognition apparatus, and storage medium
CN115393692A (zh) 基于生成式预训练语言模型的联想文本到图像生成方法
CN113377971A (zh) 多媒体资源生成方法、装置、电子设备以及存储介质
US10699458B2 (en) Image editor for merging images with generative adversarial networks
CN114443899A (zh) 视频分类方法、装置、设备及介质
CN112131345B (zh) 文本质量的识别方法、装置、设备及存储介质
CN112989212A (zh) 媒体内容推荐方法、装置和设备及计算机存储介质
CN112085120A (zh) 多媒体数据的处理方法、装置、电子设备及存储介质
CN116958342A (zh) 虚拟形象的动作生成方法、动作库的构建方法及装置
Wu et al. Hierarchical memory decoder for visual narrating
CN114661951A (zh) 一种视频处理方法、装置、计算机设备以及存储介质
CN113590983A (zh) 描述文本生成方法和装置、文本处理模型的训练方法
CN113761887A (zh) 基于文本处理的匹配方法、装置、计算机设备和存储介质
Baak et al. An efficient algorithm for keyframe-based motion retrieval in the presence of temporal deformations
Mallik et al. Multimedia ontology learning for automatic annotation and video browsing
CN113408292A (zh) 语义识别方法、装置、电子设备及计算机可读存储介质
Hammad et al. Characterizing the impact of using features extracted from pre-trained models on the quality of video captioning sequence-to-sequence models
CN114904270B (zh) 虚拟内容的生成方法及装置、电子设备、存储介质
CN116561350B (zh) 一种资源生成方法及相关装置
Salway et al. Talking pictures: Indexing and representing video with collateral texts
CN112925936B (zh) 一种基于深度哈希的运动捕获数据检索方法及系统
Shubha et al. Searching a Video Database using Natural Language Queries

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40026370

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant