CN117980863A - 用于控制可控对象的至少一个特性的方法、相关系统和相关设备 - Google Patents

用于控制可控对象的至少一个特性的方法、相关系统和相关设备 Download PDF

Info

Publication number
CN117980863A
CN117980863A CN202180102387.XA CN202180102387A CN117980863A CN 117980863 A CN117980863 A CN 117980863A CN 202180102387 A CN202180102387 A CN 202180102387A CN 117980863 A CN117980863 A CN 117980863A
Authority
CN
China
Prior art keywords
characteristic
gesture
control
controllable object
controllable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180102387.XA
Other languages
English (en)
Inventor
鲁迪·韦贝克
卡雷尔·克罗姆贝克
金·戈森斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligent Network Machine Holding Co
Original Assignee
Intelligent Network Machine Holding Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intelligent Network Machine Holding Co filed Critical Intelligent Network Machine Holding Co
Publication of CN117980863A publication Critical patent/CN117980863A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种用于控制可控对象的至少一个特性的方法、相关系统和相关设备,其中,所述方法包括以下步骤:由所述控制设备捕获用户的手势,并且基于捕获到的所述手势生成至少一条曲线,其中,所述至少一条曲线表示所述手势的至少一个参数;以及由处理装置结合所述可控对象的特定限制,基于所述至少一条曲线的所述至少一个参数来生成控制指令,以及由驱动装置基于所述控制指令来控制所述可控对象的所述至少一个特性。

Description

用于控制可控对象的至少一个特性的方法、相关系统和相关 设备
技术领域
本发明涉及一种用于控制对象的至少一个特性的方法、相关系统、相关控制设备和相关可控对象。
背景技术
当前,对对象的控制,尤其是对此类对象的特性的控制,例如可以包括对机器人设备的控制、通过把对象(诸如角色或化身)制成动画来生成动画,其中,对作为角色或化身的此类对象的特性的控制可以是对手臂的运动、腿的运动、头部的运动等的控制。替代地,对对象的控制,尤其是对此类对象的特性的控制,可以是对以下项的控制:由光源产生的光、由专用声源生成的音乐(或声音)或特定机器人设备的运动等。
传统地,当前动画的制作,即使利用当前的3D动画工具,也需要大量的时间和精力。角色动画中的各困难部分中的一个困难部分具体在于对特定移动的预期时序和强度进行“编程”。例如,角色在悲伤、放松或高兴的状态下走路会非常不同。在当前已知的动画制作的编程中,这是通过创建关键帧的过程来实现的,该过程是一种耗时的艺术和技能。动画和电影制作中的此类关键帧是定义任何流畅过渡的起点和终点的图片或照片。这些图片或照片之所以称为帧,是因为它们在时间上的位置是按照电影胶片上或数字视频编辑时间线上的帧来测量的。关键帧的序列定义了观看者将看到什么运动,而电影、视频或动画上的关键帧的位置定义了运动的时序。因为在一秒范围内只有两个或三个关键帧不会产生运动的错觉,所以剩余的帧都是“中间帧”。
此类典型的动画技术包括创建角色的姿态。然后,动画软件将计算“关键帧”之间的姿态或由用户设置的姿态,以创建流畅的动画。这需要动画制作者做大量的工作来摆出肢体、身体和对象的姿态。
用于创建当前应用的动画的替代选项可以是记录肢体或身体的精确运动,并将精确运动应用于角色。这种技术被称为“动作捕获”。缺点是该技术是给定时间段内的离散帧的记录的一对一转换。
因此,然而,用于制作动画的已知方式的缺点在于:制作此类动画非常费力,并且即使使用当前的3D动画工具,也需要大量的时间和精力。
发明内容
本发明的目标是提供一种用于控制上述已知类型的可控对象的至少一个特性的方法、系统和相关设备,但是其中,此类对象的特性是以非常容易和直观的方式来控制的。
具体地,本发明的附加目标是提供一种用于控制上述已知类型的可控对象的至少一个特性的方法和设备,但是其中,对象是诸如化身或角色的虚拟对象,使得能够通过以非常容易和直观的方式创建动画的此类方式控制此类化身的特性。
根据本发明,该目标是通过相应的权利要求1、2和权利要求6至14中所述的方法、系统、相关控制设备、远程服务器、可控对象来实现的。
实际上,首先通过捕获控制设备的用户的手势,该手势指示用户的意图;并且随后基于所述用户的所述手势生成至少一条多维曲线(诸如二维或三维曲线),其中,所述曲线表示所述用户的所述手势的至少一个参数;并且随后通过结合所述对象的特定限制,基于所述至少一条曲线的所述至少一个参数来生成控制指令;并且最后基于所生成的所述控制指令来控制所述对象的所述至少一个特性。
可以使用用于捕获用户的此类手势及此类手势的强度的捕获装置CAM(capturingmeans)(诸如触摸屏)和/或至少一个相机,来捕获用户的此类手势,其中,在触摸屏的情况下,屏幕上的触摸的压力可以是强度的测量。
替代地或附加地,在至少一个相机作为捕获装置的情况下,用户用来做出手势的用户手部或脸部与相机之间的距离可以是手势的强度的测量。
基于由捕获装置捕获到的该手势,生成至少一条多维曲线(诸如二维或三维曲线),其中,该至少一条曲线表示所述手势的至少一个参数。用户的手势例如是在预定的时间段内的移动,例如,滑动、手势或面部形态,如图4所示,在该预定的时间段内移动被记录为时间和空间上的点的集合。此类手势的移动被表征为连接这些点的曲线的起点和终点。这些点可以保存关于位置(x,y,z)、速度、方向以及强度(附加地)的信息。
针对手势的每个参数,可以将此类手势分解为不同的曲线。例如,针对每个参数x、y、z、速度、方向和/或强度)生成不同的曲线。替代地,此类手势可以被分解为至少一条曲线,其中,每条曲线包括所述手势的参数的子集。例如,针对x、y、z参数生成一条不同的曲线,并针对强度生成一条曲线。
随后,结合所述对象的可选限制,基于所述至少一条曲线的所述至少一个参数,生成控制指令,其中,可以应用此类控制动作指令,以用于控制可控对象的意指特性。
替代地或附加地,可以针对整个手势的每个后续部分捕获并处理此类手势,其中,针对手势的每个此类部分,该部分在由处理装置捕获之后立即被处理,以便确定可以针对其生成控制指令的至少一条曲线的对应部分,以便能够指示驱动装置开始例如基于部分控制指令生成部分动画。因此,最终动画包括后续部分动画的序列。有利的是,以减少的延迟生成了最终或完整的动画。
当然,对其它对象的控制也是有效的,其中,手势被类似地处理,即,部分地产生用于另外的可控设备(如机器人设备和其它可控设备)的部分控制指令。
最后,驱动装置AM(actuating means)被配置为执行控制指令,并通过基于所述控制指令调整所述可控对象的至少一个特性来执行该对应的控制动作,其中,在虚拟对象(诸如化身或角色)的情况下,该特性可以是对象或对象的一部分的位置、移动或变形。基于控制指令,驱动装置可以使对象或对象的部分如控制动作所定义的那样移动,如将虚拟对象从点A移动到点B、移动此类化身的身体部分:移动手臂、腿、头部、改变其面部表情等,以获得制成动画的虚拟对象,其中,所述制成动画的虚拟对象可以被呈现在用户计算设备的显示器处。
因此,使用用户的此类手势可以被应用于容易地控制角色的移动并以创纪录的速度快速地生成动画电影。
对象的此类限制在动画的情况下可以是遵循从手势输入推导出的曲线,该曲线可以使例如手臂在一时间帧内移动,其中,手臂的移动由手臂的物理约束和由相关联的肩部所限制。
驱动装置AM还包括动画引擎,该动画引擎被配置为执行正向运动学算法和/或逆向运动学算法,以进一步基于所提及的由处理装置PM(processing means)生成的控制指令来生成实际动画。
在面部表情的动画的情况下,使用变形目标的库,其中,还基于由处理装置PM生成的控制指令来选择此类变形目标。此类“变形目标”可以是形状的变形版本。当例如应用于人脸时,首先利用中立表情对头部进行建模,然后针对每个其它表情创建“目标变形”。当面部正在被制成动画时,动画制作者可以在基础形状与一个或多个变形目标之间平滑地变形(或“调和(blend)”)。面部动画中使用的变形目标的典型示例是微笑的嘴巴、闭合的眼睛和抬起的眉毛。
在此类对象是机器人设备(诸如类人机器人、机器人家政服务员、草坪收割设备或无人机)的情况下,驱动装置可以基于控制指令使对象或对象的一部分如由控制指令和对应的控制动作所定义的那样移动,如将对象从点A移动到点B、移动此类机器人设备的身体部分:移动任何类型的驱动器,诸如此类机器人设备的肢体(腿或手臂)或轮子,其中,根据驱动器的种类和该类型的机器人设备的自由度来确定限制。
在光源的情况下,此类限制可以是仅将光的频率限制为可见光的带宽,这意味着由光源应用的光的频率被限制为可见光的带宽的部分。
在声源或音频源的情况下,此类限制可以是仅将声音或音频的频率限制为可听声音的带宽,这意味着由声源或音频源应用的声音或音频的频率被限制为仅由人或替代地由动物可听的声音的带宽的部分。
替代地,此类驱动装置AM可以是基于控制指令的,该控制指令指示光源或声源分别改变光或声音的特性,即,改变光源的所示图像的颜色、亮度,或操纵声音或创建新的声音。
手势可以是在触摸屏上的滑动、手部姿势或者甚至是在捕获设备(诸如一相机或多个相机)前面的面部形态,其中,此类手势是具有唯一特性的二维或三维移动。用户的对应手势的这种移动可以由多个参数来表征,所述多个参数是由捕获装置(诸如触摸屏或相机)来捕获到的。如图4所示,用于表征手势的这些参数可以包括一系列的位置坐标(x,y,z)、手势的速度(v)、手势的方向(D)以及(进一步地)用户的手势的强度(I)。
可以使用用于捕获用户的此类手势及此类手势的强度的捕获装置CAM(诸如触摸屏)和/或至少一个相机,来捕获用户的此类手势,其中,在触摸屏的情况下,触摸屏幕的压力可以是强度的测量。替代地或附加地,在至少一个相机作为捕获装置的情况下,用户用来做出手势的用户手部或脸部与相机之间的距离可以是手势的强度的测量。
基于此类手势,处理装置PM生成至少一条曲线,针对捕获到的每个参数生成一条曲线。捕获到的每个参数(诸如手势位置坐标(x,y,z)、速度和/或强度)可以通过不同的曲线来进行描述。结果是,生成多条曲线,因此基于此类手势,可以生成曲线集合。
根据本发明的另一实施例,所述可控对象是呈现在控制设备(例如,用户设备)的显示器处的虚拟环境中的虚拟对象,所述方法和所述虚拟对象的特性可以是所述虚拟对象或所述虚拟对象的一部分的位置、运动和/或变形。
替代地或附加地,可以针对整个手势的每个后续部分捕获并处理此类手势,其中,针对手势的每个此类部分,该部分在由处理装置捕获之后立即被处理,以便确定可以针对其生成控制指令的至少一条曲线的对应部分,以便能够指示驱动装置开始基于部分控制指令生成部分动画。因此,最终动画包括后续部分动画的序列。有利的是,以减少的延迟生成了最终或完整的动画。
在该实施例中,驱动装置AM基于控制指令,使虚拟对象或虚拟对象的一部分进行移动,并且以如下方式生成虚拟环境中的此类虚拟对象的动画:例如,将虚拟对象从点A移动到点B和/或同时上下移动此类虚拟对象的手臂和/或改变此类虚拟对象(如从点A走到点B的化身)的面部表情。
根据本发明的另一实施例,所述对象是虚拟对象,该虚拟对象是光源,并且所述光源的特性是由所述光源发射的光的特性。在该实施例中,控制动作使作为(虚拟)光源的对象调整或操纵由该源发出的光的颜色、亮度或方向和/或焦点。
当用户在给定的时间帧内创建移动时,创建了多维曲线。通过记录该曲线的速度、方向和强度,我们可以将该曲线转换为:肢体、头部、面部、全身的移动,或者虚拟可控对象或多个角色的移动。
在本发明的替代实施例中,所述可控对象是声源,并且所述声源的特性是由所述声源产生的声音的特性。
在本发明的另一替代实施例中,所述可控对象是机器人设备,并且所述机器人设备的特性是所述机器人设备或所述机器人设备的一部分的位置和/或运动。
可控对象的进一步示例可以是热源、车辆、烟雾发生器、具有光和声音的音乐喷泉、机器人等。
附图说明
本发明将通过以下描述和附图进行进一步阐明。
图1表示根据本发明的实施例的用于控制可控对象的至少一个特性的系统,该系统包括控制设备CD(control device);
图2a表示根据本发明的实施例的用于控制可控对象的至少一个特性的系统,该系统包括具有分布式功能的控制设备CD、单独的远程服务器RS(remote server)和不同的可控对象CO(controllable object);
图2b表示根据本发明的实施例的用于控制虚拟对象的至少一个特性的系统,该系统包括具有分布式功能的控制设备CD、单独的远程服务器RS;
图3表示根据本发明的实施例的用于控制可控对象的至少一个特性的系统,该系统包括控制设备CD和不同的可控设备CO;
图4表示用户在预定时间段中的手势,其中运动正在被记录为时间和空间上的点集合;
图5表示根据第一实施例的基于捕获的用户手势生成的曲线;
图6表示根据第二实施例生成的曲线;
图7表示根据第三实施例生成的曲线;
图8表示根据第四实施例生成的曲线;以及
图9表示根据第五实施例生成的曲线。
具体实施方式
本发明将关于特定实施例并参考特定附图来进行描述,然而,本发明不限于此,而仅受权利要求的限制。所描述的附图仅是示意性的,并不是限制性的。在附图中,出于说明的目的,各元件中的一些元件的大小可能被扩大,并且未按比例进行绘制。尺寸和相对尺寸不一定对应于本发明的实践的实际缩图。
此外,在说明书和权利要求书中的术语第一、第二和第三等被用于在相似的元素之间进行区分,而不一定用于描述顺序或时间顺序。这些术语在适当的情况下是可互换的,并且本发明的实施例可以以与本文描述或示出的顺序不同的顺序来操作。
此外,说明书和权利要求书中的术语顶部、底部、上方和下方等被用于描述性目的,而不一定用于描述相对位置。如此使用的术语在适当的情况下是可互换的,并且本文描述的本发明的实施例可以在与本文描述或示出的方位不同的方位上操作。
在权利要求书中使用的术语“包括”不应被解释为限于其后列出的装置;它不排除其它元素或步骤。“包括”需要被解释为指定所涉及的所陈述的特征、整数、步骤或部件的存在,但不排除存在或添加一个或多个其它特征、整数、步骤或部件或其组合。因此,表述“包括装置A和装置B的设备”的范围不应限于仅由部件A和部件B组成的设备。这意味着关于本发明,该设备的唯一相关部件是A和B。
类似地,应当注意,也在权利要求书中使用的术语‘耦接’不应被解释为仅限于直接连接。因此,表述“耦接到设备B的设备A”的范围不应限于设备A的输出直接连接到设备B的输入的设备或系统。这意味着在A的输出与B的输入之间存在路径,该路径可以是包括其它设备或装置的路径。
通过参考结合附图的实施例的以下描述,本发明的上述和其它目的和特征将变得更加显而易见,并且本发明本身将被最好地理解。
在下面的段落中,参考图1中的附图描述了系统的实施方式。在接下来的段落中,所述元素之间的所有连接被定义。
随后,描述了如图1中呈现的所述系统的所有相关功能装置,随后描述了所有互连。在后续段落中描述了通信系统的实际执行。
用于控制虚拟对象的至少一个特性的系统的第一基本元件是控制设备CD。
根据本发明的实施例的控制设备CD可以是诸如个人计算机等用户计算设备、诸如智能电话或平板电脑等移动通信设备,或者替代地,可以是专用设备,该专用设备具有适合于捕获此类计算设备的用户的手势的触摸屏或相机。
此类用户计算设备可以是个人计算机或移动通信设备,这两者都具有互联网连接性,以用于访问虚拟对象存储库或能够检索虚拟对象并向用户呈现虚拟对象的任何其它通信设备,或者用于将媒体资产存储在形成控制设备的存储装置的部分的虚拟对象存储库中,或替代地将媒体资产存储在位于远处的远程存储库中。
控制设备包括捕获设备CAM,该捕获设备CAM被配置为捕获用户的手势。被配置为捕获用户的手势的捕获设备CAM可以是用户设备的触摸屏或者结合到或耦接到控制设备的一个或多个相机。
控制设备CD还包括处理装置PM(processing means),该处理装置PM被配置为基于捕获到的所述用户的所述手势来生成至少一条多维曲线(诸如二维或三维曲线),其中,生成的曲线表示用户的所述手势的至少一个参数。处理装置PM还被配置为结合所述对象的特定限制,基于所述至少一条曲线的所述至少一个参数来生成控制指令。处理装置PM可以是具有耦接的存储器的微处理器,该耦接的存储器用于存储指令,所述指令用于执行控制设备的功能、处理步骤和中间结果。
控制设备CD还包括存储装置SM(storage means),该存储装置SM用于存储数据(诸如程序数据),所述数据包括要由处理装置执行以用于执行处理装置的功能的指令、以及此外由捕获装置生成的数据和从由捕获装置生成的数据直接地或间接地产生的所有经处理的数据。存储装置SM还可以包括关于要控制的对象的信息。替代地,可以存在存储库REP(repository)来存储关于要控制的对象的信息,该要控制的对象诸如为虚拟对象或真实物理可控对象(如机器人设备、音频和光源或另外的可控对象)。
在本发明的另一实施例中,根据本发明的用于控制可控对象CO的至少一个特性的系统的功能被分布在远程服务器RS上,该远程服务器RS是如下服务器设备:该服务器设备被配置为执行处理装置PM的功能、控制可控对象CO和/或存储装置SM和/或存储库REP的功能,如图2a所示。
该实施例中的控制设备包括捕获装置CAM和通信装置CM(communicationsmeans),该捕获装置CAM被配置为捕获用户的手势,该通信装置CM被配置为向远程服务器RS的通信装置CM1传送捕获到的用户的手势,该通信装置CM1进而被配置为接收所述控制设备的用户的所述手势,并且所述处理装置PM首先被配置为基于捕获到的所述手势生成至少一条曲线,所述至少一条曲线表示所述手势的至少一个参数,并且该处理装置PM还被配置为结合所述对象的特定限制,基于所述至少一条曲线的所述至少一个参数,生成控制指令,其中,所述通信装置CM1还被配置为经由可控对象CO的通信装置CM2向可控设备CO的驱动装置AM传送结合所述对象的特定限制的、基于所述至少一条曲线的所述至少一个参数的所述指令。
相应的通信装置通过作为无线连接或固定连接的通信链路(诸如无线网络)被耦接,该无线网络包括蜂窝电话网络、无线局域网(wireless local area network,WLAN)、无线传感器网络、卫星通信网络、无线或固定网际协议网络或任何替代的合适的通信网络。
替代地,例如在可控对象CO是虚拟对象的情况下,基于捕获到的所述手势生成的所述至少一条曲线由结合在远程服务器RS中的驱动装置来处理,其中,驱动装置AM基于所述控制指令来控制所述可控对象CO的所述至少一个特性,并且实际上可以生成动画,其中,该远程服务器可以是已经生成了基于网络(web)的动画的网络服务器。该基于网络的动画随后经由远程服务器RS的相应的通信装置CM1和控制设备CD的通信装置CM来进行检索或推送,并且随后在控制设备CD的显示装置处进行渲染,如图2b所示。
在本发明的又一实施例中,根据本发明的用于控制可控对象CO的至少一个特性的系统的功能被分布在控制设备CD和可控对象CO上,如图3所示。
此外,用于控制可控对象CO的至少一个特性的此类系统可以包括驱动装置AM,该驱动装置AM被配置为基于定义控制动作的所述控制指令来控制所述对象的所述至少一个特性。驱动装置AM可以被结合在控制设备CD中,但可以可替代地被结合在如图2a或图3所示的单独的可控对象CO中,或者,可替代地被结合在远程服务器RS中。
驱动装置AM可以由具有耦接的存储器的类似或相同的微处理器来实现,该耦接的存储器用于存储指令,所述指令用于执行控制设备的功能、处理步骤和中间结果,或者驱动装置AM可以是用于执行驱动装置功能对应的所需功能的专用单独微处理器。
驱动装置AM还包括动画引擎,该动画引擎由所提及的具有耦接的存储器的微处理器执行或在所提及的具有耦接的存储器的微处理器的控制下执行,该动画引擎被配置为执行正向运动学算法和/或逆向运动学算法,以进一步基于所提及的由处理装置PM生成的控制指令来生成实际动画。
在驱动装置AM应用于面部表情的动画的情况下,使用变形目标(morph target)的库,其中,进一步基于由处理装置PM生成的控制指令来选择此类变形目标。此类“变形目标”可以是形状的变形版本。当例如应用于人脸时,首先利用中立表情对头部进行建模,并且然后针对每个其它表情创建“目标变形”。当面部正在被制成动画时,动画制作者随后可以在基础形状与一个或多个变形目标之间平滑地变形(或“调和”)。在面部动画中使用的变形目标的典型示例是微笑的嘴巴、闭合的眼睛和抬起的眉毛。
控制设备CD还可以包括显示装置DM(display means),该显示装置DM是用于渲染或显示虚拟对象的显示器,其中,显示装置可以是计算设备的显示器,例如,个人计算机或移动计算设备的屏幕。
捕获装置CAM利用输出端耦接到处理装置PM的输入端,该处理装置PM进而利用输出端O2耦接到驱动装置AM的输入端I2。存储装置SM利用输入端/输出端耦接到处理装置PM的输入端/输出端。替代地或附加地,捕获装置CAM还可以耦接到存储装置,该存储装置用于直接存储由捕获设备CD(图中未示出)生成的数据。
替代地,如图2a、图2b和图3所示,处理装置PM和/或驱动装置AM的功能可以以分布式方式来实现,在其中的实施例中可以在诸如远程服务器RS的中间网元中实现处理装置PM,该中间网元通过作为无线连接或固定连接的通信链路(诸如无线网络)而耦接到控制设备并耦接到可控设备,该无线网络包括蜂窝电话网络、无线局域网(WLAN)、无线传感器网络、卫星通信网络、无线或固定网际协议网络或任何替代的合适的通信网络。
如图5所示,为了解释本发明,假设用户的控制设备CD是智能电话,其中,特定对象被显示在控制设备(即,智能电话)的显示器上,在该实施例中该特定对象例如是虚拟对象(诸如人的化身或角色)。
还假设用户希望生成所提及的虚拟对象(作为所示出的化身)的动画。
在这种情况下,如图5所示,用户的意图是创建所意指的虚拟对象沿着从点A到点B的路径行走的动画。
可以在用户做出手势之前或之后设置该意图,其中,假设,根据用户选择,要控制的特性是虚拟对象在所指示的从A到B的直线路径上的运动。
可以由通过专用用户输入I3接收的专用信号来指示该意图。
在用户在图5中所示的控制设备CD的触摸屏上做出手势时,该手势首先通过触摸屏CAM而被捕获。
随后,处理装置PM基于所捕获的用户的手势生成至少一条二维(或三维)曲线,其中,当前设置中的所述曲线表示所述手势的至少一个参数,在该特定实施例中,所述至少一个参数是虚拟对象的位置(即(x,y)坐标)和推导出的虚拟对象的运动速度,该运动速度是从用户的手势推导出的。
基于这些至少一个参数(在该特定实施例中,这些至少一个参数是虚拟对象的位置(即(x,y)坐标)和推导出的虚拟对象的移动速度),处理装置PM随后生成控制指令,该控制指令包括用于将虚拟对象从点A沿着直线路径移动到点B的指令,该移动是从手势在时间帧内的速度关联出或转置出的,使得角色行走得更快、奔跑、减速并在点B处再次停止。
随后,通过驱动装置AM应用控制指令,以相应地将虚拟对象沿着直线路径从位置A移动到位置B,其中,虚拟对象的移动速度与手势的速度被相关联地控制,使得角色行走得更快、奔跑、减速并在点B处再次停止。
根据意指的指令和由驱动装置AM进行的驱动的、虚拟对象的这种移动相应地被渲染在呈现装置(即,控制设备(即,智能手机)的显示器)上。
在生成该动画时,驱动装置AM进一步基于所提及的由处理装置PM生成的控制指令,执行用于生成实际动画的正向运动学算法和/或逆向运动学算法。
在本发明的第二替代实施例中,还可以通过应用来自捕获到的用户的手势的其它参数并且随后控制该虚拟对象的替代特性,以不同的、替代的方式来应用用户的同一手势。
当用户在控制设备的触摸屏上做出手势(也在图6中示出)时,该手势首先通过触摸屏而被捕获。随后,处理装置PM基于用户的所捕获到的手势生成至少一条二维曲线,其中,目前在当前设置中的所述曲线表示所述手势的至少一个参数,所述至少一个参数在该特定实施例中是虚拟对象的位置(即(x,y)坐标)、推导出的虚拟对象的移动速度以及手势的强度,该移动速度是从用户的手势推导出的,该手势的强度在本发明的该特定实施例中是用户按压触摸屏所用的压力。
基于这些参数(在该特定实施例中,这些参数为虚拟对象的位置(即,(x,y)坐标)和虚拟对象的手势的强度),处理装置PM随后生成控制指令,该控制指令包括用于将虚拟对象在所指示的曲线路径上从点A移动到点B的指令,其中,滑动的形状(即(x,y)坐标)被用于确定虚拟对象的路径,并且捕获到的手势随时间的强度作为针对速度的指示。因此,处理装置PM基于所捕获的用户的手势的(x,y)坐标和与手势的强度相关联的手势随时间的速度来确定虚拟对象要跟随的位置和路径,使得角色的动画行走得更快、奔跑、减速并在点B处再次停止。
随后,通过驱动装置AM应用控制指令,以相应地将虚拟对象从位置A沿着曲线路径移动到位置B,其中,虚拟对象的移动速度与手势的强度被相关联地控制,使得角色的动画基于由用户在触摸屏上做出手势时执行的压力而行走得更快、奔跑、减速并在点B处再次停止。
在显示装置DM(即,控制设备(即,智能电话)的显示器上)处相应地渲染根据意指的指令和由驱动装置进行的驱动的、虚拟对象的移动。
在本发明的第三替代实施例中,还可以通过应用来自捕获到的用户的手势的其它参数并且随后控制该虚拟对象的替代特性,以进一步不同的且替代的方式来应用用户的手势。
又假设控制设备CD的用户希望生成所提及的虚拟对象(作为所示出的化身)的动画。
在这种情况下,如图7所示,用户的意图是创建意指的虚拟对象沿着从点A到点B的路径行走的动画,其中,曲线的形状可以被用于控制角色的速度,同时曲线的强度被应用于控制角色在行走时的情绪。
在面部表情的动画的情况下,驱动装置AM应用变形目标的库,其中,进一步基于由处理装置PM生成的控制指令来选择此类变形目标。此类“变形目标”可以是形状的变形版本。当例如应用于人脸时,首先利用中立表情对头部进行建模,并且然后针对每个其它表情创建“目标变形”。
当如图7所示,用户在控制设备的触摸屏上做出手势时,该手势首先通过触摸屏而被捕获。
随后,处理装置PM基于所捕获的用户的手势生成至少一条二维曲线,其中,目前在当前设置中的所述至少一条曲线表示所述手势的至少一个参数,所述至少一个参数在该特定实施例中是虚拟对象的速度,其中,该移动速度是从用户的手势在触摸屏上的(x,y)坐标以及附加地手势的强度推导出的,在本发明的该特定实施例中,该手势的强度是用户在触摸屏上按压所用的压力。
在该特定实施例中,基于这些捕获的参数(虚拟对象的速度和用户的手势的强度),处理装置PM随后生成控制指令,该控制指令是目的地为驱动装置AM的指令,该指令用于将虚拟对象在如图所示的路径上从点A移动到点B,其中,手势的形状(例如,滑动),即,从(x,y)坐标推导出的速度被用于确定虚拟对象的速度,并且捕获到的手势的强度被应用为针对角色的情绪的指示。
结果,处理装置PM在生成控制指令时,基于从捕获到的用户的手势在触摸屏上的(x,y)坐标推导出的速度来确定虚拟对象的速度,并且手势随时间的速度与角色的动画的速度相关联,使得角色行走得更快、奔跑、减速并且在点B处再次停止。
此外,处理装置PM在生成第二部分的控制指令时,基于用户的手势的强度确定虚拟对象的情绪,并且手势随时间的强度与角色的情绪相关联,使得角色的动画具有悲伤的脸、中立的脸、高兴的脸、中立的脸和再次高兴的脸。
随后,驱动装置AM应用控制指令,以相应地将虚拟对象从位置A沿着路径移动到位置B,其中,虚拟对象的移动速度与手势的速度被相关联地控制,使得角色的动画基于由用户执行的压力而行走得更快、奔跑、减速和在点B处再次停止,在触摸屏上做出手势的同时并且在角色的移动的同时,驱动装置AM相应地将虚拟对象从位置A移动到位置B,其中,角色的情绪的动画是基于用户的手势的强度的,并且手势随时间的强度与角色的情绪相关联,从而产生具有悲伤的脸、中立的脸、高兴的脸、中立的脸和再次高兴的脸的角色从点A行走到点B的动画。
在显示装置DM(即,控制设备(即,智能电话)的显示器)处相应地渲染根据意指的指令和由驱动装置进行的驱动的、虚拟对象的这种移动。
在本发明的第四替代实施例中,还可以通过应用来自捕获到的用户的手势的其它参数并且随后控制此类虚拟对象的替代特性,以又一种替代方式来应用用户的手势。
又假设用户希望生成所提及的虚拟对象(作为所示出的角色或化身)的动画。
在这种情况下,用户的意图是创建意指的虚拟对象的动画,其中,用户的手势还可以被用于控制角色的一部分,即,曲线集合可以被应用于控制角色的在一特定的预定时间帧内改变的面部表情。
在这种情况下,曲线的位置可以被用于影响面部表情。较低的位置可以意味着悲伤的情绪,而较高的位置可以意味着更高兴的情绪。
当然,曲线的任何参数都可以被用于控制表情。
替代地,还可以使用进一步的表情,或者甚至面部的部分(诸如眼睛、眉毛、下巴等)可以与曲线的形状相关联地被制成动画。
同样,在本发明的该特定实施例中,捕获设备CAM捕获用户的手势,其中,该手势在图8中被示出。曲线手势在控制设备(即,移动设备)的触摸屏上的x,y坐标被捕获。
可以在用户做出手势之前或之后设置这种意图,其中,假设要控制的特性根据用户选择可以被用于影响角色的面部表情。控制输入I3可以被应用于基于用户的手势向处理装置PM提供选择信号,该选择信号用于选择要控制的特定特性。该特定特征可以是所提及的面部表情,但是替代地,根据用户选择,面部的部分(诸如眼睛、眉毛、下巴等)可以与曲线的形状相关联地被制成动画。
随后,处理装置PM基于所捕获到的手势生成控制指令,其中,所述曲线表示x,y坐标,其中,y坐标是被用于影响面部表情的测量。较低的位置可以意味着悲伤的情绪,而较高的位置可以意味着更高兴的情绪。基于所生成的曲线,处理装置PM还生成控制指令,该控制指令是由驱动装置使用的指令,以影响面部表情。
最后,控制设备CD的驱动装置AM基于由控制设备(即,智能电话)的处理装置PM生成的所述控制指令来控制角色(即,对象)的情绪。
在显示装置DM(即,控制设备(即,智能电话)的显示器)处相应地渲染根据意指的指令和由驱动装置进行的驱动的、虚拟对象的这种移动。
在本发明的又一替代实施例中,还可以通过应用来自捕获到的用户的手势的其它参数并且随后控制此类虚拟对象的替代特性,以又一替代方式来应用用户的手势。
基于用户在触摸屏处做出的手势生成的所生成的曲线还可以被用于控制身体部分(诸如肢体、脚、手指、脚趾、骨盆和颈部等)的移动。
又假设用户希望生成所提及的虚拟对象(作为所示出的角色或化身)的动画,其中,在该特定实施例中,公开了手臂移动的示例,借此通过将如图9所示的曲线应用于手臂的关节来控制手臂的持续时间和移动。
物理位置可以被用于确定手臂的转动、以及滑动的时序、转动发生的速度。
正如我们在前面的示例中看到的,我们还可以使用不同的曲线集合来控制移动的不同部分。
总而言之,从用户的手势推导出的每个参数集合可被转换为曲线,并且各曲线中的每条曲线可以被用于改变角色的移动中的参数,无论是速度、位置(路径)或情绪,还是其它方面。
一个替代实施例是,驱动装置AM被结合在单独的专用可控对象CO中,该单独的专用可控对象CO是基于由控制设备CD生成的控制指令的,该单独的专用可控对象CO被配置为通过结合在所述可控对象CO中的驱动装置AM来执行该控制指令。
另一替代实施例是,不是虚拟对象,而是包括专用元件的真实物理可控对象(如具有用于执行特定专用任务的特定驱动器的机器人设备)以与针对虚拟对象所描述的方式类似的方式而被控制。
这种类似机器人设备的可控对象可以是能够移动、使用轮子并拥有驱动器的人形设备,以使用专用驱动器(诸如工具臂)来执行专用功能,或者替代地可以是收割设备、机器人清洁设备或飞行机器人设备(诸如无人机)。
如针对涉及虚拟对象的实施例所描述的,这些实施例同样可以被应用于物理对象,如机器人设备,该机器人设备能够通过相关联的轮子移动和/或能够通过用于执行专用任务的特定驱动器来执行特定任务。在此类实施例中,同样地,应用用户的手势的特定预定参数来控制此类机器人设备的预定功能。
在这样的可控对象(诸如机器人设备、可控光源或可控音频源)的情况下,这些设备可以被配置为接收专用控制指令,并且被配置有驱动装置AM以执行接收到的控制指令。
为了解释本发明,假设用户的控制设备CD例如是具有专用控制应用的智能电话,或者是用于控制此类机器人设备的专用控制设备。用于控制对象的至少一个特性的控制设备包括驱动装置AM,该驱动装置AM被配置为将所述控制指令转发到专用驱动设备AM2,该专用驱动设备AM2被配置为基于接收到的控制指令来控制所述对象(即,机器人设备、光源或声源)的所述至少一个特性。
可控对象CO(例如,机器人设备)包括通信装置CM和驱动装置AM,该通信装置CM被配置为接收所述控制指令,以用于基于来自控制设备CD的所述控制指令来控制所述可控对象(CO)的所述至少一个特性,并且所述驱动装置AM被配置为基于所述控制指令来控制所述可控对象CO的所述至少一个特性。
进一步假设用户希望将此类机器人设备控制为像机器人家政服务员一样,并使该机器人设备沿着基于用户的手势确定的路径而移动,并且此外,还控制此类机器人设备的驱动器以执行如从罐子打开盖子、移动对象等的功能。
在该特定实施例的情况下,用户的意图是引导机器人设备类似于如图5或图6所示的路径从点A移动到点B。
可以在用户做出手势之前或之后设置该意图,其中,假设要控制的特性根据用户选择是虚拟对象在所指示的直线路径上从A到B的运动。用户可以通过信号来指示手势的意图意味着如下指示:将如何解释手势、将如何改变可控对象的特性。
当用户在控制设备的触摸屏上做出手势时,如图5所示,该手势首先通过触摸屏而被捕获。
随后,处理装置PM基于所捕获到的用户的手势生成至少一条二维(或在飞行机器人设备的情况下,三维)曲线,其中,在当前设置中的所述曲线表示所述手势的至少一个参数,所述至少一个参数在该特定实施例中是对象的位置(即(x,y)(或在飞行设备的情况下,x,y,z)坐标)和推导出的虚拟对象的移动速度,该移动速度是从用户的手势推导出的。
在该特定实施例中,基于这些至少一个参数(可控对象CO的位置(即,(x,y)坐标)和推导出的可控对象CO的移动速度),处理装置PM随后生成控制指令,该控制指令是用于使对象移动的指令,即,用于将机器人设备在直线路径上从点A移动到点B,该移动是从手势在时间帧内的速度关联出或转置出的,使得机器人设备移动得更快、加速、减慢并在点B处再次停止。
随后,控制指令被转发到可控对象CO的通信装置CM,该可控对象CO在本实施例中是由机器人设备CO实现的,并且随后驱动装置AM2应用该控制指令,以相应地将对象从位置A沿着直线路径移动到位置B,其中,可控对象CO的移动速度与手势的速度被相关联地控制,使得角色行走得更快、奔跑、减速并在点B处再次停止。
替代地或附加地,在至少一个相机作为捕获装置的情况下,用户手部或脸部(用户用其做出手势)与相机之间的距离可以是手势的强度的测量。

Claims (14)

1.用于通过控制设备(CD)控制可控对象(CO)的至少一个特性的方法,所述控制设备(CD)(通过通信链路)耦接到所述可控设备(CO),所述方法包括以下步骤:
-由所述控制设备捕获用户的手势,其特征在于,所述方法还包括以下步骤:
-由处理装置(PM)基于捕获到的所述手势生成至少一条曲线,所述至少一条曲线表示所述手势的至少一个参数;以及
-由所述处理装置(PM)结合所述可控对象的特定限制,基于所述至少一条曲线的所述至少一个参数来生成控制指令;以及
-由驱动装置基于所述控制指令来控制所述可控对象的所述至少一个特性。
2.根据权利要求1所述的用于控制可控对象(CO)的至少一个特性的方法,其特征在于,所述可控对象(CO)是呈现在所述控制设备(CD)的显示器处的虚拟环境中的虚拟对象,所述虚拟对象的所述特性是所述虚拟对象或所述虚拟对象的一部分的位置、运动和/或变形。
3.根据权利要求1所述的用于控制可控对象的至少一个特性的方法,其特征在于,所述可控对象是光源,并且所述光源的特性是由所述光源发射的光的特性。
4.根据权利要求1所述的用于控制可控对象的至少一个特性的方法,其特征在于,所述可控对象是声源,并且所述声源的特性是由所述声源产生的声音的特性。
5.根据权利要求1所述的用于控制可控对象的至少一个特性的方法,其特征在于,所述可控对象是机器人设备,并且所述机器人设备的特性是所述机器人设备或所述机器人设备的一部分的位置和/或运动。
6.用于控制可控对象(CO)的至少一个特性的系统,所述系统包括控制设备(CD)和所述可控对象(CO),所述控制设备(CD)(通过通信链路)耦接到所述可控设备(CO),所述控制设备(CD)包括被配置为捕获用户的手势的捕获装置(CAM),其特征在于,所述系统还包括:
-处理装置(PM),所述处理装置被配置为基于捕获到的所述手势生成至少一条曲线,所述曲线表示所述手势的至少一个参数;并且其中,
-所述处理装置(PM)还被配置为结合所述可控对象的特定限制,基于所述至少一条曲线的所述至少一个参数来生成控制动作/控制指令;以及
-驱动装置(AM),所述驱动装置被配置为基于所述控制指令来控制所述可控对象(CO)的所述至少一个特性。
7.根据权利要求6所述的用于控制可控对象(CO)的至少一个特性的系统,其特征在于,所述系统还包括远程服务器(RS),所述远程服务器被耦接在所述控制设备(CD)与所述可控对象(CO)之间,所述控制设备与所述可控对象通过通信链路彼此耦接。
8.根据权利要求6或7所述的用于控制可控对象(CO)的至少一个特性的系统,其特征在于,所述可控对象(CO)是呈现在所述控制设备(CD)的显示器处的虚拟环境中的虚拟对象,所述虚拟对象的所述特性是所述虚拟对象或所述虚拟对象的一部分的位置、运动和/或变形。
9.用于根据权利要求6所述的系统的控制设备(CD),所述控制设备(CD)包括被配置为捕获所述控制设备的用户的手势的捕获装置(CAM),其特征在于,所述控制设备还包括:
-处理装置(PM),所述处理装置被配置为基于捕获到的所述手势生成至少一条曲线,所述至少一条曲线表示所述手势的至少一个参数;并且其中,
-所述处理装置(PM)还被配置为结合所述可控对象的特定限制,基于所述至少一条曲线的所述至少一个参数来生成控制指令。
10.根据权利要求9所述的控制设备(CD),其特征在于,所述控制设备(CD)还包括:
-驱动装置(AM),所述驱动装置被配置为基于所述控制指令来控制所述可控对象(CO)的所述至少一个特性。
11.根据权利要求9所述的用于控制可控对象(CO)的至少一个特性的控制设备(CD),其特征在于,所述控制设备(CD)还包括:
-通信装置(CM),所述通信装置被配置为向可控对象(CO)转发所述控制指令,所述可控对象被配置为基于所述控制指令来控制所述可控对象的所述至少一个特性。
12.用于根据权利要求6或权利要求7所述的系统的可控对象(CO),其特征在于,所述可控对象包括:
通信装置(CM),所述通信装置被配置为接收所述控制指令,以用于基于所述控制指令来控制所述可控对象(CO)的所述至少一个特性;
驱动装置(AM),所述驱动装置被配置为基于所述控制指令来控制所述可控对象(CO)的所述至少一个特性。
13.用于根据权利要求7所述的系统的远程服务器(RS),其特征在于,所述远程服务器包括:
-通信装置(CM1),所述通信装置被配置为接收所述控制设备的用户的所述手势;以及
-处理装置(PM),所述处理装置被配置为基于捕获到的所述手势生成至少一条曲线,所述至少一条曲线表示所述手势的至少一个参数;并且其中,
-所述处理装置(PM)还被配置为结合所述可控对象的特定限制,基于所述至少一条曲线的所述至少一个参数来生成控制指令。
14.根据权利要求13所述的远程服务器(RS),其特征在于,所述远程服务器(RS)还包括:
-驱动装置(AM),所述驱动装置被配置为基于所述控制指令来控制所述可控对象(CO)的所述至少一个特性。
CN202180102387.XA 2021-09-21 2021-09-21 用于控制可控对象的至少一个特性的方法、相关系统和相关设备 Pending CN117980863A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2021/075968 WO2023046263A1 (en) 2021-09-21 2021-09-21 Method for controlling at least one characteristic of a controllable object, a related system and related device

Publications (1)

Publication Number Publication Date
CN117980863A true CN117980863A (zh) 2024-05-03

Family

ID=77998976

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180102387.XA Pending CN117980863A (zh) 2021-09-21 2021-09-21 用于控制可控对象的至少一个特性的方法、相关系统和相关设备

Country Status (5)

Country Link
EP (1) EP4405781A1 (zh)
JP (1) JP2024536942A (zh)
KR (1) KR20240057416A (zh)
CN (1) CN117980863A (zh)
WO (1) WO2023046263A1 (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100822949B1 (ko) * 2006-12-07 2008-04-17 부산대학교 산학협력단 다중 키 프레임 기반의 벡터 그래픽 애니메이션 제작 방법및 제작 시스템
US10019825B2 (en) * 2013-06-05 2018-07-10 Intel Corporation Karaoke avatar animation based on facial motion data
US10768708B1 (en) * 2014-08-21 2020-09-08 Ultrahaptics IP Two Limited Systems and methods of interacting with a robotic tool using free-form gestures
EP3198560A4 (en) * 2014-09-24 2018-05-09 Intel Corporation User gesture driven avatar apparatus and method

Also Published As

Publication number Publication date
JP2024536942A (ja) 2024-10-09
WO2023046263A1 (en) 2023-03-30
EP4405781A1 (en) 2024-07-31
KR20240057416A (ko) 2024-05-02

Similar Documents

Publication Publication Date Title
US9939887B2 (en) Avatar control system
KR100715735B1 (ko) 디지털 안면 모델을 애니메이팅하기 위한 시스템 및 방법
US7433760B2 (en) Camera and animation controller, systems and methods
Chai et al. Vision-based control of 3 D facial animation
US20220005249A1 (en) Generating an Animation Rig for Use in Animating a Computer-Generated Character Based on Facial Scans of an Actor and a Muscle Model
JP2023098937A (ja) 多次元反応型映像を再生する方法及び装置
CN117980863A (zh) 用于控制可控对象的至少一个特性的方法、相关系统和相关设备
Kaspersen et al. Generative Choreographies: The Performance Dramaturgy of the Machine.
KR101780496B1 (ko) 컴퓨터그래픽 툴에 의한 캐릭터 모델링 기반 3d 디지털액터 영상 구현방법
US11341703B2 (en) Methods and systems for generating an animation control rig
CN115379195A (zh) 视频生成方法、装置、电子设备和可读存储介质
US20220076408A1 (en) Systems and Methods for Building a Muscle-to-Skin Transformation in Computer Animation
US20220076409A1 (en) Systems and Methods for Building a Skin-to-Muscle Transformation in Computer Animation
US11074738B1 (en) System for creating animations using component stress indication
US11410370B1 (en) Systems and methods for computer animation of an artificial character using facial poses from a live actor
US8896607B1 (en) Inverse kinematics for rigged deformable characters
CN111615832B (zh) 用于生成平面视频内容的合成现实重构的方法和设备
US20230154094A1 (en) Systems and Methods for Computer Animation of an Artificial Character Using Facial Poses From a Live Actor
Lupiac et al. Expanded Virtual Puppeteering
Balit et al. PEAR: Prototyping Expressive Animated Robots
Orvalho et al. Character animation: Past, present and future
Shiratori User Interfaces for Character Animation and Character Interaction
CA3192467A1 (en) Systems and methods for building a muscle-to-skin transformation in computer animation
Iqbal et al. HRI for interactive humanoid head Amir-II for visual tracking and servoing of human face
Condell et al. Human hand motion capture in image sequences for real-time animation systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication