CN111223171A - 图像处理方法、装置、电子设备及存储介质 - Google Patents

图像处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111223171A
CN111223171A CN202010036516.7A CN202010036516A CN111223171A CN 111223171 A CN111223171 A CN 111223171A CN 202010036516 A CN202010036516 A CN 202010036516A CN 111223171 A CN111223171 A CN 111223171A
Authority
CN
China
Prior art keywords
surface model
bone
model
pose
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010036516.7A
Other languages
English (en)
Inventor
刘杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010036516.7A priority Critical patent/CN111223171A/zh
Publication of CN111223171A publication Critical patent/CN111223171A/zh
Priority to PCT/CN2020/125081 priority patent/WO2021143278A1/zh
Priority to EP20913250.5A priority patent/EP4002286A4/en
Priority to JP2022520106A priority patent/JP7299414B2/ja
Priority to KR1020227003382A priority patent/KR102698917B1/ko
Priority to US17/706,242 priority patent/US20220215583A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种图像处理方法、装置、电子设备及存储介质,所述方法包括:获取动画角色的第一骨骼姿态的基准表面模型;获取所述动画角色的第二骨骼姿态;基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型;获取所述第一骨骼姿态与所述第二骨骼姿态之间的姿态变换矩阵;基于所述姿态变换矩阵,将所述范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成。本发明实施例提高了骨骼动画对表面形变的兼容性。

Description

图像处理方法、装置、电子设备及存储介质
技术领域
本发明涉及图像处理领域,具体涉及一种图像处理方法、装置、电子设备及存储介质。
背景技术
随着信息技术的快速发展,广大观众对于动画角色的要求越来越高——要越来越逼真、要越来越生动、要越来越具有艺术表现力。对于主要依赖于视觉输出信息的动画角色来说,要满足观众的上述要求,最直接的方式便是从视觉层面提高动画角色的艺术表现力。在这一过程中,为满足特定的艺术需求,在动画角色的生成阶段,常常需要为动画角色施加各种复杂的非线性的表面形变。而现有技术中,尤其是在骨骼动画领域,动画角色生成阶段对于非线性的表面形变兼容性低,无法有效满足动画角色生成的需求。
发明内容
本发明的一个目的在于提出一种图像处理方法、装置、电子设备及存储介质,能够提高骨骼动画对表面形变的兼容性。
根据本发明实施例的一方面,公开了一种图像处理方法,包括:
获取动画角色的第一骨骼姿态的基准表面模型;
获取所述动画角色的第二骨骼姿态;
基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型;
获取所述第一骨骼姿态与所述第二骨骼姿态之间的姿态变换矩阵;
基于所述姿态变换矩阵,将所述范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成。
根据本发明实施例的一方面,公开了一种图像处理装置,包括:
第一获取模块,配置为获取动画角色的第一骨骼姿态的基准表面模型;
第二获取模块,配置为获取所述动画角色的第二骨骼姿态;
生成模块,配置为基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型;
第三获取模块,配置为获取所述第一骨骼姿态与所述第二骨骼姿态之间的姿态变换矩阵;
存储模块,配置为基于所述姿态变换矩阵,将所述范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成。
根据本发明实施例的一方面,公开了一种图像处理电子设备,包括:存储器,存储有计算机可读指令;处理器,读取存储器存储的计算机可读指令,以执行以上权利要求中的任一个所述的方法。
根据本发明实施例的一方面,公开了一种计算机可读存储介质,其上存储有计算机可读指令,当所述计算机可读指令被计算机的处理器执行时,使计算机执行以上权利要求中的任一个所述的方法。
本发明实施例中,在用以进行动画角色的生成的素材资源生产阶段,图像处理终端在根据基准表面模型生成范例表面模型后,基于第一骨骼姿态(基准表面模型的骨骼姿态)与第二骨骼姿态(范例表面模型的骨骼姿态)之间的姿态变换矩阵将范例表面模型与基准表面模型转换至同一坐标空间。使得生产的素材资源能够跳过额外表面形变的影响,从而在动画角色生成阶段能够兼容复杂的非线性的额外表面形变,提高了骨骼动画对表面形变的兼容性。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明的实践而习得。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本发明。
附图说明
通过参考附图详细描述其示例实施例,本发明的上述和其它目标、特征及优点将变得更加显而易见。
图1示出了根据本发明一个实施例的基本体系构架组成。
图2示出了根据本发明一个实施例的在游戏场景下的体系构架组成。
图3示出了根据本发明一个实施例的图像处理方法的流程图。
图4示出了根据本发明一个实施例的素材资源生产阶段的流程图。
图5示出了根据本发明一个实施例的动画角色生成阶段的流程图。
图6示出了根据本发明一个实施例的将该图像处理方法应用于Maya软件进行动画生成的终端界面图。
图7示出了根据本发明一个实施例的图像处理装置的框图。
图8示出了根据本发明一个实施例的图像处理电子设备的硬件图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些示例实施方式使得本发明的描述将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多示例实施方式中。在下面的描述中,提供许多具体细节从而给出对本发明的示例实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、步骤等。在其它情况下,不详细示出或描述公知结构、方法、实现或者操作以避免喧宾夺主而使得本发明的各方面变得模糊。
附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
首先对本发明实施例涉及到的部分概念进行简要说明。
动画角色:通过游戏引擎或者绘图软件或者其他图像处理工具,主要基于三维图像技术生成的虚拟角色。本发明实施例所提出的图像处理方法,主要针对骨骼动画中动画角色的图像处理过程。
骨骼动画:骨骼动画(Skeletal animation)是模型动画的一种。在骨骼动画中,动画角色至少包含两种数据:骨骼姿态、表面模型。其中,骨骼姿态描述了动画角色“骨骼”的朝向和位置;表面模型描述了动画角色表面上的顶点。骨骼姿态的变化能够相应带动表面模型的变化,从而可以通过驱动骨骼姿态,生成相应的动画。
蒙皮处理:通过对骨骼动画的简要说明,可以得知——骨骼姿态的变化能够相应带动表面模型的变化。为了实现这一点,就需要定义特定骨骼能够驱动表面上的哪些顶点,而定义特定骨骼能够驱动表面上的哪些顶点的过程,即为蒙皮处理。
额外表面形变:在进行动画角色的生成时,可能会需要在动画角色上添加额外表面形变,以满足特定的业务需求。例如,通过蒙皮处理以及其他的必要处理过程后,已经能够生成一体型富态的动画角色。但根据业务需求——该动画角色运动时,其腰上的赘肉能够像真实生活情况中一样进行抖动。甚至更进一步地,比真实生活情况更为夸张地进行抖动,以满足艺术需求。在这种情况下,就需要在动画角色上添加能够模拟赘肉抖动的额外表面形变。可以理解的,在实际应用中,相当一部分的额外表面形变为非线性的表面形变,甚至是难以捕捉形变规律的、复杂的非线性的表面形变。
需要说明的是,在实际进行动画角色的生成之前,会预先进行相关素材资源的生产,以根据预先生产的素材资源进行动画角色的生成。在本发明实施例中,素材资源即为基准表面模型与范例表面模型。其中,基准表面模型是预设的最基本的素材资源,通常只有一个;范例表面模型是在基准表面模型基础上进一步得到的素材资源,至少有一个,通常有两个或两个以上。
图1示出了本发明一实施例的基本体系构架组成:第一用户终端10、云端服务器20、第二用户终端20。
素材资源生产阶段:主要涉及到第一用户终端10、云端服务器20。其中,第一用户终端10主要作为前端,进行素材资源的制作;云端服务器20主要作为后端,在素材资源的制作过程中为第一用户终端10提供相应的功能支持,并将第一用户终端10制作完成的素材资源进行存储。
动画角色生成阶段:主要涉及到第二用户终端30、云端服务器20。其中,云端服务器20主要作为后端,根据存储的素材资源进行动画角色的生成,并将该动画角色的渲染数据发送给第二用户终端30,以供第二用户终端30渲染、显示出该动画角色;第二用户终端30主要作为前端,根据从云端服务器20接收到的渲染数据进行渲染、并显示出该动画角色。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
图2示出了本发明一实施例在游戏场景下的体系构架组成:模型师终端10、游戏服务器20、游戏终端30。
素材资源生产阶段:主要涉及到模型师终端10、云端服务器20。其中,模型师终端10主要作为前端,以供模型师进行游戏素材资源(例如:自然站姿的游戏角色表面模型、双臂张开姿态的游戏角色表面模型)的制作;云端服务器20主要作为后端,在游戏素材资源的制作过程中为模型师终端10提供相应的功能支持,并将模型师终端10制作完成的游戏素材资源进行存储。
其中,模型师可以于模型师终端10进行相应的美术工作(例如:通过数绘板修改游戏角色表面模型、通过鼠标指令以及键盘指令修改游戏角色表面模型),在云端服务器20的支持下,制作出相应的游戏素材资源。
动画角色生成阶段:主要涉及到游戏终端30、云端服务器20。其中,云端服务器20主要作为后端,根据存储的游戏素材资源进行游戏角色的生成,并将该游戏角色的渲染数据发送给游戏终端30,以供游戏终端30渲染、显示出该游戏角色;游戏终端30主要作为前端,根据从云端服务器20接收到的渲染数据进行渲染、并显示出该游戏角色。
其中,玩家可以于游戏终端30进行游戏操作(例如:通过鼠标控制游戏角色的移动、通过键盘控制游戏角色的技能释放、通过屏幕触摸控制游戏角色的移动与技能释放),以控制游戏终端30中的游戏角色的行动。游戏终端30响应于玩家的游戏操作,产生相应的指令,并将指令上传至云端服务器20。云端服务器20进而根据该指令,基于游戏素材资源生成游戏角色。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
本发明实施例的执行主体为图像处理终端,通过上述有关本发明实施例的体系构架的说明可知,该图像处理终端可以为多个终端的结合。例如:在素材资源生产阶段,该图像处理终端可以为第一用户终端与云端服务器的结合;在动画角色生成阶段,该图像处理终端可以为第二用户终端与云端服务器的结合。
需要说明的是,根据具体应用场景的不同,在素材资源生产阶段的图像处理终端并不一定是第一用户终端与云端服务器的结合;在动画角色生成阶段的图像处理终端并不一定是第二用户终端与云端服务器的结合。
如图3所示,一种图像处理方法,包括:
步骤410、获取动画角色的第一骨骼姿态的基准表面模型;
步骤420、获取所述动画角色的第二骨骼姿态;
步骤430、基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型;
步骤440、获取所述第一骨骼姿态与所述第二骨骼姿态之间的姿态变换矩阵;
步骤450、基于所述姿态变换矩阵,将所述范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成。
本发明实施例中,在用以进行动画角色的生成的素材资源生产阶段,图像处理终端在根据基准表面模型生成范例表面模型后,基于第一骨骼姿态(基准表面模型的骨骼姿态)与第二骨骼姿态(范例表面模型的骨骼姿态)之间的姿态变换矩阵将范例表面模型与基准表面模型转换至同一坐标空间。使得生产的素材资源能够跳过额外表面形变的影响,从而在动画角色生成阶段能够兼容复杂的非线性的额外表面形变,提高了骨骼动画对表面形变的兼容性。
下面对素材资源生产阶段的具体实施过程进行描述。
在步骤410中,获取动画角色的第一骨骼姿态的基准表面模型。
基准表面模型指的是作为素材资源生产的基准的表面模型;第一骨骼姿态指的是基准表面模型的骨骼姿态。例如:基准表面模型为在自然站姿下动画角色的表面模型,第一骨骼姿态即为动画角色在自然站姿下的骨骼姿态。
本发明实施例中,基准表面模型可以预先生成并于图像处理终端中存储起来,当进行素材资源生产时,图像处理终端即可调取出该基准表面模型;也可以由用户(例如:进行美术工作的模型师)实时于图像处理终端上制作。
在步骤420中,获取该动画角色的第二骨骼姿态。
第二骨骼姿态指的是待生成的范例表面模型的骨骼姿态;范例表面模型指的是以基准表面模型为参考生成的、非第一骨骼姿态的表面模型。例如:基准表面模型为在自然站姿下动画角色的表面模型,以动画角色在自然站姿下的表面模型为参考,生成的在双臂水平姿态下动画角色的表面模型即为一范例表面模型。相应的,动画角色在双臂水平姿态下的骨骼姿态即为第二骨骼姿态。
本发明实施例中,第二骨骼姿态可以预先生成并于图像处理终端中存储起来;也可以由用户(例如:进行美术工作的模型师)实时于图像处理终端上制作。
在步骤430中,基于该基准表面模型与该第二骨骼姿态,生成该第二骨骼姿态的范例表面模型。
在一实施例中,基于该基准表面模型与该第二骨骼姿态,生成该第二骨骼姿态的范例表面模型,包括:
基于该第二骨骼姿态对该基准表面模型进行蒙皮处理,获取该第二骨骼姿态的范例骨骼蒙皮模型;
提取该范例骨骼蒙皮模型的表面数据,根据该表面数据生成该第二骨骼姿态的范例表面模型。
骨骼蒙皮模型指的是蒙皮处理后,带有骨骼蒙皮信息的模型。骨骼蒙皮模型主要包括两部分信息:表面信息、骨骼蒙皮信息。
该实施例中,基于获取到的第二骨骼姿态,对获取到的基准表面模型进行蒙皮处理,得到带有骨骼蒙皮信息的、第二骨骼姿态的范例骨骼蒙皮模型。例如:基准表面模型为水平姿态的水平手臂模型,第二骨骼姿态为向上姿态的向上手臂的骨骼姿态。基于向上手臂的骨骼姿态对水平手臂模型进行蒙皮处理,得到带有骨骼蒙皮信息的、向上姿态的向上手臂模型。
得到第二骨骼姿态的范例骨骼蒙皮模型后,提取出其表面数据,即可根据表面数据生成第二骨骼姿态的范例表面模型。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
在一实施例中,在提取该范例骨骼蒙皮模型的表面数据之前,还包括:
获取请求方对该范例骨骼蒙皮模型的修改请求;
若对该修改请求的验证通过,则将该范例骨骼蒙皮模型的修改权限开放给该请求方,以使得该请求方对该范例骨骼蒙皮模型进行修改。
提取该范例骨骼蒙皮模型的表面数据,获取该第二骨骼姿态的范例表面模型,包括:提取修改后的该范例骨骼蒙皮模型的表面数据。
该实施例中,对基准表面模型进行蒙皮处理得到范例骨骼蒙皮模型后,提取表面数据得到范例表面模型之前,可以允许请求方(例如:位于前端的模型师终端)对该范例骨骼蒙皮模型进行修改。
具体的,蒙皮处理本身是一个线性的数学处理过程,故而经由蒙皮处理得到的范例骨骼蒙皮模型只是做出了简单的骨骼姿态改变,其表面很可能无法满足特定的美术需求。例如:基于手肘弯曲的骨骼姿态对水平手臂模型进行蒙皮处理,能够得到带有骨骼蒙皮信息的、手肘弯曲姿态的弯曲手臂模型。水平手臂模型的二肱头肌较为平坦,仅经过蒙皮处理后的得到的该弯曲手臂模型的二肱头肌几乎不会发生明显变化,仍旧较为平坦。可以理解的,手肘弯曲后,会对肌肉造成积压,相比水平手臂模型,弯曲手臂模型的二肱头肌应当明显隆起。若有特定的美术需求,还会需要弯曲手臂模型的二肱头肌的隆起程度更为明显。
因此,蒙皮处理后,图像处理终端允许请求方对范例蒙皮骨骼模型进行修改,以满足相应的美术需求。具体的,用户通过请求方请求修改范例骨骼蒙皮模型,验证通过后,将相应的修改权限开放给请求方,使得用户能够于请求方对该范例骨骼蒙皮模型进行修改(例如:模型师通过位于前端的模型师终端,根据艺术需要对经过蒙皮处理的范例骨骼蒙皮模型进行修改)。用户于请求方对范例骨骼蒙皮模型进行修改的过程中,可以修改范例骨骼蒙皮模型的表面;也可以修改范例骨骼蒙皮模型的第二骨骼姿态。
修改完毕之后,图像处理终端再提取修改后的范例骨骼蒙皮模型的表面数据,得到修改后的第二骨骼姿态的范例表面模型。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
在步骤440中,获取该第一骨骼姿态与该第二骨骼姿态之间的姿态变换矩阵。
姿态变换矩阵指的是描述了第一骨骼姿态与第二骨骼姿态之间相互变换关系的数学矩阵。通过姿态变换矩阵,可以将第一骨骼姿态变换为第二骨骼姿态,也可以将第二骨骼姿态变换为第一骨骼姿态。
本发明实施例中,第一骨骼姿态与第二骨骼姿态在图像处理终端中均是以具体数据的形式存在的。例如:图像处理终端中可以存储骨骼顶点的三维空间坐标。通过调整骨骼顶点的三维空间坐标,即可得到对应的骨骼姿态,即骨骼姿态可以以三维空间坐标数据的形式进行存储、处理。因此,可以将第一骨骼姿态表示为一数学矩阵A,将第二骨骼姿态表示为一数学矩阵B,根据A*C=B,计算得到矩阵C——姿态变换矩阵。
在步骤450中,基于该姿态变换矩阵,将该范例表面模型与该基准表面模型转换至同一坐标空间,以从该坐标空间中调用该基准表面模型与该范例表面模型进行该动画角色的生成。
本发明实施例中,在骨骼动画中,需要将生产的素材资源转换至同一坐标空间中,以便进行动画角色的生成。即,在素材资源生产阶段,需要将范例表面模型与基准表面模型转换至同一坐标空间。具体的,可以将范例表面模型存储至基准表面模型所在的基准坐标空间。
在一实施例中,基于该姿态变换矩阵,将该范例表面模型与该基准表面模型转换至同一坐标空间,包括:使用该姿态变换矩阵,对该范例表面模型进行坐标变换处理,将该范例表面模型存储至该基准表面模型所在的基准坐标空间。
该实施例中,由于姿态变换矩阵描述了第一骨骼姿态与第二骨骼姿态之间的变换关系,因此可以通过该姿态变换矩阵对范例表面模型进行坐标变换处理,将范例表面模型所处的坐标空间与基准表面模型所处的坐标空间进行转换,从而将范例表面模型存储至基准表面模型所在的坐标空间。
下面参考图4对本发明一实施例中素材资源生产阶段的流程进行说明。
如图4所示:基准表面模型M0位于基准坐标空间中,图像处理终端初始获取到的数据有——基准表面模型M0、基准表面模型M0对应的第一骨骼姿态P0、待生成的范例表面模型Mi对应的第二骨骼姿态Pi
根据第一骨骼姿态P0与第二骨骼姿态Pi,计算这二者之间的姿态变换矩阵,以通过该姿态变换矩阵在后续过程中进行坐标空间的变换。
根据第二骨骼姿态Pi对基准表面模型M0进行蒙皮计算,得到范例骨骼蒙皮模型;进而可以由模型师根据艺术需要对该范例骨骼蒙皮模型进行修改,得到满足要求的新范例骨骼蒙皮模型。应用姿态变换矩阵,把新范例骨骼蒙皮模型变换到基准坐标空间,从而得到位于基准坐标空间中的范例表面模型Mi
该实施例中,图像处理终端通过姿态变换矩阵,将基准表面模型M0与范例表面模型Mi均存储在基准坐标空间,使得后续动画角色生成过程中,对于基准表面模型M0与范例表面模型Mi进行的一系列处理均在该基准坐标空间中进行,从而跳过了表面形变的影响,使得生成的素材资源——基准表面模型M0与范例表面模型Mi能够兼容任意非线性的额外表面形变。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
下面对素材资源生产阶段后,素材资源用于动画角色生成阶段的具体实施过程进行描述。
在一实施例中,从该坐标空间中调用该基准表面模型与该范例表面模型进行该动画角色的生成,包括:
获取该动画角色的目标骨骼姿态;
基于该目标骨骼姿态对该基准表面模型进行蒙皮处理,获取该目标骨骼姿态的目标骨骼蒙皮模型;
获取该坐标空间中的该基准表面模型与该范例表面模型;
基于该基准表面模型与该范例表面模型,获取该目标骨骼姿态的修正表面模型;
基于该目标骨骼蒙皮模型与该修正表面模型,生成该动画角色。
目标骨骼姿态指的是动画角色生成后的骨骼姿态。例如:目标骨骼姿态为在双手叉腰站姿下的骨骼姿态,则生成的动画角色的骨骼姿态即为双手叉腰站姿的骨骼姿态。相应的,目标骨骼蒙皮模型指的是带有骨骼蒙皮信息的、目标骨骼姿态的动画角色模型。
修正表面模型指的是能够对目标骨骼蒙皮模型的表面作出一定程度的修正,以在一定程度上满足范例表面模型的美术需求的表面模型。修正表面模型的骨骼姿态与目标骨骼蒙皮模型的骨骼姿态基本一致,也是目标骨骼姿态。在一实施例中,使用预先生成的特定美术风格的素材资源,生成的目标骨骼姿态的该美术风格的表面模型,即为该实施例中的修正表面模型。
本发明实施例中,在动画角色生成阶段:图像处理终端获取动画角色的目标骨骼姿态;对基准表面模型进行蒙皮处理,获取目标骨骼姿态的目标骨骼蒙皮模型;基于在同一坐标空间中的基准表面模型与范例表面模型(即,预先生成的特定美术风格的素材资源),生成修正表面模型;进而基于目标骨骼蒙皮模型与修正表面模型生成动画角色。
其中,由于基准表面模型与范例表面模型位于经由姿态变换矩阵构造出的同一独立的坐标空间中,因此对基准表面模型与范例表面模型的处理均在该坐标空间内进行,不会受到表面形变的影响,从而使得在此基础上的动画角色能够兼容任意非线性的表面形变。
在一实施例中,获取该动画角色的目标骨骼姿态,包括:
获取基于输入设备输入的操控数据;
基于该操控数据,获取该动画角色的目标骨骼姿态。
该实施例中,目标骨骼姿态来源于基于输入设备输入的操控数据。具体的,来源于图像处理终端中第二用户终端的输入设备的操控数据。其中,操控数据包括:键盘数据、鼠标数据、屏幕触摸数据。
例如:玩家于手机终端(即,第二用户终端)上进行屏幕触摸操作以指示手机终端游戏中的动画角色以特定姿态作出相应的动作。屏幕触摸操作触发的屏幕触摸数据上传至云端服务器,云端服务器基于获取到的屏幕触摸数据,确定玩家所指示的特定姿态,即,动画角色的目标骨骼姿态。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
在一实施例中,获取该动画角色的目标骨骼姿态,包括:
获取基于传感器设备输入的传感器数据;
基于该传感器数据,捕捉用户动作;
基于该用户动作,获取该动画角色的目标骨骼姿态。
该实施例中,目标骨骼姿态来源于基于传感器设备输入的传感器数据。具体的,来源于图像处理终端中第二用户终端的传感器设备输入的传感器数据。其中,传感器数据可以包括:有关定位信息的定位传感器数据、有关局部肢体动作的动作传感器数据。
例如:玩家佩戴与电脑终端相通信的VR(Virtual Reality,虚拟现实)设备(例如:VR眼镜、VR手柄),通过特定动作以指示与电脑终端中运行的VR游戏系统中的相应游戏角色作出相应的动作。对应的VR传感器系统(例如:至少两个基站组成的传感器系统)可以通过监控VR设备中的传感器(例如:VR手柄中的传感器),生成相应的传感器数据。传感器数据通过电脑终端上传至云端服务器后,云端服务器即可捕捉用户动作,并将捕捉到的用户动作所对应的骨骼姿态,确定为游戏角色的目标骨骼姿态。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
在一实施例中,基于该基准表面模型与该范例表面模型,获取该目标骨骼姿态的修正表面模型,包括:
获取该基准表面模型对应的第一骨骼姿态与该范例表面模型对应的第二骨骼姿态;
确定在将该第一骨骼姿态与该第二骨骼姿态融合为该目标骨骼姿态时,分别为该第一骨骼姿态与该第二骨骼姿态分配的权重;
基于该权重,对该基准表面模型与该范例表面模型进行融合,获取该修正表面模型。
该实施例中,图像处理终端获取目标骨骼姿态P、基准表面模型M0的第一骨骼姿态P0与范例表面模型M1的第二骨骼姿态P1;确定在将第一骨骼姿态P0与第二骨骼姿态P1融合为目标骨骼姿态P时,为P0分配的权重W0,为态P1分配的权重W1;进而根据W0与W1,对M0与M1进行融合,获取到修正表面模型M。其中,根据W0与W1,对M0与M1进行融合,获取到修正表面模型M,可以采取W0*M0+W1*M1=M的方式进行。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
在一实施例中,基于该目标骨骼蒙皮模型与该修正表面模型,生成该动画角色,包括:
获取该第一骨骼姿态与该目标骨骼姿态之间的姿态变换矩阵;
基于该姿态变换矩阵,从该坐标空间中提取出该修正表面模型;
将提取出的该修正表面模型与该目标骨骼蒙皮模型进行叠加,生成该动画角色。
该实施例中,预生产的基准表面模型与范例表面模型位于同一坐标空间中,修正表面模型是通过基准表面模型与范例表面模型融合得到的,因此,修正表面模型也位于该坐标空间中。获取第一骨骼姿态与目标骨骼姿态之间的姿态变换矩阵;进而基于该姿态变换矩阵,将该修正表面模型从该坐标空间中提取出;进而将提取出的该修正表面模型与目标骨骼蒙皮模型进行叠加,生成对应的动画角色。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
在一实施例中,在将提取出的该修正表面模型与该目标骨骼蒙皮模型进行叠加,生成该动画角色之前,还包括:于该目标骨骼蒙皮模型上进行额外表面形变。
将提取出的该修正表面模型与该目标骨骼蒙皮模型进行叠加,生成该动画角色,包括:将提取出的该修正表面模型与经过额外表面形变的该目标骨骼蒙皮模型进行叠加,生成该动画角色。
该实施例中,基于目标骨骼姿态对基准表面模型进行蒙皮处理,生成目标骨骼蒙皮模型后,于该目标骨骼蒙皮模型上进行额外表面形变。其中,额外表面形变可以基于第三方系统生成。例如:生成目标骨骼蒙皮模型后,调用第三方的肌肉模拟系统,于该目标骨骼蒙皮模型上施加特定形态肌肉。
将融合得到的修正表面模型从基准表面模型所在的坐标空间中提取出后,便可以将该提取出的修正表面模型与添加了额外表面形变的目标骨骼蒙皮模型进行叠加,从而生成对应的动画角色。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
在一实施例中,获取该动画角色的第二骨骼姿态,包括:获取该动画角色的至少两个第二骨骼姿态。
基于该基准表面模型与该第二骨骼姿态,生成该第二骨骼姿态的范例表面模型,包括:基于该基准表面模型与该至少两个第二骨骼姿态,分别生成该至少两个第二骨骼姿态的范例表面模型。
获取该第一骨骼姿态与该第二骨骼姿态之间的姿态变换矩阵,包括:获取该第一骨骼姿态分别与该至少两个第二骨骼姿态之间的姿态变换矩阵。
将该范例表面模型与该基准表面模型转换至同一坐标空间,以从该坐标空间中调用该基准表面模型与该范例表面模型进行该动画角色的生成,包括:将该至少两个范例表面模型与该基准表面模型转换至同一坐标空间,以从该坐标空间中调用该基准表面模型与该至少两个范例表面模型进行该动画角色的生成。
可以理解的,在素材资源生产阶段,可以仅生成一个范例表面模型,从而能够仅根据基准表面模型与一个范例表面模型进行动画角色的生成;也可以生成至少两个范例表面模型,从而能够仅根据基准表面模型与至少两个范例表面模型进行动画角色的生成。该实施例中,在素材资源生产阶段,生成至少两个范例表面模型。具体的,在素材资源生产阶段,获取到至少两个第二骨骼姿态后,分别针对每一第二骨骼姿态——获取对应的范例表面模型;获取对应的姿态变换矩阵;根据对应的姿态变换矩阵与基准表面模型转换至同一坐标空间。
在一实施例中,从该坐标空间中调用该基准表面模型与该至少两个范例表面模型进行该动画角色的生成,包括:
获取该动画角色的目标骨骼姿态;
基于该目标骨骼姿态对该基准表面模型进行蒙皮处理,获取该目标骨骼姿态的目标骨骼蒙皮模型;
获取该坐标空间中的该基准表面模型与该至少两个范例表面模型;
基于该基准表面模型与该至少两个范例表面模型,获取该目标骨骼姿态的修正表面模型;
基于该目标骨骼蒙皮模型与该修正表面模型,生成该动画角色。
该实施例中,预先生产的素材资源中包括至少两个范例表面模型。相应的,在根据预先生产的素材资源生成修正表面模型时,图像处理终端根据至少两个范例表面模型与基准表面模型生成修正表面模型。
具体的,若在素材资源生产阶段中,以第一骨骼姿态P0的基准表面模型M0为基准,生成了一个第二骨骼姿态P1的范例表面模型M1、一个第二骨骼姿态P2的范例表面模型M2、一个第二骨骼姿态P3的范例表面模型M3。则在动画角色生成阶段,进行修正表面模型的生成时:可以确定将第一骨骼姿态P0、第二骨骼姿态P1、第二骨骼姿态P2与第二骨骼姿态P3融合为目标骨骼姿态P,为P0分配的权重W0,为P1分配的权重W1,为P2分配的权重W2,为P3分配的权重W3;进而根据W0、W1、W2与W3,对M0、M1、M2与M3进行融合,获取到修正表面模型M。其中,根据W0、W1、W2与W3,对M0、M1、M2与M3进行融合,获取到修正表面模型M,可以采取W0*M0+W1*M1+W2*M2+W3*M3=M的方式进行。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
下面参考图5对本发明一实施例中动画角色生成阶段的流程进行说明。
如图5所示:预先生产的素材资源(均存储于基准坐标空间)有——基准表面模型M0、范例表面模型M1、范例表面模型M2、范例表面模型M3、一直到范例表面模型Mi。相应的,预先能够得到的骨骼姿态有——基准表面模型M0的第一骨骼姿态P0、范例表面模型M1的第二骨骼姿态P1、范例表面模型M2的第二骨骼姿态P2、范例表面模型M3的第二骨骼姿态P3、一直到范例表面模型Mi的第二骨骼姿态Pi。
根据第一骨骼姿态P0与获取到的目标骨骼姿态P,计算这二者之间的姿态变换矩阵,以通过该姿态变换矩阵在后续过程中进行坐标空间的变换。
根据目标骨骼姿态P对基准表面模型M0进行蒙皮计算,得到目标骨骼蒙皮模型;进而可以在目标骨骼蒙皮模型的基础上,应用第三方系统施加额外表面形变(例如:应用第三方肌肉模拟系统施加特定形态肌肉)。
读取骨骼姿态——读取第一骨骼姿态P0、第二骨骼姿态P1、第二骨骼姿态P2、第二骨骼姿态P3、一直到第二骨骼姿态Pi;应用RBF(Radial Basis Function,径向基函数)算法,在读取到的骨骼姿态间进行插值,从而得到为将读取到的骨骼姿态融合为目标骨骼姿态P,需要为各读取到的骨骼姿态分配的权重;进而根据分配的权重,对各读取到的骨骼姿态所对应的表面模型相应进行融合,得到存储于基准坐标空间的修正表面模型。
应用姿态变换矩阵,对存储于基准坐标空间的修正表面模型进行坐标变换,从基准坐标空间中提取出来,进而与经过蒙皮处理的、施加了额外表面形变的目标骨骼蒙皮模型进行叠加,从而生成了对应的动画角色。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
图6示出了本发明一实施例中将该图像处理方法应用于Maya软件(一种三维建模软件)进行动画生成的终端界面图。
该实施例中,预先生产的素材资源是针对动画角色的上臂所生成的各种骨骼姿态的上臂表面模型。该实施例示出的Maya软件的终端界面图中包括四个集成了相应功能的节点:上臂姿态读取节点(uperarm_r节点)、蒙皮节点(skinCluster节点)、额外表面形变节点(deformate节点)、融合节点(posedriver节点)。其中,uperarm_r节点主要用于读取素材资源中的各种骨骼姿态的上臂表面模型;shinCluster节点主要用于进行蒙皮处理;deformate节点主要用于施加额外表面形变;posedriver节点主要用于进行表面模型的融合,生成修正表面模型。其中,posedriver节点中可以封装入姿态变换矩阵的计算与应用。
在现有技术中,由于生产出的素材资源无法支持在动画角色生成阶段兼容复杂的非线性表面形变,因此,在动画角色生成阶段用于进行蒙皮处理的skinCluster节点只能放在主要用于进行表面模型的融合的posedriver节点的后面;而且,在现有技术中,用于施加额外表面形变的deformate节点是无法直接放在skinCluster节点与posedriver节点之间的。根据本发明实施例所提供的图像处理方法,使得posedriver节点得到的修正表面模型能够兼容任意非线性表面形变,从而在应用姿态变换矩阵之后,能够直接叠加到已经过蒙皮处理、施加了额外表面形变的骨骼蒙皮模型上。
需要说明的是,该实施例只是示例性的说明,不应对本发明的功能和使用范围造成限制。
根据本发明一实施例,如图7所示,还提供了一种图像处理装置,包括:
第一获取模块510,配置为获取动画角色的第一骨骼姿态的基准表面模型;
第二获取模块520,配置为获取所述动画角色的第二骨骼姿态;
生成模块530,配置为基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型;
第三获取模块540,配置为获取所述第一骨骼姿态与所述第二骨骼姿态之间的姿态变换矩阵;
存储模块550,配置为基于所述姿态变换矩阵,将所述范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成。
在本发明的一示例性实施例中,生成模块530配置为:
基于所述第二骨骼姿态对所述基准表面模型进行蒙皮处理,获取所述第二姿态的范例骨骼蒙皮模型;
提取所述范例骨骼蒙皮模型的表面数据,根据所述表面数据生成所述第二骨骼姿态的范例表面模型。
在本发明的一示例性实施例中,所述装置配置为:
获取请求方对所述范例骨骼蒙皮模型的修改请求;
若对所述修改请求的验证通过,则将所述范例骨骼蒙皮模型的修改权限开放给所述请求方,以使得所述请求方对所述范例骨骼蒙皮模型进行修改;
提取修改后的所述范例骨骼蒙皮模型的表面数据。
在本发明的一示例性实施例中,存储模块550配置为:使用所述姿态变换矩阵,对所述范例表面模型进行坐标变换处理,将所述范例表面模型存储至所述基准表面模型所在的坐标空间。
在本发明的一示例性实施例中,所述装置配置为:
获取所述动画角色的目标骨骼姿态;
基于所述目标骨骼姿态对所述基准表面模型进行蒙皮处理,获取所述目标骨骼姿态的目标骨骼蒙皮模型;
获取所述坐标空间中的所述基准表面模型与所述范例表面模型;
基于所述基准表面模型与所述范例表面模型,获取所述目标骨骼姿态的修正表面模型;
基于所述目标骨骼蒙皮模型与所述修正表面模型,生成所述动画角色。
在本发明的一示例性实施例中,所述装置配置为:
获取所述基准表面模型对应的第一骨骼姿态与所述范例表面模型对应的第二骨骼姿态;
根据所述目标骨骼姿态,确定在将所述第一骨骼姿态与所述第二骨骼姿态融合为所述目标骨骼姿态时,分别为所述第一骨骼姿态与所述第二骨骼姿态分配的权重;
基于所述权重,对所述基准表面模型与所述范例表面模型进行融合,获取所述修正表面模型。
在本发明的一示例性实施例中,所述装置配置为:
获取所述第一骨骼姿态与所述目标骨骼姿态之间的姿态变换矩阵;
基于所述姿态变换矩阵,从所述坐标空间中提取出所述修正表面模型;
将提取出的所述修正表面模型与所述目标骨骼蒙皮模型进行叠加,生成所述动画角色。
在本发明的一示例性实施例中,所述装置配置为:
于所述目标骨骼蒙皮模型上进行额外表面形变;
将提取出的所述修正表面模型与经过额外表面形变的所述目标骨骼蒙皮模型进行叠加,生成所述动画角色。
在本发明的一示例性实施例中,所述装置配置为:
获取所述动画角色的至少两个第二骨骼姿态;
基于所述基准表面模型与所述至少两个第二骨骼姿态,分别生成所述至少两个第二骨骼姿态的范例表面模型;
获取所述第一骨骼姿态分别与所述至少两个第二骨骼姿态之间的姿态变换矩阵;
将所述至少两个范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述至少两个范例表面模型进行所述动画角色的生成。
在本发明的一示例性实施例中,所述装置配置为:
获取所述动画角色的目标骨骼姿态;
基于所述目标骨骼姿态对所述基准表面模型进行蒙皮处理,获取所述目标骨骼姿态的目标骨骼蒙皮模型;
获取所述坐标空间中的所述基准表面模型与所述至少两个范例表面模型;
基于所述基准表面模型与所述至少两个范例表面模型,获取所述目标骨骼姿态的修正表面模型;
基于所述目标骨骼蒙皮模型与所述修正表面模型,生成所述动画角色。
在本发明的一示例性实施例中,所述装置配置为:
获取基于输入设备输入的操控数据;
基于所述操控数据,获取所述动画角色的目标骨骼姿态。
在本发明的一示例性实施例中,所述装置配置为:
获取基于传感器设备输入的传感器数据;
基于所述传感器数据,捕捉用户动作;
基于所述用户动作,获取所述动画角色的目标骨骼姿态。
下面参考图8来描述根据本发明实施例的图像处理电子设备60。图8显示的图像处理电子设备60仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,图像处理电子设备60以通用计算设备的形式表现。图像处理电子设备60的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同系统组件(包括存储单元620和处理单元610)的总线630。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述示例性方法的描述部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图3中所示的各个步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
图像处理电子设备60也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该图像处理电子设备60交互的设备通信,和/或与使得该图像处理电子设备60能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。输入/输出(I/O)接口650与显示单元640相连。并且,图像处理电子设备60还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660通过总线630与图像处理电子设备60的其它模块通信。应当明白,尽管图中未示出,可以结合图像处理电子设备60使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本发明实施方式的方法。
在本发明的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有计算机可读指令,当所述计算机可读指令被计算机的处理器执行时,使计算机执行上述方法实施例部分描述的方法。
根据本发明的一个实施例,还提供了一种用于实现上述方法实施例中的方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RGM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如JAVA、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(KGN)或广域网(WGN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本发明中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本发明实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由所附的权利要求指出。

Claims (15)

1.一种图像处理方法,其特征在于,所述方法包括:
获取动画角色的第一骨骼姿态的基准表面模型;
获取所述动画角色的第二骨骼姿态;
基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型;
获取所述第一骨骼姿态与所述第二骨骼姿态之间的姿态变换矩阵;
基于所述姿态变换矩阵,将所述范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成。
2.根据权利要求1所述的方法,其特征在于,基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型,包括:
基于所述第二骨骼姿态对所述基准表面模型进行蒙皮处理,获取所述第二姿态的范例骨骼蒙皮模型;
提取所述范例骨骼蒙皮模型的表面数据,根据所述表面数据生成所述第二骨骼姿态的范例表面模型。
3.根据权利要求2所述的方法,其特征在于,在提取所述范例骨骼蒙皮模型的表面数据之前,所述方法还包括:
获取请求方对所述范例骨骼蒙皮模型的修改请求;
若对所述修改请求的验证通过,则将所述范例骨骼蒙皮模型的修改权限开放给所述请求方,以使得所述请求方对所述范例骨骼蒙皮模型进行修改;
提取所述范例骨骼蒙皮模型的表面数据,包括:提取修改后的所述范例骨骼蒙皮模型的表面数据。
4.根据权利要求1所述的方法,其特征在于,基于所述姿态变换矩阵,将所述范例表面模型与所述基准表面模型转换至同一坐标空间,包括:使用所述姿态变换矩阵,对所述范例表面模型进行坐标变换处理,将所述范例表面模型存储至所述基准表面模型所在的坐标空间。
5.根据权利要求1所述的方法,其特征在于,在所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成,包括:
获取所述动画角色的目标骨骼姿态;
基于所述目标骨骼姿态对所述基准表面模型进行蒙皮处理,获取所述目标骨骼姿态的目标骨骼蒙皮模型;
获取所述坐标空间中的所述基准表面模型与所述范例表面模型;
基于所述基准表面模型与所述范例表面模型,获取所述目标骨骼姿态的修正表面模型;
基于所述目标骨骼蒙皮模型与所述修正表面模型,生成所述动画角色。
6.根据权利要求5所述的方法,其特征在于,基于所述基准表面模型与所述范例表面模型,获取所述目标骨骼姿态的修正表面模型,包括:
获取所述基准表面模型对应的第一骨骼姿态与所述范例表面模型对应的第二骨骼姿态;
确定在将所述第一骨骼姿态与所述第二骨骼姿态融合为所述目标骨骼姿态时,分别为所述第一骨骼姿态与所述第二骨骼姿态分配的权重;
基于所述权重,对所述基准表面模型与所述范例表面模型进行融合,获取所述修正表面模型。
7.根据权利要求5所述的方法,其特征在于,基于所述目标骨骼蒙皮模型与所述修正表面模型,生成所述动画角色,包括:
获取所述第一骨骼姿态与所述目标骨骼姿态之间的姿态变换矩阵;
基于所述姿态变换矩阵,从所述坐标空间中提取出所述修正表面模型;
将提取出的所述修正表面模型与所述目标骨骼蒙皮模型进行叠加,生成所述动画角色。
8.根据权利要求7所述的方法,其特征在于,在将提取出的所述修正表面模型与所述目标骨骼蒙皮模型进行叠加,生成所述动画角色之前,所述方法还包括:于所述目标骨骼蒙皮模型上进行额外表面形变;
将提取出的所述修正表面模型与所述目标骨骼蒙皮模型进行叠加,生成所述动画角色,包括:将提取出的所述修正表面模型与经过额外表面形变的所述目标骨骼蒙皮模型进行叠加,生成所述动画角色。
9.根据权利要求5所述的方法,其特征在于,获取所述动画角色的目标骨骼姿态,包括:
获取基于输入设备输入的操控数据;
基于所述操控数据,获取所述动画角色的目标骨骼姿态。
10.根据权利要求5所述的方法,其特征在于,获取所述动画角色的目标骨骼姿态,包括:
获取基于传感器设备输入的传感器数据;
基于所述传感器数据,捕捉用户动作;
基于所述用户动作,获取所述动画角色的目标骨骼姿态。
11.根据权利要求1所述的方法,其特征在于,获取所述动画角色的第二骨骼姿态,包括:获取所述动画角色的至少两个第二骨骼姿态;
基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型,包括:基于所述基准表面模型与所述至少两个第二骨骼姿态,分别生成所述至少两个第二骨骼姿态的范例表面模型;
获取所述第一骨骼姿态与所述第二骨骼姿态之间的姿态变换矩阵,包括:获取所述第一骨骼姿态分别与所述至少两个第二骨骼姿态之间的姿态变换矩阵;
将所述范例表面模型与所述基准表面模型转换至同一坐标空间,以从所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成,包括:将所述至少两个范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述至少两个范例表面模型进行所述动画角色的生成。
12.根据权利要求11所述的方法,其特征在于,在所述坐标空间中调用所述基准表面模型与所述至少两个范例表面模型进行所述动画角色的生成,包括:
获取所述动画角色的目标骨骼姿态;
基于所述目标骨骼姿态对所述基准表面模型进行蒙皮处理,获取所述目标骨骼姿态的目标骨骼蒙皮模型;
获取所述坐标空间中的所述基准表面模型与所述至少两个范例表面模型;
基于所述基准表面模型与所述至少两个范例表面模型,获取所述目标骨骼姿态的修正表面模型;
基于所述目标骨骼蒙皮模型与所述修正表面模型,生成所述动画角色。
13.一种图像处理装置,其特征在于,所述装置包括:
第一获取模块,配置为获取动画角色的第一骨骼姿态的基准表面模型;
第二获取模块,配置为获取所述动画角色的第二骨骼姿态;
生成模块,配置为基于所述基准表面模型与所述第二骨骼姿态,生成所述第二骨骼姿态的范例表面模型;
第三获取模块,配置为获取所述第一骨骼姿态与所述第二骨骼姿态之间的姿态变换矩阵;
存储模块,配置为基于所述姿态变换矩阵,将所述范例表面模型与所述基准表面模型转换至同一坐标空间,以在所述坐标空间中调用所述基准表面模型与所述范例表面模型进行所述动画角色的生成。
14.一种图像处理电子设备,其特征在于,包括:
存储器,存储有计算机可读指令;
处理器,读取存储器存储的计算机可读指令,以执行权利要求1-12中的任一个所述的方法。
15.一种计算机可读存储介质,其特征在于,其上存储有计算机可读指令,当所述计算机可读指令被计算机的处理器执行时,使计算机执行权利要求1-12中的任一个所述的方法。
CN202010036516.7A 2020-01-14 2020-01-14 图像处理方法、装置、电子设备及存储介质 Pending CN111223171A (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN202010036516.7A CN111223171A (zh) 2020-01-14 2020-01-14 图像处理方法、装置、电子设备及存储介质
PCT/CN2020/125081 WO2021143278A1 (zh) 2020-01-14 2020-10-30 图像处理方法、装置、电子设备及存储介质
EP20913250.5A EP4002286A4 (en) 2020-01-14 2020-10-30 IMAGE PROCESSING METHOD AND DEVICE, AND ELECTRONIC DEVICE AND STORAGE MEDIA
JP2022520106A JP7299414B2 (ja) 2020-01-14 2020-10-30 画像処理方法、装置、電子機器及びコンピュータプログラム
KR1020227003382A KR102698917B1 (ko) 2020-01-14 2020-10-30 이미지 처리 방법 및 장치, 전자 장치 및 저장 매체
US17/706,242 US20220215583A1 (en) 2020-01-14 2022-03-28 Image processing method and apparatus, electronic device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010036516.7A CN111223171A (zh) 2020-01-14 2020-01-14 图像处理方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111223171A true CN111223171A (zh) 2020-06-02

Family

ID=70806354

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010036516.7A Pending CN111223171A (zh) 2020-01-14 2020-01-14 图像处理方法、装置、电子设备及存储介质

Country Status (6)

Country Link
US (1) US20220215583A1 (zh)
EP (1) EP4002286A4 (zh)
JP (1) JP7299414B2 (zh)
KR (1) KR102698917B1 (zh)
CN (1) CN111223171A (zh)
WO (1) WO2021143278A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696184A (zh) * 2020-06-10 2020-09-22 上海米哈游天命科技有限公司 骨骼蒙皮融合确定方法、装置、设备和存储介质
CN112509098A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 动画形象生成方法、装置及电子设备
CN113034691A (zh) * 2021-03-22 2021-06-25 广州虎牙科技有限公司 人体模型的骨骼绑定方法、装置及电子设备
CN113101666A (zh) * 2021-05-07 2021-07-13 网易(杭州)网络有限公司 游戏角色模型方法、装置、计算机设备及存储介质
WO2021143278A1 (zh) * 2020-01-14 2021-07-22 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
WO2024007496A1 (zh) * 2022-07-06 2024-01-11 北京字跳网络技术有限公司 图像处理方法、装置、电子设备及存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610992B (zh) * 2021-08-04 2022-05-20 北京百度网讯科技有限公司 骨骼驱动系数确定方法、装置、电子设备及可读存储介质
CN115937373B (zh) * 2022-12-23 2023-10-03 北京百度网讯科技有限公司 虚拟形象驱动方法、装置、设备以及存储介质
CN117456611B (zh) * 2023-12-22 2024-03-29 拓世科技集团有限公司 一种基于人工智能的虚拟人物训练方法及系统
CN118012272B (zh) * 2024-04-09 2024-06-07 南京维赛客网络科技有限公司 基于语境分析切换虚拟人物动作的方法、系统及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5322078B2 (ja) 2007-03-26 2013-10-23 サミー株式会社 画像生成装置および画像生成プログラム
US8400455B2 (en) * 2008-01-11 2013-03-19 Sony Corporation Method and apparatus for efficient offset curve deformation from skeletal animation
US10748325B2 (en) * 2011-11-17 2020-08-18 Adobe Inc. System and method for automatic rigging of three dimensional characters for facial animation
JP6340313B2 (ja) * 2014-12-24 2018-06-06 ソフトバンク株式会社 モデリングシステム、モデリングプログラム、及びモデリング方法
US10061871B2 (en) * 2015-07-27 2018-08-28 Technische Universiteit Delft Linear blend skinning weight optimization utilizing skeletal pose sampling
WO2018095273A1 (zh) * 2016-11-24 2018-05-31 腾讯科技(深圳)有限公司 图像合成方法、装置以及匹配实现方法、装置
CN110634177A (zh) 2018-06-21 2019-12-31 华为技术有限公司 一种物体建模运动方法、装置与设备
US10803660B2 (en) * 2018-06-29 2020-10-13 Dreamworks Animation Llc Real-time collision deformation
US11669726B2 (en) * 2018-07-02 2023-06-06 Magic Leap, Inc. Methods and systems for interpolation of disparate inputs
CN109395390B (zh) * 2018-10-26 2021-12-21 网易(杭州)网络有限公司 游戏角色脸部模型的处理方法、装置、处理器及终端
CN111223171A (zh) * 2020-01-14 2020-06-02 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021143278A1 (zh) * 2020-01-14 2021-07-22 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
CN111696184A (zh) * 2020-06-10 2020-09-22 上海米哈游天命科技有限公司 骨骼蒙皮融合确定方法、装置、设备和存储介质
CN111696184B (zh) * 2020-06-10 2023-08-29 上海米哈游天命科技有限公司 骨骼蒙皮融合确定方法、装置、设备和存储介质
CN112509098A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 动画形象生成方法、装置及电子设备
CN112509098B (zh) * 2020-11-30 2024-02-13 北京百度网讯科技有限公司 动画形象生成方法、装置及电子设备
CN113034691A (zh) * 2021-03-22 2021-06-25 广州虎牙科技有限公司 人体模型的骨骼绑定方法、装置及电子设备
CN113101666A (zh) * 2021-05-07 2021-07-13 网易(杭州)网络有限公司 游戏角色模型方法、装置、计算机设备及存储介质
CN113101666B (zh) * 2021-05-07 2024-03-08 网易(杭州)网络有限公司 游戏角色模型方法、装置、计算机设备及存储介质
WO2024007496A1 (zh) * 2022-07-06 2024-01-11 北京字跳网络技术有限公司 图像处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
KR20220028069A (ko) 2022-03-08
EP4002286A1 (en) 2022-05-25
JP7299414B2 (ja) 2023-06-27
EP4002286A4 (en) 2022-11-30
US20220215583A1 (en) 2022-07-07
WO2021143278A1 (zh) 2021-07-22
KR102698917B1 (ko) 2024-08-23
JP2022550555A (ja) 2022-12-02

Similar Documents

Publication Publication Date Title
CN111223171A (zh) 图像处理方法、装置、电子设备及存储介质
CN109377544B (zh) 一种人脸三维图像生成方法、装置和可读介质
CN111260764B (zh) 一种制作动画的方法、装置及存储介质
CN108389247A (zh) 用于生成真实的带绑定三维模型动画的装置和方法
US10565792B2 (en) Approximating mesh deformations for character rigs
US6822653B2 (en) Methods and system for general skinning via hardware accelerators
CN112634419B (zh) 一种运动重定向方法、装置、电子设备及存储介质
US9947124B2 (en) Motion control of active deformable objects
US8531464B1 (en) Simulating skin deformation relative to a muscle
CN109144252B (zh) 对象确定方法、装置、设备和存储介质
US20200098177A1 (en) System for reconstructing three-dimensional (3d) human body model using depth data from single viewpoint
CN110458924B (zh) 一种三维脸部模型建立方法、装置和电子设备
CN111080755B (zh) 一种运动解算方法、装置、存储介质及电子设备
CN106502401B (zh) 一种图像控制方法及装置
KR102026857B1 (ko) Vr기술 기반의 3d모델링 저작도구를 이용한 3d프린팅 시스템
Lin et al. PuppetTalk: Conversation between glove puppetry and internet of things
CN114332317A (zh) 动画数据处理方法、装置、程序产品、介质及电子设备
CN116805344B (zh) 一种数字人动作重定向方法及装置
US8395627B2 (en) Spline technique for 2D electronic game
US20230368451A1 (en) System and method for ai assisted character pose authoring
Hidayat BUILDING A VIRTUAL HAND FOR SIMULATION
CN117826989A (zh) 电力元宇宙的拓展现实沉浸式交互方法及装置
CN113808236A (zh) 图像处理方法、装置、电子设备和存储介质
CN115937370A (zh) 数据处理方法、存储介质、电子设备及系统
KR20240119770A (ko) 안면 인식 및 동작 인식에 기반한 가상 캐릭터 관리 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40024180

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination