CN103514619A - 二维角色表现三维动作的系统及方法 - Google Patents

二维角色表现三维动作的系统及方法 Download PDF

Info

Publication number
CN103514619A
CN103514619A CN201310259777.5A CN201310259777A CN103514619A CN 103514619 A CN103514619 A CN 103514619A CN 201310259777 A CN201310259777 A CN 201310259777A CN 103514619 A CN103514619 A CN 103514619A
Authority
CN
China
Prior art keywords
angle
bone
dimensional
depth
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310259777.5A
Other languages
English (en)
Inventor
卢泽人
林文智
吴名珠
谢德全
李仁志
黄胜彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Reallusion Inc
Original Assignee
Reallusion Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Reallusion Inc filed Critical Reallusion Inc
Publication of CN103514619A publication Critical patent/CN103514619A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提出一让二维角色(2D Character)能表现左右(X轴)、上下(Y轴)及前后(Z轴)的三维动作的系统及方法。本发明是分析所输入的人体三维动作数据(3D Human Motion Data),以取得三维动作数据中人体各部位的角度、坐标及深度的运动资讯,并通过图片集合(Sprite)与三维动作的配对的方式,让二维角色身体的每个部位图像皆能依照三维动作的角度资讯,切换到符合该角度的合理图片,并根据三维动作深度及角度资讯,调整二维角色各部位的图像的大小或变形,让二维角色能如同三维角色般达到具有深度资讯的正面表演、侧身表演、转身表演或背面表演等视觉表演效果。

Description

二维角色表现三维动作的系统及方法
技术领域
本发明是一种让二维角色(2D Character)能表现三维动作的系统及方法。通过分析人体三维动作数据(3D Human Motion Data),以取得三维动作数据中人体各部位的角度、坐标及深度的运动资讯,并通过图片集合(Sprite)与三维动作的配对的方式,让二维角色身体的每个部位图像皆能依照三维动作的资讯,达到具有深度资讯的视觉表演效果。
背景技术
二维动画(2D Cut-out Animation)与三维动画(3D Animation)最大的不同之处在于二维动画只有左右(X轴)及上下(Y轴)的资讯,并没有深度(Depth)即前后(Z轴)的概念。由于二维动画缺乏深度设计,因此现实状况中三维的动作并不适合直接给予二维的角色使用,否则会出现许多视觉上的错误。为了表演出二维动画物件的能套用三维的动作数据,德国学者Alexander Hornung,Ellen Dekkers,Leif Kobbelt等人在2007年曾提出「Character Animation from2D Pictures and3D Motion Data」的方法,但此方法的表演受限于二维角色的面向,只能表现出单一面向的动画,若是三维动作中包括面向的转换,例如动作由正面转向侧面或转向背面时,则此方法现将无法让二维角色做出正确的三维表演动作。
发明内容
本发明的主要目的是提出一种让二维角色(2D Character)能表现左右(X轴)、上下(Y轴)及前后(Z轴)的三维动作的系统及方法。本发明是分析所输入的人体三维动作数据(3D Human Motion Data),以取得三维动作数据中人体各部位的角度、坐标及深度的运动资讯,并通过图片集合(Sprite)与三维动作的配对的方式,让二维角色身体的每个部位图像皆能依照三维动作的角度资讯,切换到符合该角度的合理图片,并根据三维动作深度及角度资讯,调整二维角色各部位的图像的大小或变形,让二维角色能如同三维角色般达到具有深度资讯的正面表演、侧身表演、转身表演或背面表演等视觉表演效果。
为了达到上述目的,本发明提供一种让二维角色能表现三维动作的系统,该系统至少包括:
一三维动作载入单元,用以将人体三维动作数据对应至一虚拟骨架,并将所有动作数据以矩阵方式记录下来以得到一动作骨架世界矩阵;
一虚拟摄影机转换单元,该单元首先架设虚拟摄影机用以观察三维动作及其虚拟骨架以定义一个观察三维动作的观察视点,该观察视点可以是三维世界中的任何位置,该单元接着计算动作角度以推算出三维表演动作进行时人体各部位的旋转及角度资讯,可得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵,该单元接着将三维坐标转换为二维坐标及深度以取得三维动作及其虚拟体架在表演时各身体部位,即节点的坐标与深度资讯;
一二维动作转换单元,该单元首先执行Sprite Angle计算以决定一个Sprite在呈现三维动作时以哪一个角度的图来显示,得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,接着执行一二维旋转计算步骤,接着执行一二维尺度缩放与自由形变计算步骤,接着执行一深度关系转换的计算步骤;及
一显示单元用以处理及输出呈现一结果。
其中,该虚拟摄影机转换单元计算动作角度乃在于推算出三维表演动作进行时人体各部位的旋转及角度资讯,由于三维动作本身并不带有人体各个部位在运动时的旋转及角度资讯,因此通过该虚拟摄影机的观察结果,将虚拟摄影机对人体三维动作及其虚拟骨架的关系,用以看向三维世界中心点的相对方式,做为判断人体三维动作角度的基准,即得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵VirtualCamera Transformation Matrix;VCM,其公式如下:
Figure BDA00003414405600021
其中,Motion Angle以(Theta,Phi)表示,Theta为水平角度,Phi为垂直角度。
其中,该虚拟摄影机转换单元将三维坐标转换为二维坐标及深度的主要目的为取得三维动作及其虚拟体架在表演时各身体部位,即节点的坐标与深度资讯,通过该三维动作载入单元所计算产出的动作骨架世界矩阵及所产出的虚拟摄影机转换矩阵,即可求得人体各部位,即节点,Joint Point;JP的三维坐标及深度,其公式如下:
Joint Position(x,y,z)=[0,0,0]*WM*VCM
其中,该Sprite Angle的计算方式是利用由虚拟摄影机视角中观察到的亲节点到子节点的最短距离所形成的向量,即亲节点的骨向量,Sprite Angle的ID分为水平角度及垂直角度,将骨向量投射至与虚拟摄影机射线平行的两个平面,即Y-Z平面及X-Z平面,再与虚拟摄影机射线计算后即可分别得到此一骨向量的水平及垂直角度,得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,即何种角度要呈现何种指定图片,计算时以角度刻度区间做为Sprite换图依据的换图方法,将虚拟骨架对应的各个Sprite置于一个虚拟立体环状球形摄影机空间内,系统根据虚拟立体环状范围内,自动建立多台虚拟摄影机,并在Sprite对应关系表中自动找出相对应的现在表演角度的Sprite图片并显示出来,其中,角度刻度区分可自由设定,使用者可根据需求自行定义角度刻度及对角色骨架进行设定。
其中,该二维动作转换单元执行二维旋转计算步骤是计算三维动作表演时骨头的旋转并产生二维的旋转资讯,首先设定一个预定骨的轴向,将骨向量投影至虚拟摄影机的平面,再与预定骨的轴向计算角度,此角度即为该骨头的二维旋转量,若有骨向量与虚拟摄影机平行的状况发生,亦即落入上/下区间时,则计算骨头的X轴投影至X-Y平面与X轴的向量夹角即为该骨头的旋转量,若为末端的骨头,则使用长轴,即Y轴的角度差投影至X-Y平面,计算旋转量,并要加上亲节点的旋转量,即可得到正确的末端骨头的旋转量。
其中,该二维动作转换单元执行二维尺度缩放与自由形变计算步骤是以平面投影方式观察三维动作表演时的骨头长度,当骨头进行有深度变化的位移,对二维平面投影来说则犹如对骨头的尺度进行缩放一样,即是根据三维动作表演时,自动将二维图片进行尺度放大及缩小的计算,产生符合视觉的深度感觉,并通过自由形变的计算与运用,让套用三维动作数据后的二维影像在表演时能更生动且具有动画表演的夸张特性,二维尺度计算中2D Scale表示为(Sx,Sy),分别为宽与高的Scale值,其中Sy可表现3D运动后骨头长度变化,Sx则可表现出深度的透视效果,Sx的计算乃是运用JointPosition的深度值计算(z),以世界中心点为基准,越近越大,反之越小,计算时可加上Projection Strength的加乘,可独立调整透视效果的强度算公式,其公式如下:
Sx=1+JPz*Projection Strength
Sy的计算乃是利用Bone Vector Project to X-Y Plane及Virtual Bone长度的比例计算,公式如下所示:
Sy=(Length of Bone Vector Project to X-Y Plane)/(Virtual Bone Length
若是图片为末端的骨头或上/下的角度,则图片维持宽高等比的缩放Sy=Sx,以避免变形,形变计算是利用自由形变的概念,用以达到骨头透视及骨头厚度模拟的效果,骨头透视效果计算是于动作表演中依序处理角色各部位影像的形变,使得到具有视觉透视效果的形变,SRx计算公式如下所示:
SRx=0.5*Sx_child/Sx_parent
于骨头厚度模拟计算时,真实的3D Bone因为有厚度,因此在前后转动时会因其厚度产生外形上的改变2D Motion系统中可运用调整FFD Control Point来达成因厚度产生的变形FFD若切分为3x3Control Points,则可计算SRy套用至中心的2x2ControlPoint,模拟因厚度产生的形变,SRy的计算公式如下:SRy=(Deform Strength)*(1-SRx)
其中,该二维动作转换单元执行深度关系转换的计算步骤,该步骤目的是为了让二维动画表演时,身体各部位的节点及骨头都有正确的深度关系,即二维平面观察中各部位皆有正确的前后遮蔽关系,该步骤利用虚拟摄影机视角中,虚拟摄影机的位置与各关节的位置,对身体位部位关节点进行两两深度计算,并得到代表深度关系的向量,利用点矩阵向量乘积计算,两两比较节点顺序。
其中,该显示单元处理及输出呈现结果的方法是一动画渲染的步骤,三维动画通常以物件或点所在的深度决定绘制物件的先后顺序,即运用Z-Sort或Z-Buffer技术绘制,二维动画由于没有深度概念,通常以层级的数值来决定物件之间的前后关系,二维动画中角色物件的前后关系正确与否通常发生于关节接合处,但指定层级并不能处理所有的动画表演情况,为使二维的环境中渲染出因深度而产生遮蔽的效果,有兼具物件间层级的合理性,本步骤以深度列表方式在动画的每一个影格中排列出各骨头之间的前后关系,并使用相关连层级以指定物件之间相对的前后关系,最后使用层级遮罩建立一个遮罩用以遮蔽Relative Layer指定的运作范围,即可得到合理的动画结果。
为了达到上述目的,本发明提供一种让二维角色能表现三维动作的方法,该方法至少包括以下的步骤:
(a)、将人体三维动作数据对应至一虚拟骨架,并将所有动作数据以矩阵方式记录下来以得到一动作骨架世界矩阵;
(b)、首先架设虚拟摄影机用以观察三维动作及其虚拟骨架以定义一个观察三维动作的观察视点,该观察视点可以是三维世界中的任何位置,接着计算动作角度以推算出三维表演动作进行时人体各部位的旋转及角度资讯,可得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵,接着将三维坐标转换为二维坐标及深度以取得三维动作及其虚拟体架在表演时各身体部位,即节点的坐标与深度资讯;
(c)、首先执行Sprite Angle计算以决定一个Sprite在呈现三维动作时以哪一个角度的图来显示,得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,接着执行一二维旋转计算步骤,接着执行一二维尺度缩放与自由形变计算步骤,接着执行一深度关系转换的计算步骤;及
(d)、输出及显示一结果。
其中,该计算动作角度的步骤乃在于推算出三维表演动作进行时人体各部位的旋转及角度资讯,由于三维动作本身并不带有人体各个部位在运动时的旋转及角度资讯,因此通过该虚拟摄影机的观察结果,将虚拟摄影机对人体三维动作及其虚拟骨架的关系,用以看向三维世界中心点的相对方式,做为判断人体三维动作角度的基准,即得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵Virtual CameraTransformation Matrix;VCM,其公式如下:
其中,Motion Angle以(Theta,Phi)表示,Theta为水平角度,Phi为垂直角度。
其中,将三维坐标转换为二维坐标及深度的主要目的为取得三维动作及其虚拟体架在表演时各身体部位,即节点的坐标与深度资讯,通过该三维动作载入单元所计算产出的动作骨架世界矩阵及所产出的虚拟摄影机转换矩阵,即可求得人体各部位,即节点,Joint Point;JP的三维坐标及深度,其公式如下:
Joint Position(x,y,z)=[0,0,0]*WM*VCM
其中,该Sprite Angle的计算方式是利用由虚拟摄影机视角中观察到的亲节点到子节点的最短距离所形成的向量,即亲节点的骨向量,Sprite Angle的ID分为水平角度及垂直角度,将骨向量投射至与虚拟摄影机射线平行的两个平面,即Y-Z平面及X-Z平面,再与虚拟摄影机射线计算后即可分别得到此一骨向量的水平及垂直角度,得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,即何种角度要呈现何种指定图片,计算时以角度刻度区间做为Sprite换图依据的换图方法,将虚拟骨架对应的各个Sprite置于一个虚拟立体环状球形摄影机空间内,系统根据虚拟立体环状范围内,自动建立多台虚拟摄影机,并在Sprite对应关系表中自动找出相对应的现在表演角度的Sprite图片并显示出来,其中,角度刻度区分可自由设定,使用者可根据需求自行定义角度刻度及对角色骨架进行设定。
其中,该执行二维旋转计算步骤是计算三维动作表演时骨头的旋转并产生二维的旋转资讯,首先设定一个预定骨的轴向,将骨向量投影至虚拟摄影机的平面,再与预定骨的轴向计算角度,此角度即为该骨头的二维旋转量,若有骨向量与虚拟摄影机平行的状况发生,亦即落入Top/Bottom区间时,则计算骨头的X轴投影至X-Y平面与X轴的向量夹角即为该骨头的旋转量,若为末端的骨头,则使用长轴,即Y轴的角度差投影至X-Y平面,计算旋转量,并要加上亲节点的旋转量,即可得到正确的末端骨头的旋转量。
其中,该执行二维尺度缩放与自由形变计算步骤是以平面投影方式观察三维动作表演时的骨头长度,当骨头进行有深度变化的位移,对二维平面投影来说则犹如对骨头的尺度进行缩放一样,即是根据三维动作表演时,自动将二维图片进行尺度放大及缩小的计算,产生符合视觉的深度感觉,并通过自由形变的计算与运用,让套用三维动作数据后的二维影像在表演时能更生动且具有动画表演的夸张特性,二维尺度计算中2D Scale表示为(Sx,Sy),分别为宽与高的Scale值,其中Sy可表现3D运动后骨头长度变化,Sx则可表现出深度的透视效果,Sx的计算乃是运用Joint Position的深度值计算(z),以世界中心点为基准,越近越大,反之越小,计算时可加上ProjectionStrength的加乘,可独立调整透视效果的强度算公式,其公式如下:
Sx=1+JPz*Projection Strength
Sy的计算乃是利用Bone Vector Project to X-Y Plane及Virtual Bone长度的比例计算,公式如下所示:
Sy=(Length of Bone Vector Project to X-Y Plane)/(Virtual Bone Length
若是图片为末端的骨头或上/下的角度,则图片维持宽高等比的缩放(Sy=Sx),以避免变形,形变计算是利用自由形变的概念,用以达到骨头透视及骨头厚度模拟的效果,骨头透视效果计算是于动作表演中依序处理角色各部位影像的形变,使得到具有视觉透视效果的形变,SRx计算公式如下所示:
SRx=0.5*Sx_child/Sx_parent
于骨头厚度模拟计算时,真实的3D Bone因为有厚度,因此在前后转动时会因其厚度产生外形上的改变2D Motion系统中可运用调整FFD Control Point来达成因厚度产生的变形FFD若切分为3x3Control Points,则可计算SRy套用至中心的2x2ControlPoint,模拟因厚度产生的形变,SRy的计算公式如下:SRy=(Deform Strength)*(1-SRx)
其中,该执行深度关系转换的计算步骤,该步骤目的是为了让二维动画表演时,身体各部位的节点及骨头都有正确的深度关系,即二维平面观察中各部位皆有正确的前后遮蔽关系,该步骤利用虚拟摄影机视角中,虚拟摄影机的位置与各关节的位置,对身体位部位关节点进行两两深度计算,并得到代表深度关系的向量,利用点矩阵向量乘积计算,两两比较节点顺序。
其中,该输出及显示结果的方法是一动画渲染的步骤,三维动画通常以物件或点所在的深度决定绘制物件的先后顺序,即运用Z-Sort或Z-Buffer技术绘制,二维动画由于没有深度概念,通常以层级的数值来决定物件之间的前后关系,二维动画中角色物件的前后关系正确与否通常发生于关节接合处,但指定层级并不能处理所有的动画表演情况,为使二维的环境中渲染出因深度而产生遮蔽的效果,有兼具物件间层级的合理性,本步骤以深度列表方式在动画的每一个影格中排列出各骨头之间的前后关系,并使用相关连层级以指定物件之间相对的前后关系,最后使用层级遮罩建立一个遮罩用以遮蔽相关连层级指定的运作范围,即可得到合理的动画结果。
附图说明
图1是本发明的一实施例的系统架构示意图
图2是本发明的一实施例以8个具代表性的水平虚拟摄影机为范例的示意图。
图3是本发明的一实施例的由8号摄影机(315°)为视点的观察范例的示意图。
图4是本发明的一实施例的三维运动角度计算与摄影机关系的示意图。
图5是本发明的一实施例以左手拳头不同角度图片组合为范例而成的Sprite的示意图。
图6是本发明的一实施例中Sprite Angle计算的示意图。
图7是本发明的一实施例中对左下臂以每45度做为角度划分,建立26个Sprite为例的示意图。
图8是本发明的一实施例中角度刻度及Sprite图片对应关系表的示意图。
图9是本发明的一实施例中以90度为刻度为区分的Sprite图组对应的范例的示意图。
图10是本发明的一实施例中弹性的角度刻度与Sprite组合范例的示意图。
图11是本发明的一实施例中二维旋转计算示意图。
图12是本发明的一实施例中二维骨头透视计算示意图。
图13是本发明的一实施例中二维骨头厚度模拟计算示意图。
图14是本发明的一实施例中深度资讯的应用的示意图。
图15是本发明的一实施例中脊椎节点(身体)在手节点(手臂)的前示意图。
图16是本发明的一实施例中手节点(手臂)在脊椎节点(身体)的前示意图。
图17是本发明的一实施例中物件的层级指派对二维动画正确性的示意图。
图18是本发明的一实施例中二维动画混合层级与深度关系的渲染示意图。
图19是本发明的一实施例中二维角色表演三维正面走路动作的示意图。
图20是本发明的一实施例中二维角色表演三维侧身走路动作的示意图。
图21是本发明的一实施例中二维角色表演三维转身动作的示意图。
附图标记说明:01--三维动作载入单元;02--虚拟摄影机转换单元;03--二维动作转换单元;04--显示单元;011、021、022、023--流程步骤;031、032、033、034--流程步骤;121--左上臂;122--左下臂;201--虚拟摄影机视点;71--虚拟骨架的左下臂;121--左上臂;122--左下臂。
具体实施方式
为进一步对本发明有更清楚的说明,乃通过以下图式、原理及步骤详细说明实施方法,冀能对贵审查委员的审查工作有所助益。
图1是依据本发明的二维角色表现三维动作的系统的一实施例的系统架构图,该系统包括一三维动作载入单元01、一虚拟摄影机转换单元02、一二维动作转换单元03及一显示单元04,兹说明如下。
三维动作载入单元01是将人体三维动作数据对应至虚拟骨架(图1中的步骤011)。由于人体三维动作数据具有阶层结构性,因此可通过现有的Hierarchical animation运算方式,可将人体三维动作数据套用在虚拟的骨架上,将所有动作数据以矩阵方式记录下来后,即可得到动作骨架世界矩阵(Motion Bone World Matrix;WM)。
虚拟摄影机转换单元02首先架设虚拟摄影机用以观察三维动作及其虚拟骨架(图1中的步骤021)。完整的三维动作资讯应包括坐标(左右、上下、前后)及旋转角度。为计算及得到三维动作数据的二维相对资讯,以架设虚拟摄影机(Virtual Camera)的概念,定义一个观察三维动作的视点(View Point),观察视点可以是三维世界(3D World)中的任何位置,如图2中摄影机可以摆放在具水平代表性的8个位置等,用以观察并得到人体三维动作数据中,人体各部位的X,Y坐标及Z深度。在实作上我们只需要设定一个摄影机即可。如图3即为以315°(图二中的Cam8)为虚拟摄影机视点201观察三维动作及虚拟骨架的范例。
虚拟摄影机转换单元02接着计算动作角度(图1中的步骤022)。该步骤的目的乃在于推算出三维表演动作进行时人体各部位的旋转及角度资讯,由于三维动作本身并不带有人体各个部位在运动时的旋转及角度资讯,因此通过步骤022在三维世界(3DWorld)中虚拟摄影机的观察结果,我们将虚拟摄影机对人体三维动作及其虚拟骨架的关系,用以看向三维世界中心点(Look at World Center)的相对方式,做为判断人体三维动作角度的基准(如图四所示),即可得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵(Virtual Camera Transformation Matrix;VCM),即公式1所示(以DirectX右手坐标为例的角度计算方式)。Motion Angle以(Theta,Phi)表示,在三维动作转换过程用于定义虚拟摄影机位置,其中Theta为水平角度,Phi为垂直角度。公式1表示如下:
Figure BDA00003414405600091
虚拟摄影机转换单元02接着将三维坐标转换为二维坐标及深度(图1中的步骤023)。该步骤的主要目的为取得三维动作及其虚拟体架在表演时各身体部位(节点)的坐标与深度资讯。通过三维动作载入单元01所计算产出的动作骨架世界矩阵(MotionBone World Matrix;WM)及步骤022所产出的虚拟摄影机转换矩阵(Virtual CameraTransformation Matrix;VCM),即可求得人体各部位(节点,Joint Point;JP)的三维坐标及深度,如以下公式2所示。
Joint Position(x,y,z)=[0,0,0]*WM*VCM
二维动作转换单元03首先执行步骤031(见图1)。图一步骤031为一Sprite Angle计算步骤。Sprite一词为电脑图学专业用语,指被组合放置在同一组的图片集合,但每次只会有一张图片被做为使用。在本系统中Sprite指的是某一组相同人体部位的图片集合,如图5即为以左手拳头为例的不同角度图片组合而成的Sprite。通过SpriteAngle的计算可用来决定一个Sprite在呈现三维动作时可以哪一个角度的图来显示。
Sprite Angle的计算即为根据图1的步骤022所计算得到的节点角度资讯进一步计算后,进行Sprite图片组中相对应角度图片的换置。Sprite Angle计算方式是利用由虚拟摄影机视角中观察到的亲节点(Parent Joint)到子节点(Chile Joint)的最短距离所形成的向量(Vector),即亲节点的骨向量(Bone Vector)。Sprite Angle的ID分为水平角度及垂直角度。将Bone Vector投射至与虚拟摄影机射线(Virtual Camera Ray)平行的两个平面(即Y-Z平面及X-Z平面),再与虚拟摄影机射线计算后即可分别得到此一BoneVector的水平及垂直角度,如图6为以左下臂Sprite Angle计算角度示意图。
得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,即何种角度要呈现何种指定图片。理论上如果以要真实且完美的呈现三维动作角度为目标,每个Sprite会有接近无限多种可能的角度图片须要被准备好,但这样的方式并不切实际。因此我们提出以角度刻度区间做为Sprite换图依据的换图方法,将虚拟骨架对应的各个Sprite置于一个虚拟立体环状球形摄影机空间内,如图7(A)所示,即为将虚拟骨架的左下臂071置于以刻度45度为例的刻度区间内,系统会根据每45度在虚拟立体环状范围内,自动建立26台虚拟摄影机,如图7(B)中每一个黑色圆点或图7(C)中每一个平面。
若以45度刻度的立体环状球形摄影机为例,即表示此一个左下臂Sprite图组会有26张图以每45度为间隔的图片,如图8所示。其中标示Must的部分乃是系统计算时最起码需要的6张图。当左下臂动作表演到某个角度时,系统就会在左下臂Sprite对应关系表中自动找出相对应的现在表演角度的Sprite图片并显示出来。
角度刻度区分可自由设定,如图9为左下臂以刻度90度为区分的Sprite图组,若为90度则需要准备6张图组做为对应角度时切换用。其中标示Must的部分乃是系统计算时最起码需要的6张图组。
使用者可根据需求自行定义角度刻度及对角色骨架进行设定。如图10中,全身骨架及左手是以45度水平视角+上下视角,分别共10个图片组成Sprite。而头部则是以45度立体环形共26个图片组成Sprite。
二维动作转换单元03接着执行步骤032(见图1)。图1步骤032为一二维旋转计算步骤。通过图1的步骤022及步骤023的计算结果,二维动作转换单元03的步骤032计算三维动作表演时骨头(Bone)的旋转并产生二维的旋转资讯。首先设定一个预定骨(Default Bone)的轴向,例如以Y轴为Bone的轴向,将Bone Vector投影至虚拟摄影机(Virtual Camera)的平面,再与Default Bone的轴向计算角度,此角度即为该Bone的二维旋转量(2D Rotation),如图10所示。
若有Bone Vector与Virtual Camera平行的状况发生,亦即落入Top/Bottom区间时,则计算Bone的X轴投影至X-Y平面与X轴的向量夹角即为该Bone的旋转量。若是末端的Bone例如Hand/Foot/Head,则使用长轴(Y轴)的角度差投影至X-Y平面,计算旋转量,并要加上亲节点(Parent)的旋转量,即可得到正确的末端Bone的旋转量。
二维动作转换单元03接着执行步骤033(见图1)。该步骤033是一二维尺度缩放与自由形变计算步骤。该步骤033是以平面投影方式观察三维动作表演时的骨头长度,当骨头进行有深度变化的位移如:前或后的位置改变,对二维平面投影来说则犹如对骨头的尺度进行缩放一样。本步骤即是根据三维动作表演时,自动将二维图片进行尺度放大及缩小的计算(2D Scale Calculation),产生符合视觉的深度感觉。此外通过自由形变(Free Form Deformation)的计算与运用,让套用三维动作数据后的二维影像在表演时能更生动且具有动画表演的夸张特性。
二维尺度计算是通过图1的步骤022及步骤023的计算结果,2D Scale表示为(Sx,Sy),分别为宽与高的Scale值,其中Sy可表现3D运动后骨头(Bone)长度变化,Sx则可表现出深度的透视效果。Sx的计算乃是运用Joint Position的深度值计算(z),以世界中心点(World Center)为基准,越近越大,反之越小。计算时可加上Projection Strength的加乘,可独立调整透视效果的强度算公式,如以下公式3所示:Sx=1+JPz*Projection Strength
Sy的计算乃是利用Bone Vector Project to X-Y Plane及Virtual Bone长度的比例计算公式如以下公式(4)所示:
Sy=(Length of Bone Vector Project to X-Y Plane)/(Virtual Bone Length
若是图片为末端的骨头(如:手掌、脚掌)或上/下(Top/Bottom)的角度,则图片维持宽高等比的缩放(Sy=Sx),以避免变形。此外由于Sx与Sy是分开独立计算,因此本系统具有非等比尺度缩放(Non-uniform Scale)特性的系统。
形变计算是利用自由形变(Free Form Deformation)的概念,用以达到骨头透视及骨头厚度模拟的效果。
骨头透视效果计算是于动作表演中依序处理角色各部位影像的形变,使得到具有视觉透视效果的形变。以图12左下臂(Left Lower Arm)向前伸展为例,图12(a)为左上臂121及左下臂122未动时。当左下臂往前伸展时,在二维平面上观察时,骨头长度会变短,因此系统会自动对左下臂二维尺度缩放(2D scale)计算,得到如图12(b)的效果,但由于左上臂(Left Arm)的深度透视Sx与左下臂(Left Lower Arm)的深度透视Sx不同,因此出现左上臂与左下臂的影像在外观上无法完全接合的状况。在左上臂套用FFD之后,并将上部的控制点(Control Point)设定为(-0.5,-0.5)~(0.5,-0.5),左上臂FFD的下部Control Point设定为(-SRx,0.5)~(SRx,0.5),SRx计算如以公式(5)所示:
SRx=0.5*Sx_child/Sx_parent
处理完毕后即得图12(c)的结果,即合理的视觉透视效果。
于骨头厚度模拟计算时,真实的3D Bone因为有厚度,因此在前后转动时会因其厚度产生外形上的改变2D Motion系统中可运用调整FFD Control Point来达成因厚度产生的变形FFD若切分为3x3Control Points,则可计算SRy套用至中心的2x2ControlPoint,模拟因厚度产生的形变
SRy=(Deform Strength)*(1-SRx),建议Deform Strength为0.1~0.5之间,如图13所示。
步骤034是深度关系转换的计算。本步骤目的是为了让二维动画表演时,身体各部位的节点及骨头都有正确的深度关系,即二维平面观察中各部位皆有正确的前后遮蔽关系。二维动画表演时若未能即时根据各关节点及骨头的深度关系来安排它们的先后顺序,则可能会导致错误的表演呈现。假设有一个双臂张开动作表演一开始双手的深度在身体的前,如图14(a)所示,若接下来正确的表演是双臂将向后交叉,而在缺乏身体跟双臂深度关系改变的机制情况下,会发生双臂出现在身体前的错误,如图14(b)所示。
本发明利用虚拟摄影机视角(Virtual Camera View)中,虚拟摄影机的位置与各关节(Joint)的位置,对身体位部位关节点进行两两深度计算,并得到代表深度关系的向量(Vector),如图15中的V1a,V1b,V2a及V2b。其中V1a表示由虚拟摄影机看向比较基准点关节:脊椎节点的方向性,V1b为脊椎节点与同为身体骨头的肩节点的方向性。而V2a表示比较基准点关节:脊椎节点到比较对象:手掌节点的方向性,V2b为手掌节点与同为手臂骨头的肩节点的方向性。深度关系计算如以下的公式(6)表示,利用点矩阵向量乘积(Dot Matrix)计算,两两比较节点顺序。
D=(V1a x V1b)·(V2a x V2b),其中x为Cross
若方向性(D)大于0(即深度向量关系V1与V2皆为顺时针方向),则表示身体(V1)在手臂(V2)的前,如图15所示。若D小于0(即深度向量关系V2为逆时针方向),则表示手臂(V2)在身体(V1)的前,如图16所示。若D等于0,则将由节点(Joint)的高度位置决定前后关系,较高者在前。
通过此方式利行深度的计算,即能在动作的进行过程中,持续观察并正确改变每个关节或骨头的深度顺序关系,得到双手深度由身体前确转换到身体后的正确表演。如图14(c)所示。
步骤41是动画渲染的步骤。二维动画(2D Cut-out Animation)与三维动画(3DAnimation)在决定物件绘制的前后关系方法有显著的不同。三维动画通常以物件或点所在的深度决定绘制物件的先后顺序,即运用Z-Sort或Z-Buffer技术绘制。二维动画由于没有深度概念,通常以层级(Layer)的数值来决定物件之间的前后关系,二维动画中角色物件的前后关系正确与否通常发生于关节接合处,如图17(a)中的圆圈处(即上手臂及下手臂的交集处),可通过人为的指定物件的层级(Layer)让物件有正确性,如图17(b)。
但指定层级并不能处理所有的动画表演情况,如图18(a)当使用者定义了身体的层级高于上手臂,上手臂层级高于下手臂。若此时有一个表演是下手臂往前伸的动作,系统可以通过步骤34得到下手臂深度小于身体的深度,而把下手臂置于身体的前。但此时会发生下手臂与上手臂的顺序被改变,造成视觉上的错误,即物件层级关系与深度关系的冲突,如图18(b)。
为了能在二维的环境中渲染(Render)出因深度而产生遮蔽的效果,有兼具物件间层级的合理性,本系统设计以:1.深度列表(Depth List):利用步骤34公式,在动画的每一个影格中(Frame)排列出各骨头(Bone)之间的前后关系。2.相关连层级(RelativeLayer):用以指定物件之间相对的前后关系。3.层级遮罩(Layer Mask):建立一个遮罩用以遮蔽Relative Layer指定的运作范围。即可得到合理的动画结果。
更多完整二维角色表演三维动作技术的成果实例如图19、图20及图21所示。图19乃二维角色表演三维正面走路动作的示意图,图20乃二维角色表演三维侧身走路动作的示意图,图21乃二维角色表演三维转身动作的示意图。
以上所述者,仅为本发明的范例实施态样而已,当不能以的限定本发明所实施的范围。即大凡依本发明申请专利范围所作的均等变化与修饰,皆应仍属于本发明专利涵盖的范围内。

Claims (16)

1.一种让二维角色能表现三维动作的系统,其特征在于,该系统至少包括:
一三维动作载入单元,用以将人体三维动作数据对应至一虚拟骨架,并将所有动作数据以矩阵方式记录下来以得到一动作骨架世界矩阵;
一虚拟摄影机转换单元,该单元首先架设虚拟摄影机用以观察三维动作及其虚拟骨架以定义一个观察三维动作的观察视点,该观察视点可以是三维世界中的任何位置,该单元接着计算动作角度以推算出三维表演动作进行时人体各部位的旋转及角度资讯,可得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵,该单元接着将三维坐标转换为二维坐标及深度以取得三维动作及其虚拟体架在表演时各身体部位,即节点的坐标与深度资讯;
一二维动作转换单元,该单元首先执行Sprite Angle计算以决定一个Sprite在呈现三维动作时以哪一个角度的图来显示,得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,接着执行一二维旋转计算步骤,接着执行一二维尺度缩放与自由形变计算步骤,接着执行一深度关系转换的计算步骤;及
一显示单元用以处理及输出呈现一结果。
2.根据权利要求1所述的系统,其特征在于,该虚拟摄影机转换单元计算动作角度乃在于推算出三维表演动作进行时人体各部位的旋转及角度资讯,由于三维动作本身并不带有人体各个部位在运动时的旋转及角度资讯,因此通过该虚拟摄影机的观察结果,将虚拟摄影机对人体三维动作及其虚拟骨架的关系,用以看向三维世界中心点的相对方式,做为判断人体三维动作角度的基准,即得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵Virtual Camera Transformation Matrix;VCM,其公式如下:
Figure FDA00003414405500011
其中,Motion Angle以(Theta,Phi)表示,Theta为水平角度,Phi为垂直角度。
3.根据权利要求1所述的系统,其特征在于,该虚拟摄影机转换单元将三维坐标转换为二维坐标及深度的主要目的为取得三维动作及其虚拟体架在表演时各身体部位,即节点的坐标与深度资讯,通过该三维动作载入单元所计算产出的动作骨架世界矩阵及所产出的虚拟摄影机转换矩阵,即可求得人体各部位,即节点,Joint Point;JP的三维坐标及深度,其公式如下:
Joint Position(x,y,z)=[0,0,0]*WM*VCM。
4.根据权利要求1所述的系统,其特征在于,该Sprite Angle的计算方式是利用由虚拟摄影机视角中观察到的亲节点到子节点的最短距离所形成的向量,即亲节点的骨向量,Sprite Angle的ID分为水平角度及垂直角度,将骨向量投射至与虚拟摄影机射线平行的两个平面,即Y-Z平面及X-Z平面,再与虚拟摄影机射线计算后即可分别得到此一骨向量的水平及垂直角度,得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,即何种角度要呈现何种指定图片,计算时以角度刻度区间做为Sprite换图依据的换图方法,将虚拟骨架对应的各个Sprite置于一个虚拟立体环状球形摄影机空间内,系统根据虚拟立体环状范围内,自动建立多台虚拟摄影机,并在Sprite对应关系表中自动找出相对应的现在表演角度的Sprite图片并显示出来,其中,角度刻度区分可自由设定,使用者可根据需求自行定义角度刻度及对角色骨架进行设定。
5.根据权利要求1所述的系统,其特征在于,该二维动作转换单元执行二维旋转计算步骤是计算三维动作表演时骨头的旋转并产生二维的旋转资讯,首先设定一个预定骨的轴向,将骨向量投影至虚拟摄影机的平面,再与预定骨的轴向计算角度,此角度即为该骨头的二维旋转量,若有骨向量与虚拟摄影机平行的状况发生,亦即落入上/下区间时,则计算骨头的X轴投影至X-Y平面与X轴的向量夹角即为该骨头的旋转量,若为末端的骨头,则使用长轴,即Y轴的角度差投影至X-Y平面,计算旋转量,并要加上亲节点的旋转量,即可得到正确的末端骨头的旋转量。
6.根据权利要求1所述的系统,其特征在于,该二维动作转换单元执行二维尺度缩放与自由形变计算步骤是以平面投影方式观察三维动作表演时的骨头长度,当骨头进行有深度变化的位移,对二维平面投影来说则犹如对骨头的尺度进行缩放一样,即是根据三维动作表演时,自动将二维图片进行尺度放大及缩小的计算,产生符合视觉的深度感觉,并通过自由形变的计算与运用,让套用三维动作数据后的二维影像在表演时能更生动且具有动画表演的夸张特性,二维尺度计算中2D Scale表示为(Sx,Sy),分别为宽与高的Scale值,其中Sy可表现3D运动后骨头长度变化,Sx则可表现出深度的透视效果,Sx的计算乃是运用Joint Position的深度值计算(z),以世界中心点为基准,越近越大,反之越小,计算时可加上Projection Strength的加乘,可独立调整透视效果的强度算公式,其公式如下:
Sx=1+JPz*Projection Strength
Sy的计算乃是利用Bone Vector Project to X-Y Plane及Virtual Bone长度的比例计算,公式如下所示:
Sy=(Length of Bone Vector Project to X-Y Plane)/(Virtual Bone Length
若是图片为末端的骨头或上/下的角度,则图片维持宽高等比的缩放Sy=Sx,以避免变形,形变计算是利用自由形变的概念,用以达到骨头透视及骨头厚度模拟的效果,骨头透视效果计算是于动作表演中依序处理角色各部位影像的形变,使得到具有视觉透视效果的形变,SRx计算公式如下所示:
SRx=0.5*Sx_child/Sx_parent
于骨头厚度模拟计算时,真实的3D Bone因为有厚度,因此在前后转动时会因其厚度产生外形上的改变2D Motion系统中可运用调整FFD Control Point来达成因厚度产生的变形FFD若切分为3x3Control Points,则可计算SRy套用至中心的2x2ControlPoint,模拟因厚度产生的形变,SRy的计算公式如下:SRy=(Deform Strength)*(1-SRx)
7.根据权利要求1所述的系统,其特征在于,该二维动作转换单元执行深度关系转换的计算步骤,该步骤目的是为了让二维动画表演时,身体各部位的节点及骨头都有正确的深度关系,即二维平面观察中各部位皆有正确的前后遮蔽关系,该步骤利用虚拟摄影机视角中,虚拟摄影机的位置与各关节的位置,对身体位部位关节点进行两两深度计算,并得到代表深度关系的向量,利用点矩阵向量乘积计算,两两比较节点顺序。
8.根据权利要求1所述的系统,其特征在于,该显示单元处理及输出呈现结果的方法是一动画渲染的步骤,三维动画通常以物件或点所在的深度决定绘制物件的先后顺序,即运用Z-Sort或Z-Buffer技术绘制,二维动画由于没有深度概念,通常以层级的数值来决定物件之间的前后关系,二维动画中角色物件的前后关系正确与否通常发生于关节接合处,但指定层级并不能处理所有的动画表演情况,为使二维的环境中渲染出因深度而产生遮蔽的效果,有兼具物件间层级的合理性,本步骤以深度列表方式在动画的每一个影格中排列出各骨头之间的前后关系,并使用相关连层级以指定物件之间相对的前后关系,最后使用层级遮罩建立一个遮罩用以遮蔽Relative Layer指定的运作范围,即可得到合理的动画结果。
9.一种让二维角色能表现三维动作的方法,其特征在于,该方法至少包括以下的步骤:
(a)、将人体三维动作数据对应至一虚拟骨架,并将所有动作数据以矩阵方式记录下来以得到一动作骨架世界矩阵;
(b)、首先架设虚拟摄影机用以观察三维动作及其虚拟骨架以定义一个观察三维动作的观察视点,该观察视点可以是三维世界中的任何位置,接着计算动作角度以推算出三维表演动作进行时人体各部位的旋转及角度资讯,可得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵,接着将三维坐标转换为二维坐标及深度以取得三维动作及其虚拟体架在表演时各身体部位,即节点的坐标与深度资讯;
(c)、首先执行Sprite Angle计算以决定一个Sprite在呈现三维动作时以哪一个角度的图来显示,得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,接着执行一二维旋转计算步骤,接着执行一二维尺度缩放与自由形变计算步骤,接着执行一深度关系转换的计算步骤;及
(d)、输出及显示一结果。
10.根据权利要求9所述的方法,其特征在于,该计算动作角度的步骤乃在于推算出三维表演动作进行时人体各部位的旋转及角度资讯,由于三维动作本身并不带有人体各个部位在运动时的旋转及角度资讯,因此通过该虚拟摄影机的观察结果,将虚拟摄影机对人体三维动作及其虚拟骨架的关系,用以看向三维世界中心点的相对方式,做为判断人体三维动作角度的基准,即得到以虚拟摄影机观察点为视角进行推算的表演动作角度矩阵Virtual Camera Transformation Matrix;VCM,其公式如下:
Figure FDA00003414405500041
其中,Motion Angle以(Theta,Phi)表示,Theta为水平角度,Phi为垂直角度。
11.根据权利要求9所述的方法,其特征在于,将三维坐标转换为二维坐标及深度的主要目的为取得三维动作及其虚拟体架在表演时各身体部位,即节点的坐标与深度资讯,通过该三维动作载入单元所计算产出的动作骨架世界矩阵及所产出的虚拟摄影机转换矩阵,即可求得人体各部位,即节点,Joint Point;JP的三维坐标及深度,其公式如下:
Joint Position(x,y,z)=[0,0,0]*WM*VCM。
12.根据权利要求9所述的方法,其特征在于,该Sprite Angle的计算方式是利用由虚拟摄影机视角中观察到的亲节点到子节点的最短距离所形成的向量,即亲节点的骨向量,Sprite Angle的ID分为水平角度及垂直角度,将骨向量投射至与虚拟摄影机射线平行的两个平面,即Y-Z平面及X-Z平面,再与虚拟摄影机射线计算后即可分别得到此一骨向量的水平及垂直角度,得到Sprite Angle之后接下来就是决定角度刻度与Sprite图片组的内所有图片的对应关系,即何种角度要呈现何种指定图片,计算时以角度刻度区间做为Sprite换图依据的换图方法,将虚拟骨架对应的各个Sprite置于一个虚拟立体环状球形摄影机空间内,系统根据虚拟立体环状范围内,自动建立多台虚拟摄影机,并在Sprite对应关系表中自动找出相对应的现在表演角度的Sprite图片并显示出来,其中,角度刻度区分可自由设定,使用者可根据需求自行定义角度刻度及对角色骨架进行设定。
13.根据权利要求9所述的方法,其特征在于,该执行二维旋转计算步骤是计算三维动作表演时骨头的旋转并产生二维的旋转资讯,首先设定一个预定骨的轴向,将骨向量投影至虚拟摄影机的平面,再与预定骨的轴向计算角度,此角度即为该骨头的二维旋转量,若有骨向量与虚拟摄影机平行的状况发生,亦即落入Top/Bottom区间时,则计算骨头的X轴投影至X-Y平面与X轴的向量夹角即为该骨头的旋转量,若为末端的骨头,则使用长轴,即Y轴的角度差投影至X-Y平面,计算旋转量,并要加上亲节点的旋转量,即可得到正确的末端骨头的旋转量。
14.根据权利要求9所述的方法,其特征在于,该执行二维尺度缩放与自由形变计算步骤是以平面投影方式观察三维动作表演时的骨头长度,当骨头进行有深度变化的位移,对二维平面投影来说则犹如对骨头的尺度进行缩放一样,即是根据三维动作表演时,自动将二维图片进行尺度放大及缩小的计算,产生符合视觉的深度感觉,并通过自由形变的计算与运用,让套用三维动作数据后的二维影像在表演时能更生动且具有动画表演的夸张特性,二维尺度计算中2D Scale表示为(Sx,Sy),分别为宽与高的Scale值,其中Sy可表现3D运动后骨头长度变化,Sx则可表现出深度的透视效果,Sx的计算乃是运用Joint Position的深度值计算(z),以世界中心点为基准,越近越大,反之越小,计算时可加上Projection Strength的加乘,可独立调整透视效果的强度算公式,其公式如下:
Sx=1+JPz*Projection Strength
Sy的计算乃是利用Bone Vector Project to X-Y Plane及Virtual Bone长度的比例计算,公式如下所示:
Sy=(Length of Bone Vector Project to X-Y Plane)/(Virtual Bone Length
若是图片为末端的骨头或上/下的角度,则图片维持宽高等比的缩放(Sy=Sx),以避免变形,形变计算是利用自由形变的概念,用以达到骨头透视及骨头厚度模拟的效果,骨头透视效果计算是于动作表演中依序处理角色各部位影像的形变,使得到具有视觉透视效果的形变,SRx计算公式如下所示:
SRx=0.5*Sx_child/Sx_parent
于骨头厚度模拟计算时,真实的3D Bone因为有厚度,因此在前后转动时会因其厚度产生外形上的改变2D Motion系统中可运用调整FFD Control Point来达成因厚度产生的变形FFD若切分为3x3Control Points,则可计算SRy套用至中心的2x2ControlPoint,模拟因厚度产生的形变,SRy的计算公式如下:SRy=(Deform Strength)*(1-SRx)
15.根据权利要求9所述的方法,其特征在于,该执行深度关系转换的计算步骤,该步骤目的是为了让二维动画表演时,身体各部位的节点及骨头都有正确的深度关系,即二维平面观察中各部位皆有正确的前后遮蔽关系,该步骤利用虚拟摄影机视角中,虚拟摄影机的位置与各关节的位置,对身体位部位关节点进行两两深度计算,并得到代表深度关系的向量,利用点矩阵向量乘积计算,两两比较节点顺序。
16.根据权利要求9所述的方法,其特征在于,该输出及显示结果的方法是一动画渲染的步骤,三维动画通常以物件或点所在的深度决定绘制物件的先后顺序,即运用Z-Sort或Z-Buffer技术绘制,二维动画由于没有深度概念,通常以层级的数值来决定物件之间的前后关系,二维动画中角色物件的前后关系正确与否通常发生于关节接合处,但指定层级并不能处理所有的动画表演情况,为使二维的环境中渲染出因深度而产生遮蔽的效果,有兼具物件间层级的合理性,本步骤以深度列表方式在动画的每一个影格中排列出各骨头之间的前后关系,并使用相关连层级以指定物件之间相对的前后关系,最后使用层级遮罩建立一个遮罩用以遮蔽相关连层级指定的运作范围,即可得到合理的动画结果。
CN201310259777.5A 2012-06-27 2013-06-26 二维角色表现三维动作的系统及方法 Pending CN103514619A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261665002P 2012-06-27 2012-06-27
US61/665,002 2012-06-27

Publications (1)

Publication Number Publication Date
CN103514619A true CN103514619A (zh) 2014-01-15

Family

ID=49777649

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310259777.5A Pending CN103514619A (zh) 2012-06-27 2013-06-26 二维角色表现三维动作的系统及方法

Country Status (3)

Country Link
US (1) US9123176B2 (zh)
CN (1) CN103514619A (zh)
TW (1) TWI521469B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104599305A (zh) * 2014-12-22 2015-05-06 浙江大学 一种二三维结合的动画生成方法
CN104658026A (zh) * 2015-02-15 2015-05-27 北京科艺有容科技有限责任公司 一种基于极坐标系的融合变形方法
CN106710005A (zh) * 2016-12-20 2017-05-24 深圳中兴网信科技有限公司 模拟场景展现方法及模拟场景展现系统
CN107481305A (zh) * 2017-08-18 2017-12-15 苏州歌者网络科技有限公司 游戏动画制作方法
CN108021304A (zh) * 2017-12-05 2018-05-11 网易(杭州)网络有限公司 界面层级控制方法、装置、电子设备及存储介质
CN108475439A (zh) * 2016-02-16 2018-08-31 乐天株式会社 三维模型生成系统、三维模型生成方法以及程序
CN108921919A (zh) * 2018-06-08 2018-11-30 北京小小牛创意科技有限公司 动画展示、制作方法及装置
CN109074670A (zh) * 2016-04-28 2018-12-21 株式会社Live2D 程序、信息处理装置、影响度导出方法、图像生成方法以及记录介质
CN110009715A (zh) * 2015-07-28 2019-07-12 谷歌有限责任公司 用于web上的定制可缩放动画角色的参数生成的系统

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US10216355B2 (en) * 2012-06-17 2019-02-26 Atheer, Inc. Method for providing scale to align 3D objects in 2D environment
KR101566666B1 (ko) * 2013-08-27 2015-11-05 올림푸스 가부시키가이샤 촬상 장치, 촬상 방법 및 촬상 프로그램
US9667948B2 (en) 2013-10-28 2017-05-30 Ray Wang Method and system for providing three-dimensional (3D) display of two-dimensional (2D) information
US10127327B2 (en) * 2014-05-21 2018-11-13 Adobe Systems Incorporated Cloud-based image processing web service
CN107609946B (zh) * 2017-09-19 2020-11-06 北京优时尚科技有限责任公司 一种显示控制方法及计算设备
CN109481940A (zh) * 2018-09-21 2019-03-19 苏州蜗牛数字科技股份有限公司 一种运动对象跟随方法
JP2024514534A (ja) * 2021-04-04 2024-04-02 レイア、インコーポレイテッド マルチ画像生成システム及び方法
US11321899B1 (en) * 2021-05-28 2022-05-03 Alexander Dutch 3D animation of 2D images
CN116309712B (zh) * 2023-03-15 2024-01-30 南通大学 一种基于深度相机的功能运动分析系统及方法
CN117475049B (zh) * 2023-12-26 2024-03-08 一站发展(北京)云计算科技有限公司 一种虚拟形象适配方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057859A (en) * 1997-03-31 2000-05-02 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters with blended motion data
US20070132765A1 (en) * 2005-12-09 2007-06-14 Electronics And Telecommunications Research Institute Method of representing and animating two-dimensional humanoid character in three-dimensional space
WO2011045768A2 (en) * 2009-10-15 2011-04-21 Yeda Research And Development Co. Ltd. Animation of photo-images via fitting of combined models
CN102231209A (zh) * 2011-04-19 2011-11-02 浙江大学 基于异构特征降维的二维角色卡通生成方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3040466B2 (ja) * 1990-07-17 2000-05-15 ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー 画像処理方法
IT1320002B1 (it) * 2000-03-31 2003-11-12 Cselt Centro Studi Lab Telecom Procedimento per l'animazione di un modello sintetizzato di voltoumano pilotata da un segnale audio.
JP4775989B2 (ja) * 2001-08-23 2011-09-21 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
TW200540732A (en) * 2004-06-04 2005-12-16 Bextech Inc System and method for automatically generating animation
US8766982B2 (en) * 2010-01-19 2014-07-01 Disney Enterprises, Inc. Vectorization of line drawings using global topology and storing in hybrid form
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057859A (en) * 1997-03-31 2000-05-02 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters with blended motion data
US20070132765A1 (en) * 2005-12-09 2007-06-14 Electronics And Telecommunications Research Institute Method of representing and animating two-dimensional humanoid character in three-dimensional space
WO2011045768A2 (en) * 2009-10-15 2011-04-21 Yeda Research And Development Co. Ltd. Animation of photo-images via fitting of combined models
CN102231209A (zh) * 2011-04-19 2011-11-02 浙江大学 基于异构特征降维的二维角色卡通生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALEXANDER HORNUNG等: "Character Animation from 2D Pictures and 3D Motion Data", 《JOURNAL ACM TRANSACTIONS ON GRAPHICS (TOG)》, vol. 26, no. 1, 31 January 2007 (2007-01-31), pages 1 - 9 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104599305B (zh) * 2014-12-22 2017-07-14 浙江大学 一种二三维结合的动画生成方法
CN104599305A (zh) * 2014-12-22 2015-05-06 浙江大学 一种二三维结合的动画生成方法
CN104658026A (zh) * 2015-02-15 2015-05-27 北京科艺有容科技有限责任公司 一种基于极坐标系的融合变形方法
CN104658026B (zh) * 2015-02-15 2018-01-19 北京春天影视科技有限公司 一种基于极坐标系的三维动画融合变形方法
CN110009715A (zh) * 2015-07-28 2019-07-12 谷歌有限责任公司 用于web上的定制可缩放动画角色的参数生成的系统
CN108475439A (zh) * 2016-02-16 2018-08-31 乐天株式会社 三维模型生成系统、三维模型生成方法以及程序
CN108475439B (zh) * 2016-02-16 2022-06-17 乐天集团股份有限公司 三维模型生成系统、三维模型生成方法和记录介质
CN109074670A (zh) * 2016-04-28 2018-12-21 株式会社Live2D 程序、信息处理装置、影响度导出方法、图像生成方法以及记录介质
CN109074670B (zh) * 2016-04-28 2023-04-28 株式会社Live2D 信息处理装置、图像生成方法以及记录介质
CN106710005B (zh) * 2016-12-20 2020-08-11 深圳中兴网信科技有限公司 模拟场景展现方法及模拟场景展现系统
CN106710005A (zh) * 2016-12-20 2017-05-24 深圳中兴网信科技有限公司 模拟场景展现方法及模拟场景展现系统
CN107481305A (zh) * 2017-08-18 2017-12-15 苏州歌者网络科技有限公司 游戏动画制作方法
CN107481305B (zh) * 2017-08-18 2021-02-09 苏州歌者网络科技有限公司 游戏动画制作方法
CN108021304A (zh) * 2017-12-05 2018-05-11 网易(杭州)网络有限公司 界面层级控制方法、装置、电子设备及存储介质
CN108921919A (zh) * 2018-06-08 2018-11-30 北京小小牛创意科技有限公司 动画展示、制作方法及装置

Also Published As

Publication number Publication date
US20140002449A1 (en) 2014-01-02
US9123176B2 (en) 2015-09-01
TW201401224A (zh) 2014-01-01
TWI521469B (zh) 2016-02-11

Similar Documents

Publication Publication Date Title
CN103514619A (zh) 二维角色表现三维动作的系统及方法
US20210074003A1 (en) Image processing method and apparatus, image device, and storage medium
JP2019149202A5 (zh)
JP4555722B2 (ja) 立体映像生成装置
JP3944019B2 (ja) 情報処理装置および方法
Jota et al. Constructing virtual 3D models with physical building blocks
CN102306386B (zh) 从单张树木图像快速构建真实感树木模型的方法
CN108427595A (zh) 虚拟现实中用户界面控件显示位置的确定方法及装置
Khattak et al. A real-time reconstructed 3D environment augmented with virtual objects rendered with correct occlusion
CN109471533A (zh) 一种vr/ar教室内的学生端系统及其使用方法
Punpongsanon et al. Extended LazyNav: Virtual 3D ground navigation for large displays and head-mounted displays
CN106980378A (zh) 虚拟显示方法和系统
CN108734772A (zh) 基于Kinect fusion的高精度深度图像获取方法
Valentini Natural interface in augmented reality interactive simulations: This paper demonstrates that the use of a depth sensing camera that helps generate a three-dimensional scene and track user's motion could enhance the realism of the interactions between virtual and physical objects
JP3760341B2 (ja) プログラム、記録媒体、画像生成装置及び画像生成方法
Hashimoto et al. Immersive multi-projector display on hybrid screens with human-scale haptic and locomotion interfaces
JP3722993B2 (ja) 物体の毛並接触感シミュレーション装置
Soares et al. Collaborative hybrid virtual environment
JP6503098B1 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
CN107564066B (zh) 一种虚拟现实眼镜与深度相机的联合标定方法
CN116958450B (zh) 一种面向二维数据的人体三维重建方法
Turner et al. Head‐Tracked Stereo Viewing with Two‐Handed 3 D Interaction for Animated Character Construction
CN112698725B (zh) 一种基于眼动仪跟踪的穿透式屏幕系统的实现方法
JP5792210B2 (ja) 三次元オブジェクトの多視点描画装置、方法、及びプログラム
CN117101138A (zh) 虚拟角色的控制方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140115