JPH0855241A - Operation generating method of computer graphics - Google Patents

Operation generating method of computer graphics

Info

Publication number
JPH0855241A
JPH0855241A JP19044694A JP19044694A JPH0855241A JP H0855241 A JPH0855241 A JP H0855241A JP 19044694 A JP19044694 A JP 19044694A JP 19044694 A JP19044694 A JP 19044694A JP H0855241 A JPH0855241 A JP H0855241A
Authority
JP
Japan
Prior art keywords
time
homotopy
equation
varying
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP19044694A
Other languages
Japanese (ja)
Other versions
JP2739434B2 (en
Inventor
Souichi Kajiwara
創一 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR TSUSHIN SYST KENKYUSHO KK
Original Assignee
ATR TSUSHIN SYST KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR TSUSHIN SYST KENKYUSHO KK filed Critical ATR TSUSHIN SYST KENKYUSHO KK
Priority to JP19044694A priority Critical patent/JP2739434B2/en
Publication of JPH0855241A publication Critical patent/JPH0855241A/en
Application granted granted Critical
Publication of JP2739434B2 publication Critical patent/JP2739434B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide the operation generating method of computer graphics which can generate the operation of an object body of computer graphics extremely naturally in real time with time-varying homotropy based upon physical definitions. CONSTITUTION:In a step 1, position vectors of time t=0 and time t=1 at respective points constituting the object of computer graphics are inputted and in a step 2, a blending function is defined on the basis of the physical definitions. In a step 3, the position vectors at respective points constituting the object body at time t=t are found, the operation of the respective points constituting the object body between the time t=0 and time t=1 is generated, and operations of all the points are generated to generate the natural operation of the object body conforming with a natural rule.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、コンピュータグラフ
ィックスにおける動作生成方法に関し、特に、時変ホモ
トピーに基づいて対象物体の動作を生成するために、対
象物体を構成する点の動作を生成することができるよう
なコンピュータグラフィックスにおける動作生成方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion generation method in computer graphics, and more particularly to generating motions of points constituting a target object in order to generate motions of the target object based on time-varying homotopy. And a motion generation method in computer graphics.

【0002】[0002]

【従来の技術】図10は、臨場感通信会議の状態を示す
図である。
2. Description of the Related Art FIG. 10 is a diagram showing a state of a realistic communication conference.

【0003】互いに異なる場所に存在する人々があたか
も一堂に会するかのような通信を行なう会議は、臨場感
通信会議と称されている。この臨場感通信会議では、仮
想空間1に参加者3の像が設定され、実空間5に存在す
る参加者7a,7bが、仮想空間1の参加者3との間で
会議などを行なえる。
A conference for communicating as if people existing in different places meet together is called a "realistic communication conference". In this realistic communication conference, the image of the participant 3 is set in the virtual space 1, and the participants 7a and 7b existing in the real space 5 can hold a conference with the participant 3 in the virtual space 1.

【0004】この臨場感通信会議の目的は、生成された
仮想空間において、相異なる場所に位置する会議参加者
の各々の像が設定され、これらの参加者が同じ仮想空間
を共感する感覚を有し、会議または協調作業が行なえる
環境を提供することである。
The purpose of this immersive communication conference is to set an image of each of the conference participants located in different places in the generated virtual space, and to have the feeling that these participants sympathize with the same virtual space. And to provide an environment in which meetings or collaborative work can be conducted.

【0005】図11は、臨場感通信会議システムを説明
するための図である。臨場感通信会議システムでは、実
空間の情報を送信する送信側と、送信された情報を受信
する受信側とに大別される。送信側は、実空間9での人
物の時間的変化情報を検出する検出部11で構成され
る。受信側は、人物の動作または表情変化を実時間で生
成して表示する合成部13で構成される。
FIG. 11 is a diagram for explaining a realistic communication conference system. The realistic communication conference system is roughly divided into a transmitting side for transmitting information in the real space and a receiving side for receiving the transmitted information. The transmitting side is composed of a detection unit 11 that detects the temporal change information of a person in the real space 9. The receiving side is composed of a synthesizing unit 13 that generates and displays a person's motion or facial expression change in real time.

【0006】実空間9で検出され、仮想空間15で生成
される人物像は、臨場感通信会議であらゆる方向から自
然に見えることが望まれる。したがって、実時間におけ
る姿勢変化または表情変化を有する自然な三次元顔画像
の生成とその表示が行なわれる合成部13は極めて重要
である。
[0006] It is desired that the human image detected in the real space 9 and generated in the virtual space 15 looks natural from all directions in the presence communication conference. Therefore, the synthesizing unit 13 for generating and displaying a natural three-dimensional face image having a posture change or facial expression change in real time is extremely important.

【0007】図12は、顔の表情筋を示した図であり、
図13は、三次元ワイヤフレームモデルを示した図であ
る。
FIG. 12 is a diagram showing facial expression muscles,
FIG. 13 is a diagram showing a three-dimensional wire frame model.

【0008】図11の合成部13では、図12に示され
る顔の表情筋17a〜17vに基づいた図13に示すよ
うな三次元ワイヤフレームモデル19が使用される。こ
のような三次元ワイヤフレームモデル19が用いられ
て、実時間における人物顔画像の表情の変化が生成され
る。そして、このような実時間における人物顔画像の表
情変化の生成および表示のために、時変ホモトピー(T
ime−VaryingHomotopy)が、発明者
らによって“ホモトピーに基づいた三次元顔画像表情生
成の位置検討”、テレビジョン学会技術報告、Vol.
17,No.58,で提案されている。
In the synthesizing section 13 of FIG. 11, a three-dimensional wire frame model 19 as shown in FIG. 13 based on the facial expression muscles 17a to 17v shown in FIG. 12 is used. Such a three-dimensional wireframe model 19 is used to generate a change in the facial expression of a human face image in real time. Then, in order to generate and display such a facial expression change of a human face image in real time, a time-varying homotopy (T
Ime-VaryingHomotopy) was published by the inventors, "Position examination of three-dimensional facial image expression generation based on homotopy", Technical Report of the Television Society, Vol.
17, No. 58, has been proposed.

【0009】提案された時変ホモトピーは、位相幾何学
(トポロジー)におけるホモトピーに基づいている。し
たがって、以下では、位相幾何学におけるホモトピーか
ら従来の時変ホモトピーが提案されるまでの過程につい
て説明する。
The proposed time-varying homotopy is based on homotopy in topologies. Therefore, the process from the homotopy in topology to the proposal of the conventional time-varying homotopy will be described below.

【0010】[位相幾何学におけるホモトピー]図14
は、位相幾何学におけるホモトピーを説明するための図
である。
[Homotopy in Topology] FIG. 14
FIG. 4 is a diagram for explaining homotopy in topological geometry.

【0011】位相幾何学におけるホモトピーは、以下の
ように定義される。f:I→X,g:I→XがPとQを
連結する2つの異なる関数とされる。このとき、領域I
×I={(x,y)|0≦x≦1,0≦y≦1}からX
への連結写像f:I×I→Xにおいて、F(x,0)=
f(x),F(x,1)=g(x)かつF(0,y)=
P,F(1,y)=Qとなる写像があるとき、F(x,
y)が関数fと関数gとのホモトピーであるとされる。
Homotopy in topology is defined as follows. f: I → X and g: I → X are two different functions connecting P and Q. At this time, the area I
XI = {(x, y) | 0 ≦ x ≦ 1, 0 ≦ y ≦ 1} to X
In the connection map f: I × I → X, F (x, 0) =
f (x), F (x, 1) = g (x) and F (0, y) =
When there is a map such that P, F (1, y) = Q, F (x,
It is assumed that y) is the homotopy of the function f and the function g.

【0012】この位相幾何学におけるホモトピーは、そ
のままコンピュータグラフィックスに適用されない。そ
の理由は、このホモトピーにおいて関数fから関数gへ
遷移するときにかかる時間が定義されていないためであ
る。そこで、このホモトピーの概念がコンピュータグラ
フィックスにおいて対象となる物体の形状処理と動作の
生成ならびに三次元人物顔画像の実時間における表情変
化などの動作生成に適用されるべく、以下に示すホモト
ピーが提案された。この提案されたホモトピーは、時変
ホモトピー(Time−Varying Homoto
py)と命名された。以下、この時変ホモトピーについ
て説明する。
The homotopy in this topology is not directly applied to computer graphics. The reason is that the time taken to transit from the function f to the function g in this homotopy is not defined. Therefore, in order to apply this concept of homotopy to the shape processing of a target object in computer graphics and the generation of motion and the motion generation such as real-time facial expression change of a 3D human face image, the following homotopy is proposed. Was done. This proposed homotopy is a time-varying homotopy.
py). Hereinafter, the time-varying homotopy will be described.

【0013】[位相幾何学における従来の時変ホモトピ
ー]図15は、従来の時変ホモトピーについて説明する
ための図であり、特に、図15(a)は、時刻t=0の
場合の輪郭線の状態を示した図であり、図15(b)
は、時刻t=tの場合の輪郭線の状態を示した図であ
り、図15(c)は、時刻t=1の場合の輪郭線の状態
を示した図である。
[Conventional Time-Varying Homotopy in Topology] FIG. 15 is a diagram for explaining the conventional time-varying homotopy. In particular, FIG. 15 (a) shows a contour line at time t = 0. 15B is a diagram showing the state of FIG.
FIG. 15 is a diagram showing a state of the contour line at time t = t, and FIG. 15 (c) is a diagram showing a state of the contour line at time t = 1.

【0014】図15(b)に示すように、時刻がtのと
きの2つの異なる輪郭線C1 ↑(u,v,t)(以下、
ベクトルには↑を付ける)、C2 ↑(u,v,t)が三
次元空間に設定される。両輪郭線C1 ↑(u,v,
t),C2 ↑(u,v,t)の間が補間されることによ
り構成される表面上の各ノード(点)がx↑(u,v,
t)とされる。これらの輪郭線C1 ↑(u,v,t)、
2 ↑(u,v,t)、x↑(u,v,t)は、それぞ
れ第(1)式、第(2)式および第(3)式で表され
る。ただし、0≦u≦umax ,0≦v≦1,0≦t≦1
とされ、C1 ↑(u,v,t)とC2 ↑(u,v,t)
がY軸に対して垂直になり、各々のY座標が常に第
(4)式を満たすように設定される。
As shown in FIG. 15B, two different contour lines C 1 ↑ (u, v, t) (hereinafter,
↑ is added to the vector), and C 2 ↑ (u, v, t) is set in the three-dimensional space. Both contour lines C 1 ↑ (u, v,
t) and C 2 ↑ (u, v, t) are interpolated so that each node (point) on the surface is x ↑ (u, v, t).
t). These contour lines C 1 ↑ (u, v, t),
C 2 ↑ (u, v, t) and x ↑ (u, v, t) are expressed by the equation (1), the equation (2), and the equation (3), respectively. However, 0 ≦ u ≦ u max , 0 ≦ v ≦ 1, 0 ≦ t ≦ 1
And C 1 ↑ (u, v, t) and C 2 ↑ (u, v, t)
Is perpendicular to the Y axis, and each Y coordinate is set so as to always satisfy the equation (4).

【0015】第(1)式、第(2)式、第(3)式によ
り、輪郭線C1 ↑(u,v,0)と輪郭線C2 ↑(u,
v,0)との間における表面上の各ノードx↑(u,
v,0)が第(5)式のように設定されるとする。第
(5)式は、図15(a)に示されるような関係に対応
している。
From the equations (1), (2) and (3), the contour line C 1 ↑ (u, v, 0) and the contour line C 2 ↑ (u,
Each node on the surface between v, 0) x ↑ (u,
It is assumed that v, 0) is set as shown in Expression (5). Expression (5) corresponds to the relationship as shown in FIG.

【0016】ここで、輪郭線C1 ↑(u,v,0)とC
2 ↑(u,v,0)との間が補間されるべくRn (v)
という関数が導入される。このRn (v)は、両輪郭線
1↑(u,v,t)とC2 ↑(u,v,t)の混ぜ合
わせ(Blending)をすることから、これより以
降、この関数Rn (v)は、ブレンディング(混合)関
数(Blending function)と称される
とする。このブレンディング関数Rn (v)は、たとえ
ば第(6)式と第(7)式に示すような2種類の関数に
分類される。
Here, the contour lines C 1 ↑ (u, v, 0) and C
2 ↑ (u, v, 0) R n (v)
Function is introduced. This R n (v) is a blending of both contour lines C 1 ↑ (u, v, t) and C 2 ↑ (u, v, t). It is assumed that n (v) is called a blending function. The blending function R n (v) is classified into two types of functions as shown in, for example, the equations (6) and (7).

【0017】第(6)式および第(7)式に示されるブ
レンディング関数Rn (v)においての変数nは、輪郭
線C1 ↑(u,v,t)とC2 ↑(u,v,t)のブレ
ンディング(混ぜ合わせ)の比率を決定する重要な媒介
変数である。
The variable n in the blending function R n (v) shown in the equations (6) and (7) is defined by contour lines C 1 ↑ (u, v, t) and C 2 ↑ (u, v). , T) is an important parameter that determines the blending ratio.

【0018】第(6)式に示されるブレンディング関数
n (v)は、具体的に図示された場合、図16に示す
ような関数となる。図16における横軸はvの値であ
り、縦軸はRn (v)の値である。さらに、図16にお
いて、n=−0.9、n=−0.8、n=−0.65、
n=−0.4、n=0.0、n=1.1、n=3.8、
n=9.3の場合が示されている。
The blending function R n (v) shown in the equation (6) is a function as shown in FIG. 16 when specifically shown. The horizontal axis in FIG. 16 is the value of v, and the vertical axis is the value of R n (v). Further, in FIG. 16, n = −0.9, n = −0.8, n = −0.65,
n = -0.4, n = 0.0, n = 1.1, n = 3.8,
The case of n = 9.3 is shown.

【0019】第(7)式に示されるブレンディング関数
n (v)は、図17に示される関数である。図17に
おいて、横軸はvの値であり、縦軸はRn (v)の値で
ある。さらに図17においては、n=−0.97、n=
−0.85、n=−0.6、n=0.0、n=3.5、
n=23.8の場合が示されている。
The blending function R n (v) shown in the equation (7) is the function shown in FIG. In FIG. 17, the horizontal axis is the value of v, and the vertical axis is the value of R n (v). Further, in FIG. 17, n = −0.97, n =
-0.85, n = -0.6, n = 0.0, n = 3.5,
The case of n = 23.8 is shown.

【0020】また、第(6)式、第(7)式により、こ
れらのブレンディング関数Rn (v)は、第(8)式を
満たす。第(6)式および第(7)式で定義したブレン
ディング関数Rn (v)で相異なることは、v=0,1
におけるブレンディング関数Rn (v)の微係数が第
(9)式という条件を満たすか否かである。すなわち、
第(6)式によるブレンディング関数Rn (v)は必ず
しも第(9)式を満足していないが、第(7)式に示す
ブレンディング関数は第(9)式を必ず満たす。
Further, according to the expressions (6) and (7), these blending functions R n (v) satisfy the expression (8). The difference between the blending functions R n (v) defined by the equations (6) and (7) is that v = 0, 1
It is whether or not the differential coefficient of the blending function R n (v) in Eq. That is,
The blending function R n (v) according to the equation (6) does not necessarily satisfy the equation (9), but the blending function shown in the equation (7) always satisfies the equation (9).

【0021】ここで、t=1のときの輪郭線C1
(u,v,1)、C2 ↑(u,v,1)の間を補間して
構成される曲面上の各ノードx↑(u,v,1)が第
(10)式のように表される。この第(10)式に示す
ノードx↑(u,v,1)と輪郭線C1 ↑(u,v,
1)、C2 ↑(u,v,1)の関係は、図15(c)に
示されている。
Here, the contour line C 1 ↑ when t = 1
Each node x ↑ (u, v, 1) on the curved surface formed by interpolating between (u, v, 1) and C 2 ↑ (u, v, 1) is expressed by the equation (10). expressed. The node x ↑ (u, v, 1) and the contour C 1 ↑ (u, v,
The relationship between 1) and C 2 ↑ (u, v, 1) is shown in FIG. 15 (c).

【0022】さらに、第(5)式と第(10)式でそれ
ぞれ定義した、t=0,1のときの各ノードの位置ベク
トルx↑(u,v,0)とx↑(u,v,1)より、時
刻tのときの各ノードの位置ベクトルx↑(u,v,
t)が第(11)式のように定義される。ただし、一般
に第(11)式のLはL≠nとされる。
Further, the position vectors x ↑ (u, v, 0) and x ↑ (u, v) of each node at t = 0,1 defined by the equations (5) and (10), respectively. , 1), the position vector x ↑ (u, v, of each node at time t
t) is defined as in Expression (11). However, in general, L in the equation (11) is set to L ≠ n.

【0023】なお、説明上t=0の場合の各ノードの位
置ベクトルx↑(u,v,0)は、第(5)式に示すよ
うなものとしたが、第(5)式における輪郭線C1
(u,v,0)とC2 ↑(u,v,0)の混ぜ合わせに
対してもブレンディング関数R n (v)が用いられても
よい。
For the sake of explanation, the position of each node when t = 0
The position vector x ↑ (u, v, 0) is shown in equation (5).
The contour C in equation (5)1
(U, v, 0) and C2↑ For mixing (u, v, 0)
Blending function R nEven if (v) is used
Good.

【0024】第(11)式から、ブレンディング関数R
n (t)が時刻t(0≦t≦1)に従い遷移させられた
場合に、時刻t=0の位置ベクトルx↑(u,v,0)
を持つモデルと、時刻t=1の位置ベクトルx↑(u,
v,1)を持つモデルとの間をこのブレンディング関数
n (t)で補間することにより、対象とするモデルは
実時間で容易に遷移する。そして、変数Lの値が変えら
れるだけで対象となるモデルの時間的遷移が大幅に変更
される。さらに第(10)式におけるブレンディング関
数Rn (t)で用いられる変数nの値が変更されるだけ
で、t=1のときのモデルの形状が容易に変形させられ
る。同様に、第(5)式に対してもブレンディング関数
を用いた場合は時刻t=0のときのモデルの形状も容易
に変形される。
From the equation (11), the blending function R
When n (t) is transited according to time t (0 ≦ t ≦ 1), position vector x ↑ (u, v, 0) at time t = 0
And a position vector x ↑ (u, u at time t = 1
By interpolating with the model having v, 1) by this blending function R n (t), the target model easily transits in real time. Then, only by changing the value of the variable L, the temporal transition of the target model is significantly changed. Furthermore, the shape of the model at t = 1 can be easily deformed only by changing the value of the variable n used in the blending function R n (t) in the equation (10). Similarly, when the blending function is used also for the equation (5), the shape of the model at the time t = 0 is easily transformed.

【0025】すなわち、第(1)式から第(11)式に
示されるような時変ホモトピーという概念によって、コ
ンピュータグラフィックスにおいて対象となる物体の静
的形状の図18に示すような1階微分が不連続な面、ま
たは図19に示すような1階微分が連続な面を容易に生
成できた。図18に示す1階微分が不連続な面は、図1
6に示すようなブレンディング関数Rn (v)によって
実現され、図19に示すような1階微分が連続な面は、
図17に示すブレンディング関数Rn (v)によって容
易に生成された。また、対象となる物体の実時間におけ
る動作も、図20に示すように容易に生成できた。図2
0において図20(a)〜図20(i)は、それぞれの
時刻における対象となる物体の状態を示した図であり、
特に、図20(a)は、時刻t=0の状態を示した図で
あり、図20(i)は、時刻t=1の場合を示した図で
ある。
That is, according to the concept of the time-varying homotopy as shown in the equations (1) to (11), the first-order differential of the static shape of the target object in computer graphics as shown in FIG. It was possible to easily generate a surface having a discontinuity or a surface having a continuous first derivative as shown in FIG. The surface with the discontinuity of the first derivative shown in FIG.
A surface realized by a blending function R n (v) as shown in FIG. 6 and having continuous first differentials as shown in FIG.
It was easily generated by the blending function R n (v) shown in FIG. Further, the real-time motion of the target object could be easily generated as shown in FIG. Figure 2
20 (a) to 20 (i) show the state of the target object at each time.
In particular, FIG. 20 (a) is a diagram showing a state at time t = 0, and FIG. 20 (i) is a diagram showing a case at time t = 1.

【0026】[0026]

【数1】 [Equation 1]

【0027】[0027]

【発明が解決しようとする課題】しかしながら、従来の
時変ホモトピーは、位相幾何学における数学的定義に基
づいてはいるものの、本来、コンピュータグラフィック
スで対象となる物体の動作を考慮する際に必要不可欠で
ある物理的定義に必ずしも基づいてはいなかった。
However, although the conventional time-varying homotopy is based on the mathematical definition in topological geometry, it is originally necessary when considering the motion of the target object in computer graphics. It was not necessarily based on the essential physical definition.

【0028】したがって、たとえばコンピュータグラフ
ィックスで対象となる物体に外力が加わった場合でも、
その外力が考慮された時変ホモトピーは定義されていな
かった。さらに、デジタル制御理論で定義されるべき伝
達関数は、従来の時変ホモトピーでは物理的定義に必ず
しも基づいていないため定義できなった。
Therefore, for example, even when an external force is applied to a target object by computer graphics,
The time-varying homotopy in which the external force was taken into consideration was not defined. Furthermore, the transfer function that should be defined by the digital control theory cannot be defined because it is not always based on the physical definition in the conventional time-varying homotopy.

【0029】ゆえに、本発明の目的は、数学的定義に基
づく時変ホモトピーを物理的定義に基づく時変ホモトピ
ーに拡張し、コンピュータグラフィックスにおける対象
となる対象物体の動作をより自然に実時間で生成するこ
とができるようなコンピュータグラフィックスにおける
動作生成方法を提供することである。
Therefore, an object of the present invention is to extend a time-varying homotopy based on a mathematical definition to a time-varying homotopy based on a physical definition so that the motion of a target object in computer graphics can be performed more naturally and in real time. An object of the present invention is to provide a method for generating an action in computer graphics that can be generated.

【0030】[0030]

【課題を解決するための手段】請求項1の発明に係るコ
ンピュータグラフィックスにおける動作生成方法は、時
変ホモトピーに基づいて対象物体の動作を生成するため
に、対象物体を構成する点の動作を生成するコンピュー
タグラフィックスにおける動作生成方法であって、時変
ホモトピーは物理的に定義され、点の第1の時刻での位
置ベクトルが与えられ、点の第2の時刻での位置ベクト
ルが与えられる第1のステップと、第1のステップで与
えられた点の第1の時刻での位置ベクトルと点の第2の
時刻での位置ベクトルとの混合の割合を示す混合関数を
定義する第2のステップと、第2のステップで定義され
た混合関数に基づいて、点の第1の時刻および第2の時
刻間の所定の時刻での位置ベクトルを求める第3のステ
ップとを含んでいる。
According to a first aspect of the present invention, there is provided a method for generating motions in computer graphics. In order to generate motions of a target object based on time-varying homotopy, motions of points constituting the target object are calculated. A method for generating motion in computer graphics, wherein a time-varying homotopy is physically defined, a position vector of a point at a first time is given, and a position vector of a point at a second time is given. A second step defining a first step and a mixing function indicative of a mixing ratio of a position vector of the point at the first time and a position vector of the point at the second time given in the first step; And a third step of obtaining a position vector at a predetermined time between the first time and the second time of the point based on the mixing function defined in the second step. .

【0031】請求項2では、請求項1の時変ホモトピー
は、混合関数を定義するための伝達関数を定義する。
In claim 2, the time-varying homotopy of claim 1 defines a transfer function for defining a mixing function.

【0032】請求項3では、請求項1の時変ホモトピー
は、対象物体に加わる外力を定義する。
In the third aspect, the time-varying homotopy of the first aspect defines an external force applied to the target object.

【0033】[0033]

【作用】請求項1の発明に係るコンピュータグラフィッ
クスにおける動作生成方法は、時変ホモトピーが物理的
に定義されており、対象物体を構成する点の第1の時刻
での位置ベクトルが与えられ、点の第2の時刻での位置
ベクトルが与えられ、点の第1の時刻での位置ベクトル
と点の第2の時刻での位置ベクトルとの混合の割合を示
す混合関数が定義され、混合関数に基づいて第1の時刻
および第2の時刻間の所定の時刻での位置ベクトルが求
められて、第1の時刻から第2の時刻にかけての点の動
作を生成し、さらに対象物体を構成するすべての点の動
作が生成されることで対象物体の動作を生成できる。
In the motion generating method in computer graphics according to the first aspect of the invention, the time-varying homotopy is physically defined, and the position vector at the first time point of the point forming the target object is given, Given a position vector of a point at a second time, a mixing function is defined that indicates the ratio of the mixture of the position vector of the point at the first time and the position vector of the point at the second time, and the mixing function A position vector at a predetermined time between the first time and the second time is obtained based on the above, and a motion of a point from the first time to the second time is generated to further configure a target object. The motion of the target object can be generated by generating the motions of all points.

【0034】請求項2の発明に係るコンピュータグラフ
ィックスにおける動作生成方法は、時変ホモトピーが混
合関数を定義するための伝達関数を定義して、たとえば
デジタル制御理論に基づく対象物体の動作を生成でき
る。
In the motion generating method in computer graphics according to the second aspect of the invention, the transfer function for the time-varying homotopy to define the mixing function can be defined to generate the motion of the target object based on, for example, digital control theory. .

【0035】請求項3の発明に係るコンピュータグラフ
ィックスにおける動作生成方法は、時変ホモトピーが対
象物体に加わる外力を定義して、外力が加わるような対
象物体の動作を生成できる。
In the motion generation method in computer graphics according to the third aspect of the present invention, the time-varying homotopy defines the external force applied to the target object, and the motion of the target object to which the external force is applied can be generated.

【0036】[0036]

【実施例】そもそも自然界において対象となる物体の動
作は、物理的法則に従うことから、コンピュータグラフ
ィックスアニメーション、特に臨場感通信会議システム
における図11の合成部13においても対象となる物体
のモーションルールは、物理的定義に従うべきである。
EXAMPLE Since the motion of the object of interest in the natural world follows the physical law, the motion rule of the object of interest is also in computer graphics animation, especially in the synthesizing unit 13 of FIG. 11 in the immersive communication conference system. , Should follow the physical definition.

【0037】たとえば、人物の自然な顔の表情や実時間
における微妙な動作は、顔面の表層に存在する表情筋に
基づくところが極めて多い。このことが考慮された上
で、表情筋の筋肉モデルとそのモーションルールを動作
方法として定義することも、臨場感通信会議システムに
おける合成部13では必要とされる。そのため、各筋肉
の動作特性に基づいた各筋肉固有の運動方程式または伝
達関数が忠実に定義されることが重要な課題となる。
For example, a person's natural facial expression and subtle movements in real time are very often based on facial muscles existing on the surface of the face. In consideration of this, it is also necessary for the synthesizing unit 13 in the immersive teleconferencing system to define the muscle model of the facial expression muscle and its motion rule as the operation method. Therefore, it is an important task to faithfully define the equation of motion or transfer function unique to each muscle based on the motion characteristics of each muscle.

【0038】一方、自然界において対象となる物体の持
つ位置、変位、速度、加速度などの連続量(アナログ
量)で計測されるさまざまのデータが処理されるべくデ
ジタル計算機でシミュレーションを行なう際には、これ
らのデータは離散化(デジタル化)される。そこで、前
述したような従来の位相幾何学における時変ホモトピー
に基づく数学的定義に、自然界における物理的定義を相
互に補足し組合わせて、新たなデジタル制御理論に基づ
いた時変ホモトピーを提案する。以下に、その新たな時
変ホモトピーの定義について説明する。
On the other hand, when simulating with a digital computer so that various data measured by continuous quantity (analog quantity) such as position, displacement, velocity, acceleration, etc. of a target object in nature are processed, These data are discretized (digitized). Therefore, we propose a new time-varying homotopy based on the new digital control theory by complementing and combining the mathematical definition based on the time-varying homotopy in the conventional topological geometry with the physical definition in the natural world. . The definition of the new time-varying homotopy will be described below.

【0039】[連続時間における線形不変システム]時
変ホモトピーで用いるブレンディング関数Rn (v)で
あって第(9)式に基づく条件を満足するものとして、
デジタル制御システムにおいて線形時不変システムであ
る直流サーボモータの応答出力が挙げられる。
[Linear Invariant System in Continuous Time] Assuming that the blending function R n (v) used in the time-varying homotopy satisfies the condition based on the equation (9),
The response output of a DC servomotor, which is a linear time-invariant system in a digital control system, can be mentioned.

【0040】図1は、直流サーボモータについて説明す
るための図である。直流サーボモータ21においてJは
負荷も含めた回転子23の慣性モーメント、Rは電機子
の抵抗、Dは軸受の粘性摩擦係数、uは入力電圧、Kは
パワーアンプ27の電圧増幅率、Mはモータ29のモー
タ定数とする。さらに電機子のインダクタンスは無視で
きるものとし、界磁は永久磁石で構成された低励磁制御
とする。
FIG. 1 is a diagram for explaining a DC servo motor. In the DC servomotor 21, J is the moment of inertia of the rotor 23 including the load, R is the resistance of the armature, D is the viscous friction coefficient of the bearing, u is the input voltage, K is the voltage amplification factor of the power amplifier 27, and M is The motor constant of the motor 29 is used. Further, the inductance of the armature is negligible, and the field is low excitation control composed of permanent magnets.

【0041】直流サーボの原理に従うと、電機子の送起
電力がM(dθ/dt)であることから、第(12)式
が成立する。さらに、発生トルクはMiであることか
ら、第(13)式が成立する。そこで、第(12)式お
よび第(13)式より電流iが消去された後に、x1
θ、x2 =dθ/dtとおくと、第(14)式が成立す
る。したがって、出力yは第(15)式のように表され
る。第(15)式のx1とx2 のそれぞれは、回転子の
回転角度と、回転角速度を表している。
According to the principle of DC servo, since the electromotive force of the armature is M (dθ / dt), the equation (12) is established. Further, since the generated torque is Mi, the equation (13) is established. Therefore, after the current i is erased from the equations (12) and (13), x 1 =
When θ and x 2 = dθ / dt are set, the equation (14) is established. Therefore, the output y is expressed by the equation (15). Each of x 1 and x 2 in the equation (15) represents the rotation angle of the rotor and the rotation angular velocity.

【0042】次に、第(14)式および第(15)式を
簡単にするために、第(16)式に示すように、定数p
c 、ベクトルxc ↑、cc ↑、bc ↑、そして行列Ac
を定める。第(16)式を、第(14)式および第(1
5)式に代入すると、直流サーボモータの連続時間系に
おける状態方程式は、第(17)式のように表される。
そして、伝達関数Gc (s)は、第(18)式のように
なり、その極は0,−pc となり、零点は存在しない。
ここに、第(18)式においてYc (s)とU c (s)
は、第(17)式のyとuのラプラス変換によって得ら
れる。
Next, the equations (14) and (15) are
For simplicity, as shown in the equation (16), the constant p
c, Vector xc↑, cc↑, bc↑, and matrix Ac
Determine. Expression (16) is replaced by Expression (14) and Expression (1
Substituting into equation (5), the continuous time system of the DC servo motor
The equation of state in the equation is expressed by the equation (17).
And the transfer function Gc(S) is expressed by the equation (18).
And its pole is 0, -pcAnd there is no zero.
Here, in the formula (18), Yc(S) and U c(S)
Is obtained by the Laplace transform of y and u in equation (17).
Be done.

【0043】一方で、第(18)式で示すような連続時
間系の伝達関数Gc (s)は、以下に示す運動方程式か
ら導出されることも可能である。たとえば、コンピュー
タグラフィックスにおける顔表情生成の際、Terzo
polousは、解剖学的見地に基づき、表情筋に基づ
いてワイヤフレームを構成する各ノードの運動方程式を
第(19)式に示すように定義した。ただし、ここで
は、簡便のために、各ノードにおける一次元の運動方程
式について述べており、mn は各ノードの質量、gn
n ,hn ,fn は各ノードに加わるさまざまな外力、
γn は減衰定数、cn はばね定数、xncは各ノードの変
位量とする。
On the other hand, the transfer function G c (s) of the continuous time system as shown in the expression (18) can be derived from the following equation of motion. For example, when generating facial expressions in computer graphics, Terzo
Poulous was defined based on the anatomical viewpoint, and the equation of motion of each node constituting the wire frame based on the facial muscles was defined as shown in the equation (19). However, for simplicity, a one-dimensional equation of motion at each node is described here, where m n is the mass of each node, g n ,
q n , h n , and f n are various external forces applied to each node,
γ n is a damping constant, c n is a spring constant, and x nc is a displacement amount of each node.

【0044】第(19)式において、xnc=xnc1 、d
nc/dt=xnc2 とすると、人物顔画像のワイヤフレ
ームを構成する各ノードの運動方程式に対する連続時間
系の運動方程式は、第(20)式のように表される。ま
た、出力yncを変位量と見なすと、そのyncは第(2
1)式のように表される。ここで、定数unc、ベクトル
nc↑、bnc↑、cnc↑、そして行列Ancを第(22)
式のように定める。
In the equation (19), x nc = x nc1 , d
When x nc / dt = x nc2 , the motion equation of the continuous-time system with respect to the motion equation of each node forming the wire frame of the human face image is expressed as in Expression (20). Further, when the output y nc is regarded as the displacement amount, the y nc becomes the second (2
It is expressed as in equation (1). Here, the constant u nc , the vector x nc ↑, b nc ↑, c nc ↑, and the matrix A nc are set to (22)
Set like the formula.

【0045】第(22)式を第(20)式および第(2
1)式に代入すると、状態方程式である第(20)式お
よび第(21)式は、第(23)式のようになる。各ノ
ードの運動方程式に対する連続時間系の伝達関数G
nc(s)は、第(24)式で表される。
The expression (22) is replaced by the expression (20) and the expression (2)
Substituting into equation (1), equations (20) and (21), which are state equations, become equation (23). Transfer function G of continuous time system for equation of motion of each node
nc (s) is expressed by the equation (24).

【0046】連続時間系における線形時不変システムの
状態方程式である第(17)式および第(23)式によ
り、第(25)式が仮定できるならば、伝達関数も、第
(18)式と第(24)式により、第(26)式が成立
する。すなわち、第(25)式の仮定が成り立つ場合、
前述した直流サーボモータの連続時間系における線形時
不変システムと人物顔画像のワイヤフレームを構成する
各ノードの持つ連続時間系における線形時不変システム
は等価であると見なされる。よって、以下ではこの仮定
の基に説明する。
If the equation (25) can be assumed by the equations (17) and (23) which are the state equations of the linear time-invariant system in the continuous time system, the transfer function is also the equation (18). The expression (26) is established by the expression (24). That is, when the assumption of the equation (25) holds,
The linear time invariant system in the continuous time system of the DC servo motor and the linear time invariant system in the continuous time system of each node constituting the wireframe of the human face image are considered to be equivalent. Therefore, the description will be given below based on this assumption.

【0047】[0047]

【数2】 [Equation 2]

【0048】[0048]

【数3】 (Equation 3)

【0049】[離散時間時間系における線形時不変シス
テム]コンピュータグラフィックスで動画像を生成する
ことは、デジタル計算機における一種のシミュレーショ
ンである。コンピュータグラフィックスで対象となる物
体の持つさまざまなデータは離散化(デジタル化)され
る。そのため、連続時間系における力学、制御などの物
理的定義は、すべて離散的に処理される必要がある。そ
こで、連続時間系の信号u[t]、x↑[t]、y
[t]がサンプル周期Tでサンプリングされ、離散時間
系の信号u(i)、x↑(i)、y(i)にA/D変換
されるものとすると、これらの各信号は、第(27)式
で表される。そして、第(28)式のようにベクトルb
↑,c↑と行列Aを定める。
[Linear Time Invariant System in Discrete Time System] Generating a moving image by computer graphics is a kind of simulation in a digital computer. In computer graphics, various data of the target object is discretized (digitized). Therefore, all physical definitions such as dynamics and control in a continuous time system need to be processed discretely. Therefore, continuous time signals u [t], x ↑ [t], y
If [t] is sampled at a sampling period T and is A / D converted into signals u (i), x ↑ (i), y (i) in the discrete time system, these signals are It is expressed by the equation (27). Then, as in equation (28), the vector b
↑, c ↑ and matrix A are defined.

【0050】この第(27)式および第(28)式を第
(17)式に代入すると、離散時間系における線形時不
変システムの状態方程式は、第(29)式で表される。
By substituting the expressions (27) and (28) into the expression (17), the state equation of the linear time-invariant system in the discrete time system is expressed by the expression (29).

【0051】ここで、線形時不変システムである直流モ
ータの応答出力が、時変ホモトピーにおいて定義したブ
レンディング関数として取扱うべく、具体的に次のよう
な定義を行なう。すなわち、前述の直流サーボモータに
おいて、第(16)式に対して、M,R,K,J,Dが
第(30)式を満たすとすると、第(16)式のAc
c ↑は第(31)式に示すようになる。そして、この
連続時間系を離散時間系に変換すべく、第(28)式に
より、第(31)式のAc とbc ↑は、第(32)式と
なる。
Here, in order to handle the response output of the DC motor, which is a linear time-invariant system, as a blending function defined in the time-varying homotopy, the following definition is specifically made. That is, in the above-mentioned DC servo motor, assuming that M, R, K, J, and D satisfy the expression (30) with respect to the expression (16), A c and b c ↑ of the expression (16). Becomes as shown in Expression (31). Then, in order to convert this continuous time system into a discrete time system, according to the equation (28), A c and b c ↑ in the equation (31) become the equation (32).

【0052】さらに、この離散時間系において、入力で
あるu(i)を第(33)式のように定め、応答出力y
(i)を求めると、その関係は図2に示すように得られ
る。図2では、入力u(i)、出力y(i)の他にも、
速度dy(i)/di、関数Bld(i)が示されてい
る。
Further, in this discrete time system, the input u (i) is determined as in the equation (33), and the response output y
When (i) is obtained, the relationship is obtained as shown in FIG. In FIG. 2, in addition to the input u (i) and the output y (i),
The speed dy (i) / di and the function Bld (i) are shown.

【0053】図2の出力y(i)から、さらに明らか
に、速度dy(i)/diから、第(34)式が満たさ
れることが容易にわかる。さらに、この応答出力y
(i)が正規化されるべく関数Bld(i)が第(3
5)式のように定められると、関数Bld(i)は、第
(36)式を満足している。このことは、図2からも明
らかである。
From the output y (i) in FIG. 2 and, more clearly, the velocity dy (i) / di, it is easily seen that the equation (34) is satisfied. Furthermore, this response output y
The function Bld (i) is the third (3) so that (i) is normalized.
When defined by the equation (5), the function Bld (i) satisfies the equation (36). This is also clear from FIG.

【0054】第(34)式は第(9)式に相応し、第
(36)式は第(8)式に相応することから、この離散
時間系における線形時不変システムの応答出力y(i)
が正規化されることにより定義された関数Bld(i)
は、前述した時変ホモトピーにおいて定義したブレンデ
ィング関数のうち条件式である第(9)式を満たすブレ
ンディング関数と見なすことが可能である。
Since the equation (34) corresponds to the equation (9) and the equation (36) corresponds to the equation (8), the response output y (i) of the linear time invariant system in this discrete time system is shown. )
The function Bld (i) defined by normalizing
Can be regarded as a blending function that satisfies the conditional expression (9) among the blending functions defined in the time-varying homotopy described above.

【0055】このように離散時間系における線形時不変
システムから導出した新たなブレンディング関数Bld
(i)が用いられてコンピュータグラフィックスにおけ
る対象となる物体の動作の制御を行なうことは、第(2
5)式が成立する限り、運動方程式である第(19)式
に基づくワイヤフレームモデルの各ノードを動作させる
ことと同様である。したがって、ここで提案される時変
ホモトピーは、従来の位相幾何学の数学的定義に基づい
た時変ホモトピーでなく、自然界における物理的定義を
その数学的定義に基づいた時変ホモトピーに対して相互
に補足して組合わせることで、デジタル計算機における
必然的なデータの離散化を考慮したデジタル制御理論に
基づくものとなっている。
In this way, the new blending function Bld derived from the linear time-invariant system in the discrete time system
Using (i) to control the motion of a target object in computer graphics is described in (2)
As long as expression (5) is satisfied, it is the same as operating each node of the wire frame model based on expression (19), which is a motion equation. Therefore, the time-varying homotopy proposed here is not a time-varying homotopy based on the conventional mathematical definition of topological geometry, but a physical definition in nature to a time-varying homotopy based on the mathematical definition. It is based on a digital control theory that takes into account the inevitable discretization of data in a digital computer.

【0056】そのため、ここで提案される時変ホモトピ
ーにより、従来でも可能であったコンピュータグラフィ
ックスにおける対象物体の図18に示すような1階微分
が不連続な面の静的形状および図19に示すような1階
微分が連続の面の静的形状を容易に生成でき、さらに図
20に示すような対象物体の実時間における動作を生成
できるだけでなく、より自然に対象物体の自然な動作を
生成することができるようになる。
Therefore, according to the time-varying homotopy proposed here, the static shape of the surface in which the first derivative is discontinuous as shown in FIG. 18 and the surface of the target object in computer graphics which has been possible in the past and in FIG. Not only can the static shape of the surface having the first-order differential as shown in the figure be easily generated, and the motion of the target object in real time as shown in FIG. Will be able to generate.

【0057】そこで、以下にデジタル制御理論に基づい
た時変ホモトピーを用いたコンピュータグラフィックス
アニメーションの応用例を示す。その応用例としては、
シリンダモーション、人物顔画像において額を動作させ
るときのしわの生成、および口の開閉を示す。これらの
対象物体の動画像生成は、前述したような図11の臨場
感通信会議システムにおける合成部13で有効性を発揮
すると思われる。
Therefore, an application example of computer graphics animation using time-varying homotopy based on the digital control theory will be shown below. As an application example,
Fig. 7 shows cylinder motion, generation of wrinkles when moving a forehead in a human face image, and opening and closing of the mouth. It is considered that the moving image generation of these target objects is effective in the synthesizing unit 13 in the presence communication conference system of FIG. 11 as described above.

【0058】[0058]

【数4】 [Equation 4]

【0059】[シリンダモーション]図3は、実時間で
動作するシリンダの時系列連続画像を示した図であり、
図4は、図3の実時間で動作するシリンダに対しての入
力u(i)、出力y(i)およびブレンディング関数B
ld(i)を示したグラフである。図3(a)は、t=
0の場合のシリンダの状態を示した図であり、図4にお
けるi=0に対応している。図3(j)はt=1の場合
のシリンダの状態を示した図であり、図4のi=20に
対応している。そして、図3(b)から図3(i)は、
図4のi=0からi=20が10分割された場合のそれ
ぞれのシリンダの状態を示した図となっている。
[Cylinder Motion] FIG. 3 is a diagram showing a time-series continuous image of a cylinder operating in real time.
FIG. 4 shows the input u (i), the output y (i) and the blending function B for the cylinder operating in real time in FIG.
3 is a graph showing ld (i). In FIG. 3A, t =
FIG. 5 is a diagram showing a state of the cylinder in the case of 0, which corresponds to i = 0 in FIG. 4. FIG. 3 (j) is a diagram showing the state of the cylinder when t = 1, and corresponds to i = 20 in FIG. 3 (b) to 3 (i),
FIG. 5 is a diagram showing the state of each cylinder when i = 0 to i = 20 in FIG. 4 is divided into 10.

【0060】図3の点の集合で構成されるシリンダ31
の底面33の中心位置に、図4の入力u(i)で表され
るような外力fが実時間で与えられたとする。このと
き、第(29)式に従う離散時間の線形時不変システム
より導出されたブレンディング関数Bld(i)が図4
に示すように得られ、そのブレンディング関数Bld
(i)による時変ホモトピーに基づいて、シリンダ31
は実時間で図3に示すように動作を変化する。
A cylinder 31 composed of a set of points in FIG.
It is assumed that an external force f as represented by the input u (i) in FIG. 4 is applied in real time to the center position of the bottom surface 33 of the. At this time, the blending function Bld (i) derived from the discrete-time linear time-invariant system according to the equation (29) is shown in FIG.
, And its blending function Bld
Based on the time-varying homotopy according to (i), the cylinder 31
Changes its operation in real time as shown in FIG.

【0061】図3に示すシリンダの動作生成では、図2
0に示すシリンダの動作生成と外見上あまり違いが見ら
れない。しかしながら、図3に示されるシリンダの動作
生成は、図20に示すシリンダの動作生成と異なり、図
4に示されるような入力u(i)(外力)が与えられ
て、その外力に応じて動作生成を行なっている。
In the motion generation of the cylinder shown in FIG.
There is not much difference in appearance from the motion generation of the cylinder shown in 0. However, unlike the operation generation of the cylinder shown in FIG. 20, the operation generation of the cylinder shown in FIG. 3 is given an input u (i) (external force) as shown in FIG. 4 and operates according to the external force. It is generating.

【0062】[顔のしわの動作生成]図5は、実時間に
おける顔のしわの時系列連続画像を示した図であり、図
6は、図5に示される顔のしわの動作生成における入力
u(i)、出力y(i)およびブレンディング関数Bl
d(i)を示したグラフである。図5(a)は、時刻t
=0の場合の顔のしわの状態を示した図であり、図6の
i=0に対応した図である。図5(a)は、時刻t=1
の場合の顔のしわの状態を示した図であり、図6のi=
20に対応した図である。図5(b)から図5(i)
は、図6のi=0からi=20が10分割されたうちの
それぞれの顔のしわの状態を示した図である。
[Facial Wrinkle Motion Generation] FIG. 5 is a diagram showing a time-series continuous image of face wrinkles, and FIG. 6 is an input in the face wrinkle motion generation shown in FIG. u (i), output y (i) and blending function Bl
6 is a graph showing d (i). FIG. 5A shows time t.
FIG. 7 is a diagram showing a wrinkled state of a face when = 0, and a diagram corresponding to i = 0 in FIG. 6. In FIG. 5A, time t = 1
7 is a diagram showing the state of wrinkles of the face in the case of
It is a figure corresponding to 20. 5 (b) to 5 (i)
FIG. 7 is a diagram showing the wrinkle state of each face of i = 0 to i = 20 of FIG. 6 divided into 10.

【0063】コンピュータグラフィックスで三次元人物
顔画像において額35を引上げる際に引上げる方向に、
図6の入力u(i)で示される外力fが加えられるもの
とする。前述した離散時間系の非線形時不変システムか
ら導出されるブレンディング関数に基づく時変ホモトピ
ーによって、変位量が算出される。それを基に、人物顔
画像を構成するワイヤフレームの額面部に位置する各ノ
ードの変位量が決定され、図5に示されるようにその実
時間における動作の生成が行なわれ、しわ37が生成さ
れた。
In the direction of pulling up the forehead 35 in the three-dimensional human face image by computer graphics,
It is assumed that the external force f indicated by the input u (i) in FIG. 6 is applied. The displacement amount is calculated by the time-varying homotopy based on the blending function derived from the non-linear time-invariant system of the discrete time system described above. Based on this, the displacement amount of each node located in the face surface portion of the wire frame forming the human face image is determined, and as shown in FIG. 5, the motion is generated in real time and the wrinkles 37 are generated. It was

【0064】[口の開閉の動作生成]図7は、口の開閉
の動作生成の時系列連続画像を示した図であり、図8
は、図7(a)から図7(j)のそれぞれに対応したワ
イヤフレームモデルを示した図である。図7(a)は時
刻t=0の場合の人物顔画像を示した図であり、図7
(j)は、時刻t=1の場合の人物顔画像を示した図で
ある。
[Mouth Opening / Closing Motion Generation] FIG. 7 is a diagram showing time-series continuous images of the mouth opening / closing motion generation, and FIG.
FIG. 8 is a diagram showing a wireframe model corresponding to each of FIGS. 7A to 7J. FIG. 7A is a diagram showing a human face image at time t = 0.
(J) is a diagram showing a human face image at time t = 1.

【0065】図8の口のまわり39に特徴点が16点定
められる。各特徴点ごとに外力、離散時間系における線
形時不変システムを構成する伝達関数、ブレンディング
関数が定義される。外力は、簡単に説明すれば口の開口
の中心から放射線状に働いている。これにより、図8に
示すようにワイヤフレームモデルは、口を開き、図7に
示されるように人物顔画像の人物は口を開いた。
Sixteen characteristic points are defined around the mouth 39 in FIG. An external force, a transfer function that constitutes a linear time-invariant system in a discrete time system, and a blending function are defined for each feature point. Briefly, the external force acts radially from the center of the mouth opening. As a result, the wireframe model opened the mouth as shown in FIG. 8, and the person in the human face image opened the mouth as shown in FIG. 7.

【0066】図9は、本発明の一実施例によるコンピュ
ータグラフィックスにおける動作生成方法のフロー図で
ある。
FIG. 9 is a flow chart of a motion generation method in computer graphics according to an embodiment of the present invention.

【0067】ステップ(図面ではSで表わす)1におい
て、時刻t=0,時刻t=1のそれぞれのときの位置ベ
クトルが入力される。時刻t=0,t=1は、前述した
ように図4に示す関数においてはi=0であり、時刻t
=1は図4におけるi=20となる。同様に、図6に示
される関数においては、時刻t=0はi=0であり、時
刻t=1はi=20となる。
In step (denoted by S in the drawing) 1, position vectors at time t = 0 and time t = 1 are input. At times t = 0 and t = 1, as described above, i = 0 in the function shown in FIG.
= 1 is i = 20 in FIG. Similarly, in the function shown in FIG. 6, time t = 0 is i = 0, and time t = 1 is i = 20.

【0068】そして、図3における位置ベクトルは、シ
リンダ31自体が点の集合であるため、その各点の位置
ベクトルである。これにより、各点の位置ベクトルが時
刻t=0から時刻t=1に至る間に動作生成すること
で、シリンダ31が動作生成している。
The position vector in FIG. 3 is the position vector of each point because the cylinder 31 itself is a set of points. As a result, the position vector of each point generates motion between the time t = 0 and the time t = 1, whereby the cylinder 31 generates motion.

【0069】また、図7における位置ベクトルとは、図
8に示されるワイヤフレームモデルの各ノードの位置ベ
クトルであり、位置ベクトルが時刻t=0から時刻t=
1に至る間に動作生成することで、ワイヤフレームモデ
ルが動作生成する。これにより、図7に示すように人物
顔画像に対しても動作生成されている。同様に、図5に
示す位置ベクトルは、図示していないがワイヤフレーム
モデルの各ノードの位置ベクトルである。
The position vector in FIG. 7 is the position vector of each node of the wire frame model shown in FIG. 8, and the position vector is from time t = 0 to time t =
By generating the motion while reaching 1, the motion of the wire frame model is generated. As a result, the motion is generated even for the human face image as shown in FIG. 7. Similarly, the position vector shown in FIG. 5 is a position vector of each node of the wire frame model, which is not shown.

【0070】次に、ステップ2において、物理的定義に
基づいてブレンディング関数が定義される。この物理的
定義としては、たとえばコンピュータグラフィックスで
動作する対象物体に働く外力や、前述したような伝達関
数が挙げられる。
Next, in step 2, the blending function is defined based on the physical definition. The physical definition includes, for example, an external force acting on a target object that operates in computer graphics, and the transfer function described above.

【0071】ステップ3において、時刻t=tのときの
位置ベクトルが求められる。時刻t=tは、図3におい
ては図3(b)から図3(i)のそれぞれであり、位置
ベクトルはシリンダ31を構成する各点の位置ベクトル
である。図7の場合におけるt=tは、図7(b)から
図7(i)のそれぞれであり、位置ベクトルは図8のワ
イヤフレームモデルを構成する各ノードの位置ベクトル
である。同様に、図5におけるt=tは、図5(b)か
ら図5(i)のそれぞれであり、位置ベクトルは図示し
ていないワイヤフレームモデルの各ノードの位置ベクト
ルである。このステップ3によって、対象物体(シリン
ダ,ワイヤフレームモデル)を構成する点の位置ベクト
ルが求められるので、その点についてすべての位置ベク
トルが求められることで、対象物体の動作が生成され
る。
In step 3, the position vector at time t = t is obtained. Time t = t corresponds to each of FIGS. 3B to 3I in FIG. 3, and the position vector is the position vector of each point forming the cylinder 31. In the case of FIG. 7, t = t is each of FIG. 7 (b) to FIG. 7 (i), and the position vector is the position vector of each node forming the wire frame model of FIG. Similarly, t = t in FIG. 5 is each of FIG. 5 (b) to FIG. 5 (i), and the position vector is the position vector of each node of the wire frame model (not shown). By this step 3, since the position vectors of the points forming the target object (cylinder, wire frame model) are obtained, by calculating all the position vectors for the points, the motion of the target object is generated.

【0072】このように、数学的定義のみならず物理的
定義をも考慮した新たな時変ホモトピーが定義されて、
コンピュータグラフィックスにおいて対象となる対象物
体のきわめて良好かつ自然な実時間における動作が生成
される。
In this way, a new time-varying homotopy is defined that takes into account not only the mathematical definition but also the physical definition.
Very good and natural real-time motions of target objects of interest in computer graphics are generated.

【0073】より詳しく説明すると、新たな時変ホモト
ピーは、従来の数学的定義と、力学を元にした運動方程
式による物理的定義とが相互に補足されつつ組合わされ
て定義されており、特に、デジタル制御理論に基づく離
散時間系における線形時不変システムを記述できる状態
方程式で外力が定義され、出力が正規化されることでブ
レンディング関数が導出されている。ただし、新たに提
案された時変ホモトピーで定義した離散時間系における
線形時不変システムの安定条件、可制御、可観測などが
考慮された上でコンピュータグラフィックスにおける対
象物体のより安定した挙動が生成されれば今後はよいと
思われる。
More specifically, the new time-varying homotopy is defined by combining the conventional mathematical definition and the physical definition by the equation of motion based on dynamics, complementing each other. An external force is defined by a state equation that can describe a linear time-invariant system in a discrete-time system based on digital control theory, and the output is normalized to derive a blending function. However, a more stable behavior of the target object in computer graphics is generated after considering the stability conditions, controllability, observability, etc. of the linear time-invariant system in the discrete time system defined by the newly proposed time-varying homotopy. If it is done, it will be good in the future.

【0074】したがって、このようなデジタル制御理
論、またはデジタル信号処理は、臨場感通信会議システ
ムを構築する際に、特に図11の合成部13において大
きな貢献を行なうと思われる。
Therefore, it is considered that such digital control theory or digital signal processing will make a great contribution especially when constructing the realistic communication conference system, particularly in the synthesizing section 13 of FIG.

【0075】次に、従来の時変ホモトピーと本発明で提
案された時変ホモトピーについての違いについてまとめ
る。
Next, the differences between the conventional time-varying homotopy and the time-varying homotopy proposed in the present invention will be summarized.

【0076】1.従来の時変ホモトピーでは、コンピュ
ータグラフィックスで動作する対象物体に働く外力を定
義することができなかったが、新たな時変ホモトピーで
は、その外力を定義できる。
1. In the conventional time-varying homotopy, the external force acting on the target object that operates in computer graphics could not be defined, but in the new time-varying homotopy, the external force can be defined.

【0077】2.従来の時変ホモトピーでは、ブレンデ
ィング関数を定義する際に伝達関数を定義することがで
きなかったが、新たな時変ホモトピーでは、その伝達関
数を定義できる。
2. In the conventional time-varying homotopy, the transfer function could not be defined when defining the blending function, but in the new time-varying homotopy, the transfer function can be defined.

【0078】3.1と2より、従来数学的定義に留まっ
ていた時変ホモトピーに物理的定義を加えて、相補させ
つつ組合わせて、コンピュータグラフィックスにおいて
対象となる物体の、より自然でかつ実時間の動作を表示
することが可能となり、時変ホモトピーが数学的定義に
留まっていたときよりはるかに多くの応用が期待され
る。
From 3.1 and 2, by adding a physical definition to the time-varying homotopy, which was conventionally limited to a mathematical definition, and combining them while complementing each other, a more natural and It is possible to display real-time behavior, and much more applications are expected than when the time-varying homotopy remained in its mathematical definition.

【0079】[0079]

【発明の効果】以上のようにこの発明によれば、コンピ
ュータグラフィックスにおける対象となる対象物体を構
成する点の第1の時刻での位置ベクトルが与えられ、点
の第2の時刻での位置ベクトルが与えられ、第1の時刻
での位置ベクトルと第2の時刻での位置ベクトルとの混
合の割合を示す混合関数が定義され、定義された混合関
数に基づいて第1の時刻および第2の時刻間の所定の時
刻での位置ベクトルが求められて、点の動作が生成さ
れ、物理的に定義された時変ホモトピーに基づいて対象
物体の動作が生成されるので、コンピュータグラフィッ
クスにおいて対象となる対象物体の極力自然でかつ実時
間の動作を生成することが可能となる。
As described above, according to the present invention, a position vector at a first time of a point constituting a target object which is a target in computer graphics is given, and a position of the point at a second time is given. A vector is provided, and a mixing function is defined that indicates a mixing ratio of the position vector at the first time and the position vector at the second time, and the first time and the second time are defined based on the defined mixing function. Since the position vector at a predetermined time between the times of is generated and the motion of the point is generated and the motion of the target object is generated based on the physically defined time-varying homotopy, the target in computer graphics It is possible to generate a natural and real-time motion of the target object as much as possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】直流サーボモータの原理を説明するための図で
ある。
FIG. 1 is a diagram for explaining the principle of a DC servo motor.

【図2】離散時間系における入力u(i)、入力u
(i)の値をiに応じて1,2,0に変化させた場合の
出力y(i)、速度dy(i)/diおよびブレンディ
ング関数Bld(i)の値を示したグラフである。
FIG. 2 is an input u (i), an input u in a discrete time system.
6 is a graph showing the values of output y (i), speed dy (i) / di, and blending function Bld (i) when the value of (i) is changed to 1, 2, 0 according to i.

【図3】物理的定義に基づいた時変ホモトピーによる実
時間で動作するシリンダの時系列連続画像を示した図で
ある。
FIG. 3 is a diagram showing a time-series continuous image of a cylinder operating in real time by time-varying homotopy based on a physical definition.

【図4】図3に示されたシリンダの動作生成に対しての
入力u(i)、出力y(i)およびブレンディング関数
Bld(i)を示したグラフである。
4 is a graph showing an input u (i), an output y (i) and a blending function Bld (i) for motion generation of the cylinder shown in FIG.

【図5】物理的定義に基づく時変ホモトピーによる実時
間で動作する顔のしわの時系列連続画像を示した図であ
る。
FIG. 5 is a diagram showing a time series continuous image of a wrinkle of a face operating in real time by time-varying homotopy based on a physical definition.

【図6】図5に示された顔のしわの動作生成に対しての
入力u(i)、出力y(i)およびブレンディング関数
Bld(i)を示したグラフである。
6 is a graph showing an input u (i), an output y (i), and a blending function Bld (i) for the facial wrinkle motion generation shown in FIG.

【図7】物理的定義に基づく時変ホモトピーによる実時
間で動作する口の開閉の時系列連続画像を示した図であ
る。
FIG. 7 is a diagram showing a time-series continuous image of opening and closing of a mouth operating in real time by time-varying homotopy based on physical definition.

【図8】図7に示された口の開閉の動作生成に対しての
三次元ワイヤフレームモデルの状態を示した図である。
FIG. 8 is a diagram showing a state of the three-dimensional wire frame model with respect to the mouth opening / closing motion generation shown in FIG. 7;

【図9】この発明の一実施例によるコンピュータグラフ
ィックスにおける動作生成方法を示したフロー図であ
る。
FIG. 9 is a flowchart showing a motion generation method in computer graphics according to an embodiment of the present invention.

【図10】臨場感通信会議の状態を示した図である。FIG. 10 is a diagram showing a state of a realistic communication conference.

【図11】臨場感通信会議システムの装置概略ブロック
図である。
FIG. 11 is a schematic block diagram of a device of a realistic communication conference system.

【図12】顔の表情筋の構造を示した図である。FIG. 12 is a diagram showing the structure of facial expression muscles.

【図13】三次元ワイヤフレームモデルを示した図であ
る。
FIG. 13 is a diagram showing a three-dimensional wire frame model.

【図14】位相幾何学(トポロジー)におけるホモトピ
ーを説明するための図である。
FIG. 14 is a diagram for explaining homotopy in topology (topology).

【図15】従来の数学的定義に基づく時変ホモトピーを
説明するための図である。
FIG. 15 is a diagram for explaining time-varying homotopy based on a conventional mathematical definition.

【図16】ブレンディング関数Rn (v)の一例を示し
たグラフである。
FIG. 16 is a graph showing an example of a blending function R n (v).

【図17】ブレンディング関数Rn (v)の他の例を示
したグラフである。
FIG. 17 is a graph showing another example of the blending function R n (v).

【図18】図16に示されるブレンディング関数R
n (v)によって得られる物体の静的形状の1階微分が
不連続な面を示した図である。
FIG. 18 is a blending function R shown in FIG.
It is the figure which showed the surface where the 1st derivative of the static shape of the object obtained by n (v) was discontinuous.

【図19】図17に示されるブレンディング関数R
n (v)によって得られる物体の静的形状の1階微分が
連続な面の形状を示した図である。
FIG. 19 is a blending function R shown in FIG.
It is the figure which showed the shape of the surface where the 1st derivative of the static shape of the object obtained by n (v) is continuous.

【図20】従来の数学的定義に基づく時変ホモトピーに
よって得られるシリンダの実時間における動作生成を示
した図である。
FIG. 20 is a diagram showing real-time motion generation of a cylinder obtained by time-varying homotopy based on a conventional mathematical definition.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 時変ホモトピーに基づいて対象物体の動
作を生成するために、前記対象物体を構成する点の動作
を生成するコンピュータグラフィックスにおける動作生
成方法であって、 前記時変ホモトピーは物理的に定義され、 前記点の第1の時刻での位置ベクトルが与えられ、前記
点の第2の時刻での位置ベクトルが与えられる第1のス
テップと、 前記第1のステップで与えられた前記点の第1の時刻で
の位置ベクトルと前記点の第2の時刻での位置ベクトル
との混合の割合を示す混合関数を定義する第2のステッ
プと、 前記第2のステップで定義された混合関数に基づいて、
前記点の前記第1の時刻および前記第2の時刻間の所定
の時刻での位置ベクトルを求める第3のステップとを含
む、コンピュータグラフィックスにおける動作生成方
法。
1. A motion generation method in computer graphics for generating a motion of a target object based on a time-varying homotopy, the motion generating method in computer graphics, wherein the time-varying homotopy is a physical property. Defined firstly, a position vector at a first time of the point is given, and a position vector at a second time of the point is given, and the step given in the first step A second step of defining a mixing function indicating a mixing ratio of the position vector of the point at the first time and the position vector of the point at the second time; and the mixing defined in the second step. Based on the function
A third step of obtaining a position vector of the point at a predetermined time between the first time and the second time, the motion generating method in computer graphics.
【請求項2】 前記時変ホモトピーは、前記混合関数を
定義するための伝達関数を定義する、請求項1記載のコ
ンピュータグラフィックスにおける動作生成方法。
2. The motion generation method in computer graphics according to claim 1, wherein the time-varying homotopy defines a transfer function for defining the mixing function.
【請求項3】 前記時変ホモトピーは、前記対象物体に
加わる外力を定義する、請求項1記載のコンピュータグ
ラフィックスにおける動作生成方法。
3. The motion generation method in computer graphics according to claim 1, wherein the time-varying homotopy defines an external force applied to the target object.
JP19044694A 1994-08-12 1994-08-12 Action generation method in computer graphics Expired - Fee Related JP2739434B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19044694A JP2739434B2 (en) 1994-08-12 1994-08-12 Action generation method in computer graphics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19044694A JP2739434B2 (en) 1994-08-12 1994-08-12 Action generation method in computer graphics

Publications (2)

Publication Number Publication Date
JPH0855241A true JPH0855241A (en) 1996-02-27
JP2739434B2 JP2739434B2 (en) 1998-04-15

Family

ID=16258273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19044694A Expired - Fee Related JP2739434B2 (en) 1994-08-12 1994-08-12 Action generation method in computer graphics

Country Status (1)

Country Link
JP (1) JP2739434B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0855233A (en) * 1994-08-15 1996-02-27 Atr Tsushin Syst Kenkyusho:Kk Operation display generating method by computer graphics
US5966141A (en) * 1996-09-03 1999-10-12 Monolith Co., Ltd. Apparatus and method for animation using topology
JP2001175881A (en) * 1999-12-13 2001-06-29 Internatl Business Mach Corp <Ibm> Morphing processor, morphing method, storage medium, program transmission device, and moving picture generating device
JP2009178575A (en) * 2009-05-18 2009-08-13 Namco Bandai Games Inc Game system and information storage medium
CN102816137A (en) * 2011-06-10 2012-12-12 中国石油化工集团公司 Preparation method of bisphenol A liquid epoxy resin

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0855233A (en) * 1994-08-15 1996-02-27 Atr Tsushin Syst Kenkyusho:Kk Operation display generating method by computer graphics
US5966141A (en) * 1996-09-03 1999-10-12 Monolith Co., Ltd. Apparatus and method for animation using topology
JP2001175881A (en) * 1999-12-13 2001-06-29 Internatl Business Mach Corp <Ibm> Morphing processor, morphing method, storage medium, program transmission device, and moving picture generating device
JP2009178575A (en) * 2009-05-18 2009-08-13 Namco Bandai Games Inc Game system and information storage medium
JP4729116B2 (en) * 2009-05-18 2011-07-20 株式会社バンダイナムコゲームス GAME SYSTEM AND INFORMATION STORAGE MEDIUM
CN102816137A (en) * 2011-06-10 2012-12-12 中国石油化工集团公司 Preparation method of bisphenol A liquid epoxy resin

Also Published As

Publication number Publication date
JP2739434B2 (en) 1998-04-15

Similar Documents

Publication Publication Date Title
Dai Virtual reality for industrial applications
Kennaway Synthetic animation of deaf signing gestures
Magnenat-Thalmann et al. Virtual humans: thirty years of research, what next?
WO2002080111A1 (en) Emotion-based 3-d computer graphics emotion model forming system
Ohya et al. Virtual space teleconferencing: Real-time reproduction of 3d human images
Capin et al. Realistic avatars and autonomous virtual humans in: VLNET networked virtual environments
Pighin et al. Facial motion retargeting
Wilhelms Virya-a motion control editor for kinematic and dynamic animation
KR100860375B1 (en) The Production method and system of Cartoon animation using Character animation and Mesh deformation
Ulgen A step towards universal facial animation via volume morphing
JP2739434B2 (en) Action generation method in computer graphics
EP0825560B1 (en) Method for generating animations
Pandzic et al. Towards natural communication in networked collaborative virtual environments
Duysak et al. Efficient modelling and simulation of soft tissue deformation using mass-spring systems
JP2739436B2 (en) Motion display generation method in computer graphics
Dervaux et al. Haptic rendering of interacting dynamic deformable objects simulated in real-time at different frequencies
Zhu et al. Design and realization of virtual classroom
Tang et al. Lip-sync in human face animation based on video analysis and spline models
Umenhoffer et al. Facial animation retargeting framework using radial basis functions
Savchenko et al. Feature based sculpting of functionally defined 3D geometric objects
JP2739447B2 (en) 3D image generator capable of expressing wrinkles
US20030083854A1 (en) Particle control using a path
Narang et al. Fbcrowd: Interactive multi-agent simulation with coupled collision avoidance and human motion synthesis
Marsland et al. Physics-based animation of a trotting horse in a virtual environment
Pandzic et al. Motor functions in the VLNET Body-Centered Networked Virtual Environment

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19971202

LAPS Cancellation because of no payment of annual fees