JP2739436B2 - Motion display generation method in computer graphics - Google Patents

Motion display generation method in computer graphics

Info

Publication number
JP2739436B2
JP2739436B2 JP6191604A JP19160494A JP2739436B2 JP 2739436 B2 JP2739436 B2 JP 2739436B2 JP 6191604 A JP6191604 A JP 6191604A JP 19160494 A JP19160494 A JP 19160494A JP 2739436 B2 JP2739436 B2 JP 2739436B2
Authority
JP
Japan
Prior art keywords
time
point
homotopy
vector
varying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6191604A
Other languages
Japanese (ja)
Other versions
JPH0855233A (en
Inventor
創一 梶原
Original Assignee
株式会社エイ・ティ・アール通信システム研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール通信システム研究所 filed Critical 株式会社エイ・ティ・アール通信システム研究所
Priority to JP6191604A priority Critical patent/JP2739436B2/en
Publication of JPH0855233A publication Critical patent/JPH0855233A/en
Application granted granted Critical
Publication of JP2739436B2 publication Critical patent/JP2739436B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、コンピュータグラフ
ィックスにおける動作表示生成方法に関し、特に、時変
ホモトピーに基づいて対象物体の動作を表示生成するた
めに、対象物体を構成する点の動作を表示生成すること
ができるようなコンピュータグラフィックスにおける動
作表示生成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion display generation method in computer graphics, and in particular, to display motion of a point constituting a target object in order to display and generate a motion of the target object based on a time-varying homotopy. The present invention relates to a method for generating an operation display in computer graphics that can be generated.

【0002】[0002]

【従来の技術】図18は、臨場感通信会議の状態を示す
図である。
2. Description of the Related Art FIG. 18 is a diagram showing a state of a realistic communication conference.

【0003】互いに異なる場所に存在する人々があたか
も一堂に会するかのような通信を行なう会議は、臨場感
通信会議と称されている。この臨場感通信会議では、仮
想空間1に参加者3の像が設定され、実空間5に存在す
る参加者7a,7bが、仮想空間1の参加者3との間で
会議などを行なえる。
[0003] A conference in which people existing in different places communicate with each other as if they are gathered together is called a real-life communication conference. In the presence communication conference, an image of the participant 3 is set in the virtual space 1, and the participants 7 a and 7 b existing in the real space 5 can hold a conference with the participant 3 in the virtual space 1.

【0004】この臨場感通信会議の目的は、生成された
仮想空間において、相異なる場所に位置する会議参加者
の各々の像が設定され、これらの参加者が同じ仮想空間
を共感する感覚を有し、会議または協調作業が行なえる
環境を提供することである。
[0004] The purpose of this real-life communication conference is to set images of conference participants located in different places in the generated virtual space, and to have a feeling that these participants sympathize with the same virtual space. And provide an environment in which meetings or collaborative work can be performed.

【0005】図19は、臨場感通信会議システムを説明
するための図である。臨場感通信会議システムでは、実
空間の情報を送信する送信側と、送信された情報を受信
する受信側とに大別される。送信側は、実空間9での人
物の時間的変化情報を検出する検出部11で構成され
る。受信側は、人物の動作または表情変化を実時間で生
成して表示する合成部13で構成される。
[0005] FIG. 19 is a diagram for explaining a realistic communication conference system. The presence communication conference system is roughly divided into a transmitting side for transmitting information in a real space and a receiving side for receiving the transmitted information. The transmitting side includes a detection unit 11 that detects temporal change information of a person in the real space 9. The receiving side is composed of a synthesizing unit 13 for generating and displaying a motion or a facial expression change of a person in real time.

【0006】実空間9で検出され、仮想空間15で生成
される人物像は、臨場感通信会議であらゆる方向から自
然に見えることが望まれる。したがって、実時間におけ
る姿勢変化または表情変化を有する自然な三次元顔画像
の生成とその表示が行なわれる合成部13は極めて重要
である。
[0006] It is desired that a human image detected in the real space 9 and generated in the virtual space 15 be seen naturally from all directions in a realistic communication conference. Therefore, the synthesizing unit 13 that generates and displays a natural three-dimensional face image having a posture change or a facial expression change in real time is extremely important.

【0007】図20は、顔の表情筋を示した図であり、
図21は、三次元ワイヤフレームモデルを示した図であ
る。
FIG. 20 is a diagram showing facial expression muscles.
FIG. 21 is a diagram showing a three-dimensional wire frame model.

【0008】図19の合成部13では、図20に示され
る顔の表情筋17a〜17vに基づいた図21に示すよ
うな三次元ワイヤフレームモデル19が使用される。こ
のような三次元ワイヤフレームモデル19が用いられ
て、実時間における人物顔画像の表情の変化が生成され
る。そして、このような実時間における人物顔画像の表
情変化の生成および表示のために、時変ホモトピー(T
ime−VaryingHomotopy)が、発明者
らによって“ホモトピーに基づいた三次元顔画像表情生
成の位置検討”、テレビジョン学会技術報告、Vol.
17,No.58,で提案されている。
In the synthesizing unit 13 shown in FIG. 19, a three-dimensional wire frame model 19 as shown in FIG. 21 based on the facial expression muscles 17a to 17v shown in FIG. 20 is used. Using such a three-dimensional wireframe model 19, a change in the expression of a human face image in real time is generated. In order to generate and display the facial expression change of the human face image in real time, a time-varying homotopy (T
im-VaryingHomotopy), "Position study of three-dimensional facial image expression generation based on homotopy" by the inventors, Technical Report of the Institute of Television Engineers of Japan, Vol.
17, No. 58 ,.

【0009】提案された時変ホモトピーは、位相幾何学
(トポロジー)におけるホモトピーに基づいている。し
たがって、以下では、位相幾何学におけるホモトピーか
ら従来の時変ホモトピーが提案されるまでの過程につい
て説明する。
[0009] The proposed time-varying homotopy is based on homotopy in topology. Therefore, the process from the homotopy in the topology to the proposal of the conventional time-varying homotopy will be described below.

【0010】[位相幾何学におけるホモトピー]図22
は、位相幾何学におけるホモトピーを説明するための図
である。
[Homotopy in Topology] FIG. 22
FIG. 3 is a diagram for explaining homotopy in topology.

【0011】位相幾何学におけるホモトピーは、以下の
ように定義される。f:I→X,g:I→XがPとQを
連結する2つの異なる関数とされる。このとき、領域I
×I={(x,y)|0≦x≦1,0≦y≦1}からX
への連結写像f:I×I→Xにおいて、F(x,0)=
f(x),F(x,1)=g(x)かつF(0,y)=
P,F(1,y)=Qとなる写像があるとき、F(x,
y)が関数fと関数gとのホモトピーであるとされる。
[0011] The homotopy in the topology is defined as follows. f: I → X and g: I → X are two different functions connecting P and Q. At this time, the region I
× I = {(x, y) | 0 ≦ x ≦ 1,0 ≦ y ≦ 1} to X
To the connected map f: I × I → X, F (x, 0) =
f (x), F (x, 1) = g (x) and F (0, y) =
When there is a mapping such that P, F (1, y) = Q, F (x,
y) is assumed to be a homotopy between the function f and the function g.

【0012】この位相幾何学におけるホモトピーは、そ
のままコンピュータグラフィックスに適用されない。そ
の理由は、このホモトピーにおいて関数fから関数gへ
遷移するときにかかる時間が定義されていないためであ
る。そこで、このホモトピーの概念がコンピュータグラ
フィックスにおいて対象となる物体の形状処理と動作の
生成ならびに三次元人物顔画像の実時間における表情変
化などの動作生成に適用されるべく、以下に示すホモト
ピーが提案された。この提案されたホモトピーは、時変
ホモトピー(Time−Varying Homoto
py)と命名された。以下、この時変ホモトピーについ
て説明する。
The homotopy in the topology is not directly applied to computer graphics. The reason is that in this homotopy, the time taken to transition from the function f to the function g is not defined. Therefore, the following homotopy is proposed so that the concept of homotopy can be applied to shape processing and motion generation of target objects in computer graphics, as well as motion generation such as facial expression changes in real time of 3D human face images. Was done. The proposed homotopy is a time-varying homotopy.
py). Hereinafter, the time-varying homotopy will be described.

【0013】[位相幾何学における従来の時変ホモトピ
ー]図23は、従来の時変ホモトピーについて説明する
ための図であり、特に、図23(a)は、時刻t=0の
場合の輪郭線の状態を示した図であり、図23(b)
は、時刻t=tの場合の輪郭線の状態を示した図であ
り、図23(c)は、時刻t=1の場合の輪郭線の状態
を示した図である。
[Conventional Time-Varying Homotopy in Topology] FIG. 23 is a diagram for explaining a conventional time-varying homotopy. In particular, FIG. 23A shows a contour line at time t = 0. FIG. 23B shows the state of FIG.
FIG. 23 is a diagram showing the state of the contour line at time t = t, and FIG. 23C is a diagram showing the state of the contour line at time t = 1.

【0014】図23(b)に示すように、時刻がtのと
きの2つの異なる輪郭線C1 ↑(u,v,t)(以下、
ベクトルには↑を付ける)、C2 ↑(u,v,t)が三
次元空間に設定される。両輪郭線C1 ↑(u,v,
t),C2 ↑(u,v,t)の間が補間されることによ
り構成される表面上の各ノード(点)がx↑(u,v,
t)とされる。これらの輪郭線C1 ↑(u,v,t)、
2 ↑(u,v,t)、x↑(u,v,t)は、それぞ
れ第(1)式、第(2)式および第(3)式で表され
る。ただし、0≦u≦umax ,0≦v≦1,0≦t≦1
とされ、C1 ↑(u,v,t)とC2 ↑(u,v,t)
がY軸に対して垂直になり、各々のY座標が常に第
(4)式を満たすように設定される。
As shown in FIG. 23B, two different contours C 1 ↑ (u, v, t) (hereinafter, referred to as “t”) at time t.
ベ ク ト ル is assigned to the vector), and C 2 ↑ (u, v, t) is set in the three-dimensional space. Both contour lines C 1 ↑ (u, v,
t), C 2 ↑ (u, v, t) are interpolated so that each node (point) on the surface is x ↑ (u, v, t).
t). These contours C 1 ↑ (u, v, t),
C 2 ↑ (u, v, t) and x ↑ (u, v, t) are expressed by equations (1), (2) and (3), respectively. Where 0 ≦ u ≦ u max , 0 ≦ v ≦ 1, 0 ≦ t ≦ 1
C 1 ↑ (u, v, t) and C 2 ↑ (u, v, t)
Are set to be perpendicular to the Y axis, and each Y coordinate always satisfies Expression (4).

【0015】第(1)式、第(2)式、第(3)式によ
り、輪郭線C1 ↑(u,v,0)と輪郭線C2 ↑(u,
v,0)との間における表面上の各ノードx↑(u,
v,0)が第(5)式のように設定されるとする。第
(5)式は、図23(a)に示されるような関係に対応
している。
According to the equations (1), (2) and (3), the contour C 1 ↑ (u, v, 0) and the contour C 2 ↑ (u,
v, 0) and each node x ↑ (u,
(v, 0) is set as in equation (5). Equation (5) corresponds to the relationship as shown in FIG.

【0016】ここで、輪郭線C1 ↑(u,v,0)とC
2 ↑(u,v,0)との間が補間されるべくRn (v)
という関数が導入される。このRn (v)は、両輪郭線
1↑(u,v,t)とC2 ↑(u,v,t)の混ぜ合
わせ(Blending)をすることから、これより以
降、この関数Rn (v)は、ブレンディング(混合)関
数(Blending function)と称される
とする。このブレンディング関数Rn (v)は、たとえ
ば第(6)式と第(7)式に示すような2種類の関数に
分類される。
Here, the contour lines C 1 ↑ (u, v, 0) and C
2 R n (v) to be interpolated between ↑ (u, v, 0)
Is introduced. This R n (v) is obtained by blending the contour lines C 1 ↑ (u, v, t) and C 2 ↑ (u, v, t). Let n (v) be referred to as a blending function. The blending function R n (v) is classified into, for example, two types of functions as shown in Expressions (6) and (7).

【0017】第(6)式および第(7)式に示されるブ
レンディング関数Rn (v)においての変数nは、輪郭
線C1 ↑(u,v,t)とC2 ↑(u,v,t)のブレ
ンディング(混ぜ合わせ)の比率を決定する重要な媒介
変数である。
The variables n in the blending function R n (v) shown in the equations (6) and (7) are the contours C 1 ↑ (u, v, t) and C 2 ↑ (u, v , T) are important parameters that determine the blending ratio.

【0018】第(6)式に示されるブレンディング関数
n (v)は、具体的に図示された場合、図24に示す
ような関数となる。図24における横軸はvの値であ
り、縦軸はRn (v)の値である。さらに、図24にお
いて、n=−0.9、n=−0.8、n=−0.65、
n=−0.4、n=0.0、n=1.1、n=3.8、
n=9.3の場合が示されている。
The blending function R n (v) shown in the equation (6) is a function as shown in FIG. 24 when specifically illustrated. The horizontal axis in FIG. 24 is the value of v, and the vertical axis is the value of R n (v). Further, in FIG. 24, n = −0.9, n = −0.8, n = −0.65,
n = −0.4, n = 0.0, n = 1.1, n = 3.8,
The case where n = 9.3 is shown.

【0019】第(7)式に示されるブレンディング関数
n (v)は、図25に示される関数である。図25に
おいて、横軸はvの値であり、縦軸はRn (v)の値で
ある。さらに図25においては、n=−0.97、n=
−0.85、n=−0.6、n=0.0、n=3.5、
n=23.8の場合が示されている。
The blending function R n (v) shown in the equation (7) is a function shown in FIG. In FIG. 25, the horizontal axis is the value of v, and the vertical axis is the value of R n (v). Further, in FIG. 25, n = −0.97, n =
−0.85, n = −0.6, n = 0.0, n = 3.5,
The case where n = 23.8 is shown.

【0020】また、第(6)式、第(7)式により、こ
れらのブレンディング関数Rn (v)は、第(8)式を
満たす。第(6)式および第(7)式で定義したブレン
ディング関数Rn (v)で相異なることは、v=0,1
におけるブレンディング関数Rn (v)の微係数が第
(9)式という条件を満たすか否かである。すなわち、
第(6)式によるブレンディング関数Rn (v)は必ず
しも第(9)式を満足していないが、第(7)式に示す
ブレンディング関数は第(9)式を必ず満たす。
According to equations (6) and (7), these blending functions R n (v) satisfy equation (8). The difference between the blending functions R n (v) defined in the equations (6) and (7) is that v = 0,1
Whether the differential coefficient of the blending function R n (v) in Equation (6) satisfies the condition of Expression (9). That is,
The blending function R n (v) according to the expression (6) does not always satisfy the expression (9), but the blending function shown in the expression (7) always satisfies the expression (9).

【0021】ここで、t=1のときの輪郭線C1
(u,v,1)、C2 ↑(u,v,1)の間を補間して
構成される曲面上の各ノードx↑(u,v,1)が第
(10)式のように表される。この第(10)式に示す
ノードx↑(u,v,1)と輪郭線C1 ↑(u,v,
1)、C2 ↑(u,v,1)の関係は、図23(c)に
示されている。
Here, the contour line C 1 ↑ at t = 1
(U, v, 1) and each node x ↑ (u, v, 1) on a curved surface formed by interpolating between C 2 ↑ (u, v, 1) as shown in Expression (10) expressed. The node x ↑ (u, v, 1) and the contour C 1 ↑ (u, v,
1) and C 2 ↑ (u, v, 1) are shown in FIG.

【0022】さらに、第(5)式と第(10)式でそれ
ぞれ定義した、t=0,1のときの各ノードの位置ベク
トルx↑(u,v,0)とx↑(u,v,1)より、時
刻tのときの各ノードの位置ベクトルx↑(u,v,
t)が第(11)式のように定義される。ただし、一般
に第(11)式のLはL≠nとされる。
Further, the position vectors x ↑ (u, v, 0) and x ↑ (u, v) of each node at t = 0,1 defined by the equations (5) and (10), respectively. , 1), the position vector x ↑ (u, v,
t) is defined as in equation (11). However, in general, L in Expression (11) is set to L ≠ n.

【0023】なお、説明上t=0の場合の各ノードの位
置ベクトルx↑(u,v,0)は、第(5)式に示すよ
うなものとしたが、第(5)式における輪郭線C1
(u,v,0)とC2 ↑(u,v,0)の混ぜ合わせに
対してもブレンディング関数R n (v)が用いられても
よい。
For the sake of explanation, the order of each node when t = 0
The replacement vector x ↑ (u, v, 0) is given by equation (5).
The contour line C in equation (5) was used.1
(U, v, 0) and CTwoに For mixing (u, v, 0)
Even the blending function R nEven if (v) is used
Good.

【0024】第(11)式から、ブレンディング関数R
L (t)が時刻t(0≦t≦1)に従い遷移させられた
場合に、時刻t=0の位置ベクトルx↑(u,v,0)
を持つモデルと、時刻t=1の位置ベクトルx↑(u,
v,1)を持つモデルとの間をこのブレンディング関数
L (t)で補間することにより、対象とするモデルは
実時間で容易に遷移する。そして、変数Lの値が変えら
れるだけで対象となるモデルの時間的遷移が大幅に変更
される。さらに第(10)式におけるブレンディング関
数Rn (t)で用いられる変数nの値が変更されるだけ
で、t=1のときのモデルの形状が容易に変形させられ
る。同様に、第(5)式に対してもブレンディング関数
を用いた場合は時刻t=0のときのモデルの形状も容易
に変形される。
From equation (11), the blending function R
When L (t) is shifted according to time t (0 ≦ t ≦ 1), the position vector x ベ ク ト ル (u, v, 0) at time t = 0
And a position vector x ↑ (u, u) at time t = 1
By interpolating with the model having v, 1) using this blending function R L (t), the target model easily transitions in real time. Then, only by changing the value of the variable L, the temporal transition of the target model is significantly changed. Furthermore, the shape of the model at t = 1 can be easily deformed only by changing the value of the variable n used in the blending function R n (t) in Expression (10). Similarly, when the blending function is used for Expression (5), the shape of the model at the time t = 0 is also easily deformed.

【0025】すなわち、第(1)式から第(11)式に
示されるような時変ホモトピーという概念によって、コ
ンピュータグラフィックスにおいて対象となる物体の静
的形状の図26に示すような1階微分が不連続な面、ま
たは図27に示すような1階微分が連続な面を容易に生
成できた。図26に示す1階微分が不連続な面は、図2
4に示すようなブレンディング関数Rn (v)によって
実現され、図25に示すような1階微分が連続な面は、
図25に示すブレンディング関数Rn (v)によって容
易に生成された。また、対象となる物体の実時間におけ
る動作も、図28に示すように容易に生成できた。図2
8において図28(a)〜図28(i)は、それぞれの
時刻における対象となる物体の状態を示した図であり、
特に、図28(a)は、時刻t=0の状態を示した図で
あり、図28(i)は、時刻t=1の場合を示した図で
ある。
That is, by the concept of the time-varying homotopy as shown in the equations (1) to (11), the first order differential of the static shape of the target object in computer graphics as shown in FIG. Could easily generate a discontinuous surface or a surface where the first derivative is continuous as shown in FIG. The surface where the first derivative is discontinuous shown in FIG.
The surface realized by the blending function R n (v) as shown in FIG. 4 and in which the first derivative is continuous as shown in FIG.
It was easily generated by the blending function R n (v) shown in FIG. In addition, the motion of the target object in real time could be easily generated as shown in FIG. FIG.
8, (a) to (i) of FIG. 28 are diagrams showing the state of the target object at each time,
In particular, FIG. 28A is a diagram showing a state at time t = 0, and FIG. 28I is a diagram showing a case at time t = 1.

【0026】[0026]

【数1】 (Equation 1)

【0027】[0027]

【発明が解決しようとする課題】しかしながら、従来の
時変ホモトピーは、位相幾何学における数学的定義に基
づいてはいるものの、本来、コンピュータグラフィック
スで対象となる物体の動作を考慮する際に必要不可欠で
ある物理的定義に必ずしも基づいてはいなかった。
However, although the conventional time-varying homotopy is based on the mathematical definition in the topology, it is originally required when considering the operation of the object to be processed in computer graphics. It was not always based on essential physical definitions.

【0028】したがって、たとえばコンピュータグラフ
ィックスで対象となる物体に外力が加わった場合でも、
その外力が考慮された時変ホモトピーは定義されていな
かった。さらに、デジタル制御理論で定義されるべき伝
達関数は、従来の時変ホモトピーでは物理的定義に必ず
しも基づいていないため定義できなった。
Therefore, for example, even when an external force is applied to a target object in computer graphics,
The time-varying homotopy considering its external force was not defined. Furthermore, the transfer function to be defined in the digital control theory cannot be defined because the conventional time-varying homotopy is not always based on the physical definition.

【0029】ゆえに、本発明の目的は、数学的定義に基
づく時変ホモトピーを物理的定義に基づく時変ホモトピ
ーに拡張し、コンピュータグラフィックスにおける対象
となる対象物体の動作をより自然に実時間で表示生成す
ることができるようなコンピュータグラフィックスにお
ける動作表示生成方法を提供することである。
Accordingly, an object of the present invention is to extend a time-varying homotopy based on a mathematical definition to a time-varying homotopy based on a physical definition, and to more naturally realize the motion of a target object in computer graphics in real time. An object of the present invention is to provide a method for generating an operation display in computer graphics that can generate a display.

【0030】[0030]

【課題を解決するための手段】請求項1の発明に係るコ
ンピュータグラフィックスにおける動作表示生成方法
は、時変ホモトピーに基づいて対象物体の動作を表示生
成するために、対象物体を構成する点の動作を表示生成
するコンピュータグラフィックスにおける動作表示生成
方法であって、時変ホモトピーは物理的に定義され、点
の第1の時刻での変位ベクトルが求められ、点の第2の
時刻での変位ベクトルが求められ、それらの変位ベクト
ルを表わすデータが伝送される第1のステップと、伝送
されたデータが表わす点の第1の時刻での変位ベクトル
に対応する点の第1の時刻での位置ベクトルを求め、伝
送されたデータが表わす点の第1の時刻での変位ベクト
ルと点の第2の時刻での変位ベクトルとの混合の割合を
示す混合関数に基づいて、点の第1の時刻および第2の
時刻間の所定の時刻での変位ベクトルを求める第2のス
テップと、第2のステップで求められた点の第1の時刻
での位置べクトルおよび点の所定の時刻での変位ベクト
ルに基づいて、点の所定の時刻での位置ベクトルを求め
て表示する第3のステップとを含んでいる。
According to a first aspect of the present invention, there is provided a method for generating a motion display in computer graphics, comprising the steps of: generating a motion of a target object based on a time-varying homotopy; A motion display generation method in computer graphics for displaying and generating a motion, wherein a time-varying homotopy is physically defined, a displacement vector of a point at a first time is obtained, and a displacement of the point at a second time is calculated. First steps in which vectors are determined and data representing their displacement vectors is transmitted, and the position at a first time of a point corresponding to the displacement vector of the point represented by the transmitted data at the first time A vector is determined and based on a mixing function indicating the ratio of mixing of the displacement vector of the point represented by the transmitted data at the first time and the displacement vector of the point at the second time. A second step of obtaining a displacement vector at a predetermined time between the first time and the second time of the point; and a position vector at a first time of the point obtained in the second step; And a third step of obtaining and displaying a position vector of the point at a predetermined time based on a displacement vector of the point at a predetermined time.

【0031】請求項2では、請求項1の第1の時刻およ
び第2の時刻は、第3の時刻と第4の時刻との間の時刻
であり、第1のステップは、点の第3の時刻での位置ベ
クトルが与えられ、点の第4の時刻での位置ベクトルが
与えられる第4のステップと、第4のステップで与えら
れた点の第3の時刻での位置ベクトルと点の第4の時刻
での位置ベクトルとの混合の割合を示す混合関数を定義
する第5のステップと、第5のステップで定義された混
合関数に基づいて、第1の時刻および第2の時刻それぞ
れでの位置ベクトルを求める第6のステップと、第4の
ステップで与えられた点の第3の時刻での位置ベクトル
ならびに第6のステップで求められた点の第1の時刻お
よび第2の時刻それぞれでの位置ベクトルに基づいて、
点の第1の時刻および第2の時刻それぞれでの変位ベク
トルを求める第7のステップとを含んでいる。
According to the second aspect, the first time and the second time of the first aspect are times between the third time and the fourth time, and the first step is the third time of the point. A fourth step in which a position vector at the time point is given and a position vector of the point at the fourth time point is provided, and the position vector of the point given in the fourth step at the third time point and the point A fifth step of defining a mixing function indicating a mixing ratio with the position vector at the fourth time, and a first time and a second time based on the mixing function defined in the fifth step, respectively. The position vector at the third time of the point given in the fourth step, and the first time and the second time of the point obtained in the sixth step. Based on each position vector,
Determining a displacement vector at each of the first time and the second time of the point.

【0032】請求項3では、請求項2の時変ホモトピー
は、第5のステップで定義された混合関数を定義するた
めの伝達関数を定義する。
In the third aspect, the time-varying homotopy of the second aspect defines a transfer function for defining the mixing function defined in the fifth step.

【0033】請求項4では、請求項1または2の時変ホ
モトピーは、対象物体に加わる外力を定義する。
According to the fourth aspect, the time-varying homotopy of the first or second aspect defines an external force applied to the target object.

【0034】[0034]

【作用】請求項1の発明に係るコンピュータグラフィッ
クスにおける動作表示生成方法は、時変ホモトピーが物
理的に定義されており、対象物体を構成する点の第1の
時刻での変位ベクトルが求められ、点の第2の時刻での
変位ベクトルが求められ、それらの変位ベクトルを表わ
すデータが伝送され、伝送されたデータが表わす点の第
1の時刻での変位ベクトルに対応する位置ベクトルが求
められ、伝送されたデータが表わす点の第1の時刻での
変位ベクトルと第2の時刻での変位ベクトルとの混合の
割合を示す混合関数に基づいて第1の時刻および第2の
時刻間の所定の時刻での変位ベクトルが求められ、点の
第1の時刻での位置ベクトルおよび所定の時刻での変位
ベクトルに基づいて所定の時刻での位置ベクトルが求め
られて第1の時刻から第2の時刻にかけての点の動作が
生成されるとともに表示され、さらに対象物体を構成す
るすべての点の動作が表示生成されることで対象物体の
動作を表示生成できる。
According to the first aspect of the present invention, a time-varying homotopy is physically defined, and a displacement vector of a point constituting a target object at a first time is obtained. , A displacement vector of the point at a second time is determined, data representing those displacement vectors is transmitted, and a position vector corresponding to the displacement vector of the point represented by the transmitted data at the first time is determined. A predetermined time between the first time and the second time based on a mixing function indicating a mixing ratio of a displacement vector of the point represented by the transmitted data at the first time and a displacement vector at the second time. Is obtained, and a position vector at a predetermined time is obtained based on the position vector of the point at the first time and the displacement vector at the predetermined time. Is displayed together with the operation of the point toward et second time is generated, can be displayed generating an operation of the object by the operation of all the points are generated and displayed to further configure the target object.

【0035】請求項2の発明に係るコンピュータグラフ
ィックスにおける動作表示生成方法は、点の第3の時刻
での位置ベクトルガ与えられ、点の第4の時刻での位置
ベクトルが与えられ、点の第3の時刻での位置ベクトル
と点の第4の時刻との位置ベクトルとの混合の割合を示
す混合関数が定義され、その混合関数に基づいて第1の
時刻および第2の時刻それぞれの位置ベクトルが求めら
れて、点の第3の時刻での位置ベクトルならびに点の第
1の時刻および第2の時刻それぞれでの位置ベクトルに
基づいて、点の第1の時刻および第2の時刻それぞれの
変位べクトルを求めることができる。
According to a second aspect of the present invention, there is provided a motion display generating method in computer graphics, wherein a position vector of a point at a third time is provided, a position vector of the point at a fourth time is provided, and A mixing function indicating a mixing ratio of the position vector at the time 3 and the position vector of the point at the fourth time is defined, and the position vector at each of the first time and the second time is defined based on the mixing function. Is determined based on the position vector of the point at the third time and the position vector of the point at the first and second times, respectively. Vector can be obtained.

【0036】請求項3の発明に係るコンピュータグラフ
ィックスにおける動作表示生成方法は、時変ホモトピー
が混合関数を定義するための伝達関数を定義して、例え
ばデジタル制御理論に基づく対象物体の動作を表示生成
できる。
According to a third aspect of the present invention, there is provided a motion display generation method in computer graphics, wherein a time-varying homotopy defines a transfer function for defining a mixing function, and displays the motion of a target object based on, for example, digital control theory. Can be generated.

【0037】請求項4の発明に係るコンピュータグラフ
ィックスにおける動作表示生成方法は、時変ホモトピー
が対象物体に加わる外力を定義して、外力が加わるよう
な対象物体の動作を表示生成できる。
According to the motion display generation method for computer graphics according to the fourth aspect of the present invention, the time-varying homotopy defines an external force applied to the target object, and the motion of the target object to which the external force is applied can be displayed and generated.

【0038】[0038]

【実施例】そもそも自然界において対象となる物体の動
作は、物理的法則に従うことから、コンピュータグラフ
ィックスアニメーション、特に臨場感通信会議システム
における図19の合成部13においても対象となる物体
のモーションルールは、物理的定義に従うべきである。
Since the motion of an object in the natural world follows physical laws in the first place, the motion rules of the object in computer graphics animation, especially in the synthesizing unit 13 in FIG. , Should follow the physical definition.

【0039】たとえば、人物の自然な顔の表情や実時間
における微妙な動作は、顔面の表層に存在する表情筋に
基づくところが極めて多い。このことが考慮された上
で、表情筋の筋肉モデルとそのモーションルールを動作
方法として定義することも、臨場感通信会議システムに
おける合成部13では必要とされる。そのため、各筋肉
の動作特性に基づいた各筋肉固有の運動方程式または伝
達関数が忠実に定義されることが重要な課題となる。
For example, a person's natural facial expressions and subtle movements in real time are extremely based on facial muscles present on the surface layer of the face. Taking this into consideration, the synthesizing unit 13 in the immersive communication conference system also needs to define the muscle model of the facial muscle and its motion rule as an operation method. Therefore, it is important to faithfully define a motion equation or a transfer function unique to each muscle based on the motion characteristics of each muscle.

【0040】一方、自然界において対象となる物体の持
つ位置、変位、速度、加速度などの連続量(アナログ
量)で計測されるさまざまのデータが処理されるべくデ
ジタル計算機でシミュレーションを行なう際には、これ
らのデータは離散化(デジタル化)される。そこで、前
述したような従来の位相幾何学における時変ホモトピー
に基づく数学的定義に、自然界における物理的定義を相
互に補足し組合わせて、新たなデジタル制御理論に基づ
いた時変ホモトピーを提案する。以下に、その新たな時
変ホモトピーの定義について説明する。
On the other hand, when simulating with a digital computer to process various data measured in continuous quantities (analog quantities) such as the position, displacement, velocity, and acceleration of an object in nature, These data are discretized (digitized). Therefore, we propose a time-varying homotopy based on a new digital control theory by combining the mathematical definition based on the time-varying homotopy in the conventional topological geometry described above with the physical definition in the natural world. . Hereinafter, the definition of the new time-varying homotopy will be described.

【0041】[連続時間における線形時不変システム]
時変ホモトピーで用いるブレンディング関数Rn (v)
であって第(9)式に基づく条件を満足するものとし
て、デジタル制御システムにおいて線形時不変システム
である直流サーボモータの応答出力が挙げられる。
[Linear time-invariant system in continuous time]
Blending function R n (v) used in time-varying homotopy
A condition that satisfies the condition based on the expression (9) is a response output of a DC servomotor which is a linear time-invariant system in a digital control system.

【0042】図1は、直流サーボモータについて説明す
るための図である。直流サーボモータ21において、J
は負荷も含めた回転子23の慣性モーメント、Rは電機
子の抵抗、Dは軸受の粘性摩擦係数、uは入力電圧、K
はパワーアンプ27の電圧増幅率、Mはモータ29のモ
ータ定数とする。さらに電機子のインダクタンスは無視
できるものとし、界磁は永久磁石で構成された低励磁制
御とする。
FIG. 1 is a diagram for explaining a DC servomotor. In the DC servo motor 21, J
Is the moment of inertia of the rotor 23 including the load, R is the resistance of the armature, D is the viscous friction coefficient of the bearing, u is the input voltage, K is
Is the voltage amplification factor of the power amplifier 27, and M is the motor constant of the motor 29. Further, the inductance of the armature is negligible, and the field is a low excitation control composed of a permanent magnet.

【0043】直流サーボの原理に従うと、電機子の送起
電力がM(dθ/dt)であることから、第(12)式
が成立する。さらに、発生トルクはMiであることか
ら、第(13)式が成立する。そこで、第(12)式お
よび第(13)式より電流iが消去された後に、x1
θ、x2 =dθ/dtとおくと、第(14)式が成立す
る。したがって、出力yは第(15)式のように表され
る。第(15)式のx1とx2 のそれぞれは、回転子の
回転角度と、回転角速度を表している。
According to the principle of the DC servo, since the transmitted electromotive force of the armature is M (dθ / dt), the equation (12) is satisfied. Further, since the generated torque is Mi, Expression (13) is satisfied. Then, after the current i is erased from the equations (12) and (13), x 1 =
If θ, x 2 = dθ / dt, equation (14) is satisfied. Therefore, the output y is expressed as in equation (15). Each of the first (15) of x 1 and x 2, represents the rotation angle of the rotor, the rotational angular velocity.

【0044】次に、第(14)式および第(15)式を
簡単にするために、第(16)式に示すように、定数p
c 、ベクトルxc ↑,cc ↑,bc ↑、そして行列Ac
を定める。第(16)式を、第(14)式および第(1
5)式に代入すると、直流サーボモータの連続時間系に
おける状態方程式は、第(17)式のように表される。
そして、伝達関数Gc (s)は、第(18)式のように
なり、その極は0,−pc となり、零点は存在しない。
ここに、第(18)式においてYc (s)とU c (s)
は、第(17)式のyとuのラプラス変換によって得ら
れる。
Next, equations (14) and (15) are
For simplicity, the constant p
c, Vector xc↑, cc↑, bc↑, and matrix Ac
Is determined. Equation (16) is replaced with equation (14) and (1)
Substituting into equation 5) gives the continuous time system of the DC servo motor.
The equation of state in this case is expressed as in equation (17).
And the transfer function Gc(S) is expressed by the following equation (18).
And the poles are 0, -pcAnd there is no zero.
Here, in equation (18), Yc(S) and U c(S)
Is obtained by Laplace transform of y and u in equation (17).
It is.

【0045】一方で、第(18)式で示すような連続時
間系の伝達関数Gc (s)は、以下に示す運動方程式か
ら導出されることも可能である。たとえば、コンピュー
タグラフィックスにおける顔表情生成の際、Terzo
polousは、解剖学的見地に基づき、表情筋に基づ
いてワイヤフレームを構成する各ノードの運動方程式を
第(19)式に示すように定義した。ただし、ここで
は、簡便のために、各ノードにおける一次元の運動方程
式について述べており、mn は各ノードの質量、gn
n ,hn ,fn は各ノードに加わるさまざまな外力、
γn は減衰定数、cn はばね定数、xncは各ノードの変
位量とする。
On the other hand, the transfer function G c (s) of the continuous time system as shown in the equation (18) can be derived from the following equation of motion. For example, when generating facial expressions in computer graphics, Terzo
Based on the anatomical point, based on the anatomical viewpoint, the equation of motion of each node constituting the wire frame based on the facial muscles is defined as shown in Expression (19). Here, for simplicity, a one-dimensional equation of motion at each node is described, where mn is the mass of each node, g n ,
q n , h n , f n are various external forces applied to each node,
γ n is a damping constant, c n is a spring constant, and x nc is a displacement of each node.

【0046】第(19)式において、xnc=xnc1 、d
nc/dt=xnc2 とすると、人物顔画像のワイヤフレ
ームを構成する各ノードの運動方程式に対する連続時間
系の運動方程式は、第(20)式のように表される。ま
た、出力yncを変位量と見なすと、そのyncは第(2
1)式のように表される。ここで、定数unc、ベクトル
nc↑,bnc↑,cnc↑、そして行列Ancを第(22)
式のように定める。
In the equation (19), x nc = x nc1 , d
Assuming that x nc / dt = x nc2 , the equation of motion of the continuous time system with respect to the equation of motion of each node constituting the wireframe of the human face image is expressed by the following equation (20). When the output y nc is regarded as the displacement, the y nc is the second (2
It is expressed as in equation (1). Here, a constant u nc , a vector x nc ↑, b nc ↑, c nc ↑, and a matrix Anc are represented by (22)
Determined as in the formula.

【0047】第(22)式を第(20)式および第(2
1)式に代入すると、状態方程式である第(20)式お
よび第(21)式は、第(23)式のようになる。各ノ
ードの運動方程式に対する連続時間系の伝達関数G
nc(s)は、第(24)式で表される。
The expression (22) is replaced by the expression (20) and the expression (2).
Substituting into the expression (1), the expression (20) and the expression (21), which are the state equations, become the expression (23). Transfer function G of continuous time system for the equation of motion at each node
nc (s) is represented by Expression (24).

【0048】連続時間系における線形時不変システムの
状態方程式である第(17)式および第(23)式によ
り、第(25)式が仮定できるならば、伝達関数も、第
(18)式と第(24)式により、第(26)式が成立
する。すなわち、第(25)式の仮定が成り立つ場合、
前述した直流サーボモータの連続時間系における線形時
不変システムと人物顔画像のワイヤフレームを構成する
各ノードの持つ連続時間系における線形時不変システム
は等価であると見なされる。よって、以下ではこの仮定
の基に説明する。
If Equation (25) can be assumed from Equations (17) and (23), which are the state equations of a linear time-invariant system in a continuous time system, the transfer function is also expressed by Equation (18). Equation (26) is established by equation (24). That is, when the assumption of Expression (25) holds,
The linear time-invariant system in the continuous time system of the DC servo motor and the linear time-invariant system in the continuous time system of each node forming the wireframe of the human face image are regarded as equivalent. Therefore, the following description is based on this assumption.

【0049】[0049]

【数2】 (Equation 2)

【0050】[0050]

【数3】 (Equation 3)

【0051】[離散時間系における線形時不変システ
ム]コンピュータグラフィックスで動画像を生成するこ
とは、デジタル計算機における一種のシミュレーション
である。コンピュータグラフィックスで対象となる物体
の持つさまざまなデータは離散化(デジタル化)され
る。そのため、連続時間系における力学、制御などの物
理的定義は、すべて離散的に処理される必要がある。そ
こで、連続時間系の信号u[t]、x↑[t]、y
[t]がサンプル周期Tでサンプリングされ、離散時間
系の信号u(i)、x↑(i)、y(i)にA/D変換
されるものとすると、これらの各信号は、第(27)式
で表される。そして、第(28)式のようにベクトルb
↑,c↑と行列Aを定める。
[Linear Time Invariant System in Discrete Time System] Generating a moving image by computer graphics is a kind of simulation in a digital computer. In computer graphics, various data of the target object is discretized (digitized). Therefore, all physical definitions such as dynamics and control in a continuous time system need to be processed discretely. Therefore, the continuous-time signals u [t], x] [t], y
Assuming that [t] is sampled at a sampling period T and A / D-converted to discrete-time signals u (i), x ↑ (i), y (i), these signals are 27). Then, as shown in equation (28), the vector b
{, C} and a matrix A are defined.

【0052】この第(27)式および第(28)式を第
(17)式に代入すると、離散時間系における線形時不
変システムの状態方程式は、第(29)式で表される。
When the equations (27) and (28) are substituted into the equation (17), the state equation of the linear time-invariant system in the discrete time system is expressed by the equation (29).

【0053】ここで、線形時不変システムである直流モ
ータの応答出力が、時変ホモトピーにおいて定義したブ
レンディング関数として取扱うべく、具体的に次のよう
な定義を行なう。すなわち、前述の直流サーボモータに
おいて、第(16)式に対して、M,R,K,J,Dが
第(30)式を満たすとすると、第(16)式のAc
c ↑は第(31)式に示すようになる。そして、この
連続時間系を離散時間系に変換すべく、第(28)式に
より、第(31)式のAc とbc ↑は、第(32)式と
なる。
Here, the following definition is specifically made so that the response output of the DC motor which is a linear time-invariant system is treated as a blending function defined in the time-varying homotopy. That is, in the DC servo motor described above, if M, R, K, J, and D satisfy Expression (30) with respect to Expression (16), Ac and b c ↑ in Expression (16) are satisfied. Is as shown in Expression (31). Then, in order to convert this continuous-time system into a discrete-time system, Ac and b c } in Expression (31) become Expression (32) according to Expression (28).

【0054】さらに、この離散時間系において、入力で
あるu(i)を第(33)式のように定め、応答出力y
(i)を求めると、その関係は図2に示すように得られ
る。図2では、入力u(i)、出力y(i)の他にも、
速度dy(i)/di、関数Bld(i)が示されてい
る。
Further, in this discrete time system, the input u (i) is determined as in the following equation (33), and the response output y
When (i) is obtained, the relationship is obtained as shown in FIG. In FIG. 2, in addition to the input u (i) and the output y (i),
The speed dy (i) / di and the function Bld (i) are shown.

【0055】図2の出力y(i)から、さらに明らかに
速度dy(i)/diから、第(34)式が満たされる
ことが容易にわかる。さらに、この応答出力y(i)が
正規化されるべく関数Bld(i)が第(35)式のよ
うに定められると、関数Bld(i)は、第(36)式
を満足している。このことは、図2からも明らかであ
る。
From the output y (i) in FIG. 2, it is easily apparent that the speed (dy (i) / di) satisfies the expression (34). Further, when the function Bld (i) is determined as in the equation (35) so that the response output y (i) is normalized, the function Bld (i) satisfies the equation (36). . This is clear from FIG.

【0056】第(34)式は第(9)式に相応し、第
(36)式は第(8)式に相応することから、この離散
時間系における線形時不変システムの応答出力y(i)
が正規化されることにより定義された関数Bld(i)
は、前述した時変ホモトピーにおいて定義したブレンデ
ィング関数のうち条件式である第(9)式を満たすブレ
ンディング関数と見なすことが可能である。
Since the expression (34) corresponds to the expression (9) and the expression (36) corresponds to the expression (8), the response output y (i) of the linear time-invariant system in the discrete time system is obtained. )
Is defined as a function Bld (i)
Can be regarded as a blending function satisfying the conditional expression (9) among the blending functions defined in the time-varying homotopy described above.

【0057】このように離散時間系における線形時不変
システムから導出した新たなブレンディング関数Bld
(i)が用いられてコンピュータグラフィックスにおけ
る対象となる物体の動作の制御を行なうことは、第(2
5)式が成立する限り、運動方程式である第(19)式
に基づくワイヤフレームモデルの各ノードを動作させる
ことと同様である。したがって、ここで提案される時変
ホモトピーは、従来の位相幾何学の数学的定義に基づい
た時変ホモトピーでなく、自然界における物理的定義を
その数学的定義に基づいた時変ホモトピーに対して相互
に補足して組合わせることで、デジタル計算機における
必然的なデータの離散化を考慮したデジタル制御理論に
基づくものとなっている。
Thus, a new blending function Bld derived from a linear time-invariant system in a discrete time system
Using (i) to control the operation of a target object in computer graphics is described in (2).
As long as Expression 5) holds, it is the same as operating each node of the wireframe model based on Expression (19), which is the equation of motion. Therefore, the time-varying homotopy proposed here is not a time-varying homotopy based on the mathematical definition of topological geometry, but rather a physical definition in the natural world that is different from a time-varying homotopy based on that mathematical definition. Is based on a digital control theory that takes into account inevitable data discretization in a digital computer.

【0058】そのため、ここで提案される時変ホモトピ
ーにより、従来でも可能であったコンピュータグラフィ
ックスにおける対象物体の図26に示すような1階微分
が不連続な面の静的形状および図27に示すような1階
微分が連続の面の静的形状を容易に生成でき、さらに図
28に示すような対象物体の実時間における動作を生成
できるだけでなく、より自然に対象物体の自然な動作を
生成することができるようになる。
Therefore, by the time-varying homotopy proposed here, the static shape of the surface in which the first-order differentiation of the object in computer graphics is discontinuous as shown in FIG. The first derivative as shown can easily generate a static shape of a continuous surface, and can generate not only the real-time motion of the target object as shown in FIG. 28 but also the natural motion of the target object more naturally. Can be generated.

【0059】そこで、以下にデジタル制御理論に基づい
た時変ホモトピーを用いたコンピュータグラフィックス
アニメーションの応用例を示す。その応用例としては、
シリンダモーション、人物顔画像において額を動作させ
るときのしわの生成、および口の開閉を示す。これらの
対象物体の動画像生成は、前述したような図19の臨場
感通信会議システムにおける合成部13で有効性を発揮
すると思われる。
An application example of computer graphics animation using time-varying homotopy based on digital control theory will be described below. As an application example,
It shows cylinder motion, generation of wrinkles when a forehead is moved in a person face image, and opening and closing of a mouth. The generation of moving images of these target objects is considered to be effective in the synthesizing unit 13 in the presence communication conference system of FIG. 19 as described above.

【0060】[0060]

【数4】 (Equation 4)

【0061】[シリンダモーション]図3は、実時間で
動作するシリンダの時系列連続画像を示した図であり、
図4は、図3の実時間で動作するシリンダに対しての入
力u(i)、出力y(i)およびブレンディング関数B
ld(i)を示したグラフである。図3(a)は、t=
0の場合のシリンダの状態を示した図であり、図4にお
けるi=0に対応している。図3(j)はt=1の場合
のシリンダの状態を示した図であり、図4のi=20に
対応している。そして、図3(b)から図3(i)は、
図4のi=0からi=20が10分割された場合のそれ
ぞれのシリンダの状態を示した図となっている。
[Cylinder Motion] FIG. 3 is a diagram showing a time-series continuous image of a cylinder operating in real time.
FIG. 4 shows the input u (i), output y (i) and blending function B for the real-time operating cylinder of FIG.
It is the graph which showed ld (i). FIG. 3A shows that t =
FIG. 5 is a diagram showing a state of the cylinder when the value is 0, which corresponds to i = 0 in FIG. FIG. 3 (j) shows the state of the cylinder when t = 1, and corresponds to i = 20 in FIG. 3 (b) to FIG. 3 (i)
FIG. 4 is a diagram showing the state of each cylinder when i = 0 to i = 20 in FIG. 4 are divided into ten.

【0062】図3の点の集合で構成されるシリンダ31
の底面33の中心位置に、図4の入力u(i)で表され
るような外力fが実時間で与えられたとする。このと
き、第(29)式に従う離散時間の線形時不変システム
より導出されたブレンディング関数Bld(i)が図4
に示すように得られ、そのブレンディング関数Bld
(i)による時変ホモトピーに基づいて、シリンダ31
は実時間で図3に示すように動作を変化する。
A cylinder 31 composed of a set of points in FIG.
It is assumed that an external force f as shown by an input u (i) in FIG. At this time, the blending function Bld (i) derived from the discrete-time linear time-invariant system according to the equation (29) is shown in FIG.
And its blending function Bld
Based on the time-varying homotopy according to (i), the cylinder 31
Changes the operation in real time as shown in FIG.

【0063】図3に示すシリンダの動作生成では、図2
8に示すシリンダの動作生成と外見上あまり違いが見ら
れない。しかしながら、図3に示されるシリンダの動作
生成は、図28に示すシリンダの動作生成と異なり、図
4に示されるような入力u(i)(外力)が与えられ
て、その外力に応じて動作生成を行なっている。
In the operation generation of the cylinder shown in FIG.
There is little difference in appearance from the cylinder motion generation shown in FIG. However, unlike the operation generation of the cylinder shown in FIG. 28, the operation generation of the cylinder shown in FIG. 3 is given an input u (i) (external force) as shown in FIG. Generation is in progress.

【0064】[顔のしわの動作生成]図5は、実時間に
おける顔のしわの時系列連続画像を示した図であり、図
6は、図5に示される顔のしわの動作生成における入力
u(i)、出力y(i)およびブレンディング関数Bl
d(i)を示したグラフである。図5(a)は、時刻t
=0の場合の顔のしわの状態を示した図であり、図6の
i=0に対応した図である。図5(j)は、時刻t=1
の場合の顔のしわの状態を示した図であり、図6のi=
20に対応した図である。図5(b)から図5(i)
は、図6のi=0からi=20が10分割されたうちの
それぞれの顔のしわの状態を示した図である。
[Generation of Motion of Face Wrinkle] FIG. 5 is a diagram showing a time-series continuous image of wrinkles of the face in real time. FIG. 6 shows the input in generating the motion of the face wrinkles shown in FIG. u (i), output y (i) and blending function Bl
4 is a graph showing d (i). FIG. 5A shows the time t
FIG. 7 is a diagram illustrating a wrinkle state of the face when = 0, and is a diagram corresponding to i = 0 in FIG. 6. FIG. 5 (j) shows the time t = 1.
FIG. 7 is a diagram showing a state of wrinkles of a face in the case of FIG.
It is a figure corresponding to No. 20. 5 (b) to 5 (i)
FIG. 7 is a diagram showing wrinkle states of respective faces when i = 0 to i = 20 in FIG. 6 are divided into ten.

【0065】コンピュータグラフィックスで三次元人物
顔画像において額35を引上げる際に引上げる方向に、
図6の入力u(i)で示される外力fが加えられるもの
とする。前述した離散時間系の非線形時不変システムか
ら導出されるブレンディング関数に基づく時変ホモトピ
ーによって、変位量が算出される。それを基に、人物顔
画像を構成するワイヤフレームの額面部に位置する各ノ
ードの変位量が決定され、図5に示されるようにその実
時間における動作の生成が行なわれ、しわ37が生成さ
れた。
In the case of raising the forehead 35 in a three-dimensional human face image by computer graphics,
It is assumed that an external force f indicated by an input u (i) in FIG. 6 is applied. The displacement is calculated by a time-varying homotopy based on a blending function derived from the above-described discrete-time nonlinear time-invariant system. Based on this, the amount of displacement of each node located on the face portion of the wire frame constituting the human face image is determined, and the real-time motion is generated as shown in FIG. Was.

【0066】[口の開閉の動作生成]図7は、口の開閉
の動作生成の時系列連続画像を示した図であり、図8
は、図7(a)から図7(j)のそれぞれに対応したワ
イヤフレームモデルを示した図である。図7(a)は時
刻t=0の場合の人物顔画像を示した図であり、図7
(j)は、時刻t=1の場合の人物顔画像を示した図で
ある。
[Generation of mouth opening / closing operation] FIG. 7 is a diagram showing a time-series continuous image of mouth opening / closing operation generation.
7A is a diagram showing a wire frame model corresponding to each of FIGS. 7A to 7J. FIG. FIG. 7A is a diagram showing a human face image at time t = 0, and FIG.
(J) is a diagram showing a human face image at time t = 1.

【0067】図8の口のまわり39に特徴点が16点定
められる。各特徴点ごとに外力、離散時間系における線
形時不変システムを構成する伝達関数、ブレンディング
関数が定義される。外力は、簡単に説明すれば口の開口
の中心から放射線状に働いている。これにより、図8に
示すようにワイヤフレームモデルは、口を開き、図7に
示されるように人物顔画像の人物は口を開いた。
Sixteen feature points are defined around the mouth 39 in FIG. For each feature point, a transfer function and a blending function that constitute a linear time-invariant system in an external force and a discrete time system are defined. The external force acts radially from the center of the opening of the mouth, in short. As a result, the wire frame model opened the mouth as shown in FIG. 8, and the person in the person face image opened the mouth as shown in FIG.

【0068】図9は、この発明の一実施例によるコンピ
ュータグラフィックスにおける動作表示生成方法を実行
する合成部の内部構成を示した図であり、図10は、図
9に示した合成部に対応した図であって、変位ベクトル
算出部と表示部との内部処理を示した図であり、図11
は、この発明の一実施例によるコンピュータグラフィッ
クスにおける動作表示生成方法を示したフロー図であ
り、図12は、図11のステップ(図面ではSで表わ
す)1の詳細なフロー図である。
FIG. 9 is a diagram showing the internal configuration of a synthesizing unit for executing the operation display generating method in computer graphics according to one embodiment of the present invention. FIG. 10 corresponds to the synthesizing unit shown in FIG. FIG. 11 is a diagram showing internal processing of the displacement vector calculation unit and the display unit.
FIG. 12 is a flowchart showing a method for generating an operation display in computer graphics according to an embodiment of the present invention. FIG. 12 is a detailed flowchart of step (represented by S in the drawing) 1 of FIG.

【0069】図9および図10に示すように合成部13
には、変位ベクトルを算出する変位ベクトル算出部41
と、ディスプレイ等に対象物体の動作表示を行う表示部
43とが含まれる。変位ベクトル算出部41は図11の
ステップ1に対応した動作を行ない、表示43は図10
のステップに対応した動作を行う。すなわち、変位ベク
トル算出部41はステップ1において物理的に定義され
た時変ホモトピー(例えば対象物体に加わる外力を表す
ことができる)に基づいて、対象物体を構成する点の変
位ベクトルΔx(i)を求め、その変位ベクトルΔx
(i)を表わすデータを表示部43に伝送する。そし
て、表示部43は、ステップ2において、変位ベクトル
Δx(i)に対応する位置ベクトルx(i)を求めてデ
ィスプレイなどに表示する。
As shown in FIG. 9 and FIG.
Includes a displacement vector calculating unit 41 for calculating a displacement vector.
And a display unit 43 for displaying an operation of the target object on a display or the like. The displacement vector calculator 41 performs an operation corresponding to step 1 in FIG.
The operation corresponding to the step is performed. That is, the displacement vector calculator 41 calculates the displacement vector Δx (i) of a point constituting the target object based on the time-varying homotopy physically defined in step 1 (for example, it can represent an external force applied to the target object). And the displacement vector Δx
The data representing (i) is transmitted to the display unit 43. Then, in step 2, the display unit 43 obtains a position vector x (i) corresponding to the displacement vector Δx (i) and displays the position vector x (i) on a display or the like.

【0070】次に、図12を用いて、ステップ1につい
て詳しく説明する。ステップ11において、時刻t=
0,時刻t=1のそれぞれのときの位置ベクトルが入力
される。時刻t=0,t=1は、前述したように図4に
示す関数においてはi=0であり、時刻t=1は図4に
おけるi=20となる。同様に、図6に示される関数に
おいては、時刻t=0はi=0であり、時刻t=1はi
=20となる。
Next, step 1 will be described in detail with reference to FIG. In step 11, time t =
A position vector at each of 0 and time t = 1 is input. At times t = 0 and t = 1, i = 0 in the function shown in FIG. 4 as described above, and at time t = 1, i = 20 in FIG. Similarly, in the function shown in FIG. 6, the time t = 0 is i = 0, and the time t = 1 is i
= 20.

【0071】そして、図3における位置ベクトルは、シ
リンダ31自体が点の集合であるため、その各点の位置
ベクトルである。これにより、各点の位置ベクトルが時
刻t=0から時刻t=1に至る間に動作生成すること
で、シリンダ31が動作生成している。
The position vector in FIG. 3 is a position vector of each point because the cylinder 31 itself is a set of points. Thereby, the cylinder 31 is motion-generated by generating the motion of the position vector of each point from the time t = 0 to the time t = 1.

【0072】また、図7における位置ベクトルとは、図
8に示されるワイヤフレームモデルの各ノードの位置ベ
クトルであり、位置ベクトルが時刻t=0から時刻t=
1に至る間に動作生成することで、ワイヤフレームモデ
ルが動作生成する。これにより、図7に示すように人物
顔画像に対しても動作生成されている。同様に、図5に
示す位置ベクトルは、図示していないがワイヤフレーム
モデルの各ノードの位置ベクトルである。
The position vector in FIG. 7 is the position vector of each node of the wire frame model shown in FIG.
By generating the motion during the process 1, the motion of the wireframe model is generated. As a result, as shown in FIG. 7, an operation is generated for a human face image. Similarly, the position vector shown in FIG. 5 is a position vector of each node of the wire frame model, not shown.

【0073】次に、ステップ12において、物理的定義
に基づいてブレンディング関数が定義される。この物理
的定義としては、たとえばコンピュータグラフィックス
で動作する対象物体に働く外力や、前述したような伝達
関数が挙げられる。
Next, in step 12, a blending function is defined based on the physical definition. The physical definition includes, for example, an external force acting on a target object operating in computer graphics, and a transfer function as described above.

【0074】ステップ13において、時刻t=tのとき
の位置ベクトルが求められる。時刻t=tは、図3にお
いては図3(b)から図3(i)のそれぞれであり、位
置ベクトルはシリンダ31を構成する各点の位置ベクト
ルである。図7の場合におけるt=tは、図7(b)か
ら図7(i)のそれぞれであり、位置ベクトルは図8の
ワイヤフレームモデルを構成する各ノードの位置ベクト
ルである。同様に、図5におけるt=tは、図5(b)
から図5(i)のそれぞれであり、位置ベクトルは図示
していないワイヤフレームモデルの各ノードの位置ベク
トルである。このステップ13によって、対象物体(シ
リンダ,ワイヤフレームモデル)を構成する点の位置ベ
クトルが求められるので、その点についてすべての位置
ベクトルが求められることで、対象物体の動作が生成さ
れる。
In step 13, a position vector at time t = t is obtained. At time t = t in FIG. 3, each of FIGS. 3B to 3I is shown, and the position vector is a position vector of each point constituting the cylinder 31. In the case of FIG. 7, t = t is each of FIGS. 7B to 7I, and the position vector is a position vector of each node constituting the wire frame model of FIG. Similarly, t = t in FIG. 5 corresponds to FIG.
5 (i), and the position vector is a position vector of each node of the wire frame model not shown. Since the position vectors of the points constituting the target object (cylinder, wireframe model) are obtained in step 13, the motion of the target object is generated by obtaining all the position vectors for the points.

【0075】次に、ステップ14において、時刻t=t
のときの変位ベクトルが求められ、ステップ15におい
て、時刻tのときの変位ベクトルを表わすデータが表示
部43に伝送される。
Next, at step 14, at time t = t
Is obtained, and in step 15, data representing the displacement vector at time t is transmitted to the display unit 43.

【0076】このようにして、変位ベクトル算出部41
では変位ベクトルが求められ、表示部43にその変位ベ
クトルを表わすデータが伝送されている。
Thus, the displacement vector calculating section 41
In, a displacement vector is obtained, and data representing the displacement vector is transmitted to the display unit 43.

【0077】図13は、変位ベクトル算出部41から表
示部43に伝送されるデータを示した図である。図13
において、横軸はiの値であり、縦軸はその伝送される
データの値である。
FIG. 13 is a diagram showing data transmitted from the displacement vector calculation unit 41 to the display unit 43. FIG.
, The horizontal axis is the value of i, and the vertical axis is the value of the transmitted data.

【0078】i=A,i=B,i=Cのそれぞれは、t
=0に対応するiの値とt=1に対応するiの値との間
にある。変位ベクトル算出部41で算出されるi=A,
i=B,i=Cのそれぞれの変位ベクトルは、前述した
ように数学的定義のみならず物理的定義をも考慮した新
たな時変ホモトピーによって対象物体の極めて良好かつ
自然な実時間における動作を生成するための変位ベクト
ルとして求められる。この求められた変位ベクトルの値
はデータ値として表示部43にデータ値として伝送され
て、対象物体の極めて良好かつ自然な実時間における動
作が表示される。
Each of i = A, i = B and i = C is t
Between the value of i corresponding to = 0 and the value of i corresponding to t = 1. I = A calculated by the displacement vector calculator 41,
The displacement vectors of i = B and i = C can be used to determine the extremely good and natural real-time operation of the target object by a new time-varying homotopy that takes into account not only the mathematical definition but also the physical definition as described above. It is obtained as a displacement vector to generate. The obtained value of the displacement vector is transmitted as a data value to the display unit 43 as a data value, and an extremely good and natural real-time operation of the target object is displayed.

【0079】より詳しく説明すると、新たな時変ホモト
ピーは、従来の数学的定義と力学を基にした運動方程式
による物理的定義とが相互に補足されつつ組合わされて
定義されており、特に、デジタル制御理論に基づく離散
時間系における線形時不変システムを記述できる状態方
程式で外力が定義され、出力が正規化されることでブレ
ンディング関数が導出されている。ただし、新たに提案
された時変ホモトピーで定義した離散時間系における線
形時不変システムの安定条件、可制御、可観測などが考
慮された上でコンピュータグラフィックスにおける対象
物体のより安定した挙動が生成されて表示されればより
良好な動作表示生成が提供されると思われる。したがっ
て、以下では、そのことをも考慮した実施例を説明す
る。
More specifically, the new time-varying homotopy is defined by combining the conventional mathematical definition and the physical definition based on the equation of motion based on dynamics while complementing each other. An external force is defined by a state equation that can describe a linear time-invariant system in a discrete-time system based on control theory, and a blending function is derived by normalizing the output. However, more stable behavior of the target object in computer graphics is generated, taking into account the stability conditions, controllability, observability, etc. of the linear time-invariant system in the discrete time system defined by the newly proposed time-varying homotopy. It would appear to provide better motion display generation if displayed. Therefore, in the following, an embodiment that takes that into consideration will be described.

【0080】自然界において対象となる動作する対象物
体は、本来連続時間系における制御対象である。したが
って、前述の離散時間系におけるサンプル点間応答に着
目すべきである。そこで、第(37)式にx↑(i,
m),y(i,m)を定める。このとき、第(38)式
に示すようなベクトルb↑(m),c↑と行列A(m)
とを定義する。そして、第(38)式を用いて、サンプ
ル点間における状態方程式を第(39)式のように定め
る。この第(39)式で定められたサンプル点間におけ
る状態方程式は、第(29)式に示された状態方程式と
異なっている。第(29)式に示される状態方程式に基
づいて図10から図12に示した実施例が実現されてい
た。
A moving target object that is a target in the natural world is originally a control target in a continuous time system. Therefore, attention should be paid to the response between sample points in the discrete time system described above. Therefore, x ↑ (i,
m) and y (i, m) are determined. At this time, the vector b {(m), c} and the matrix A (m) as shown in Expression (38)
Is defined. Then, the equation of state between the sample points is determined as in equation (39) using equation (38). The state equation between the sample points defined by the equation (39) is different from the state equation shown by the equation (29). The embodiment shown in FIGS. 10 to 12 has been realized based on the state equation shown in Expression (29).

【0081】次に、新たにブレンディング関数Bld
(i,m)を第(40)式のように定める。この第(4
0)式に定められたブレンディング関数Bld(i,
m)も、第(35)式に定められたブレンディング関数
Bld(i)と異なっている。ブレンディング関数Bl
d(i,m)を用いて、時刻t=iTと時刻t=(i+
1)Tとの間で、変位量をΔx↑(i,m)が第(4
1)式で表される。
Next, a new blending function Bld
(I, m) is determined as in equation (40). This fourth (4
0) The blending function Bld (i, i,
m) is also different from the blending function Bld (i) defined in Expression (35). Blending function Bl
Using d (i, m), time t = iT and time t = (i +
1) Between T and Δx ↑ (i, m) is the (4)
It is expressed by the expression 1).

【0082】[0082]

【数5】 (Equation 5)

【0083】図14は、この発明の他の実施例によるコ
ンピュータグラフィックスにおける動作表示生成方法を
実行するための合成部の内部処理を示した図であり、図
15は、第(37)式から第(41)式に示されるよう
な拡張Z変換に基づく、コンピュータグラフィックスに
おける動作表示生成方法を示したフロー図である。図1
4および図15を参照して、ステップ101において、
変位ベクトル算出部41で物理的に定義された時変ホモ
トピー(たとえば外力を表わすことができる)に基づい
て、変位べクトルΔx↑(i),Δx↑(i+1)が求
められる。このステップ101の詳しい処理は、図12
に示されるフロー図の処理で実現される。すなわち、ス
テップ101のΔX↑(i),Δx↑(i+1)のそれ
ぞれがステップ11からステップ15の処理によって求
められて、表示部43に伝送される。
FIG. 14 is a diagram showing the internal processing of the synthesizing unit for executing the operation display generating method in computer graphics according to another embodiment of the present invention, and FIG. FIG. 21 is a flowchart showing a method for generating an operation display in computer graphics based on an extended Z transform as shown in Expression (41). FIG.
4 and FIG. 15, in step 101,
The displacement vectors Δx ↑ (i) and Δx ↑ (i + 1) are obtained based on the time-varying homotopy (for example, an external force can be represented) physically defined by the displacement vector calculation unit 41. The detailed processing of this step 101 is described in FIG.
Is realized by the processing of the flowchart shown in FIG. That is, ΔX ↑ (i) and Δx ↑ (i + 1) in step 101 are obtained by the processing in steps 11 to 15 and transmitted to the display unit 43.

【0084】次に、ステップ201のステップ211に
おいて、変位ベクトルΔx↑(i)に対応する位置ベク
トルx↑(i)が求められ、ステップ212においてブ
レンディング関数Bld(i,m)を用いてΔx↑
(i,m)が求められる。
Next, in step 211 of step 201, the position vector x ↑ (i) corresponding to the displacement vector Δx ↑ (i) is obtained, and in step 212, Δx ↑ is determined using the blending function Bld (i, m).
(I, m) is required.

【0085】そして、ステップ301において、位置ベ
クトルx↑(i)および変位ベクトルΔx↑(i,m)
から位置ベクトルx↑(i,m)が求められて表示され
る。
Then, in step 301, the position vector x ↑ (i) and the displacement vector Δx ↑ (i, m)
, A position vector x ↑ (i, m) is obtained and displayed.

【0086】図16は、図14および図15に示された
コンピュータグラフィックスにおける動作表示生成方法
によって、変位ベクトル算出部41から表示部43に伝
送されるデータを示した図である。
FIG. 16 is a diagram showing data transmitted from the displacement vector calculation unit 41 to the display unit 43 by the operation display generation method in the computer graphics shown in FIGS. 14 and 15.

【0087】図16に示すように、i=Aとi=Bとの
間や、i=Bとi=Cとの間で、それぞれ1/m個のデ
ータが得られ、変位ベクトル算出部41から表示部43
に伝送される。すなわち、変位ベクトル算出部41から
表示部43に伝送されるデータの量は、図11に示すフ
ロー図に対応したコンピュータグラフィックスにおける
動作表示生成方法においては、図10に示すように、i
個のデータであるが、図15に示すフロー図によるコン
ピュータグラフィックスにおける動作表示生成方法では
図14に示すようにmi個のデータである。これによ
り、図11に示されるコンピュータグラフィックスにお
ける動作表示生成方法では各点の変位ベクトルΔx
(i)を伝送する際に、時間軸に添った補間を施すこと
なく、変位ベクトルΔx(i)の全データが伝送されて
いたのに対し、図15に示すような拡張Z変換を用いた
コンピュータグラフィックスにおける動作表示生成方法
を用いることで、各点の変位ベクトルΔx(t)の伝送
量を、mに相当する1/(補間するときの分割数)にま
で削減することができる。したがって、対象となる対象
物体の動作をより高速にコンピュータグラフィックスで
動作生成するとともに表示でき、計算機に対する負荷を
軽減できる。
As shown in FIG. 16, 1 / m data is obtained between i = A and i = B and between i = B and i = C, respectively. To display unit 43
Is transmitted to That is, as shown in FIG. 10, the amount of data transmitted from the displacement vector calculation unit 41 to the display unit 43 is i as shown in FIG. 10 in the operation display generation method in computer graphics corresponding to the flowchart shown in FIG.
In the operation display generation method in the computer graphics according to the flow chart shown in FIG. 15, there are mi data as shown in FIG. Accordingly, in the motion display generation method in the computer graphics shown in FIG.
When transmitting (i), all data of the displacement vector Δx (i) was transmitted without performing interpolation along the time axis, but an extended Z-transform as shown in FIG. 15 was used. By using the operation display generation method in computer graphics, the transmission amount of the displacement vector Δx (t) at each point can be reduced to 1 / (the number of divisions at the time of interpolation) corresponding to m. Therefore, the motion of the target object can be generated and displayed at higher speed by computer graphics, and the load on the computer can be reduced.

【0088】なお、図17に拡張Z変換を時間軸に対し
て一種の補間を見なした場合の実時間で動作するシリン
ダの時系列連続画像を示す。図17(a)はt=0の場
合のシリンダの状態を示しており、図17(j)はt=
1の場合のシリンダの状態を示している。
FIG. 17 shows a time-series continuous image of cylinders operating in real time when the extended Z-transform is considered as a kind of interpolation with respect to the time axis. FIG. 17A shows the state of the cylinder when t = 0, and FIG.
1 shows the state of the cylinder.

【0089】次に、従来の時変ホモトピーと本発明で提
案された時変ホモトピーについての違いについてまとめ
る。
Next, the differences between the conventional time-varying homotopy and the time-varying homotopy proposed in the present invention will be summarized.

【0090】1.従来の時変ホモトピーでは、コンピュ
ータグラフィックスで動作する対象物体に働く外力を定
義することができなかったが、新たな時変ホモトピーで
は、その外力を定義できる。
1. With the conventional time-varying homotopy, it was not possible to define the external force acting on the target object operating with computer graphics, but with the new time-varying homotopy, the external force can be defined.

【0091】2.従来の時変ホモトピーでは、ブレンデ
ィング関数を定義する際に伝達関数を定義することがで
きなかったが、新たな時変ホモトピーでは、その伝達関
数を定義できる。
2. In a conventional time-varying homotopy, a transfer function cannot be defined when defining a blending function. However, a transfer function can be defined in a new time-varying homotopy.

【0092】3.1と2より、従来数学的定義に留まっ
ていた時変ホモトピーに物理的定義を加えて、相補させ
つつ組合わせて、コンピュータグラフィックスにおいて
対象となる物体の、より自然でかつ実時間の動作を表示
することが可能となり、時変ホモトピーが数学的定義に
留まっていたときよりはるかに多くの応用が期待され
る。
From 3.1 and 2, the physical definition is added to the time-varying homotopy, which has conventionally been limited to the mathematical definition, and is combined while complementing it. It will be possible to display real-time behavior, and much more applications are expected than when time-varying homotopy remained in mathematical definition.

【0093】4.さらに、前述のデジタル制御理論に基
づいた時変ホモトピーを定義する際、サンプル点間の応
答をも考慮した状態方程式が用いられることで、変位量
の時間軸に添った補間を行うことができ、コンピュータ
グラフィックスにおいて対象となる物体のより高速な動
作と計算機に対する負荷の軽減を実現できる。
4. Furthermore, when defining the time-varying homotopy based on the above-mentioned digital control theory, interpolation along the time axis of displacement can be performed by using a state equation that also takes into account the response between sample points, In computer graphics, faster operation of a target object and reduction of the load on a computer can be realized.

【0094】[0094]

【発明の効果】以上のようにこの発明によれば、コンピ
ュータグラフィックスにおいて対象となる対象物体を構
成する点の第1の時刻での変位ベクトルが求められ、点
の第2の時刻での変位ベクトルが求められ、それらの変
位ベクトルを表わすデータが伝送され、伝送されたデー
タが表わす点の第1の時刻での変位ベクトルに対応する
点の第1の時刻での位置ベクトルが求められ、伝送され
たデータが表わす点の第1の時刻での変位ベクトルと点
の第2の時刻での変位ベクトルとの混合の割合を示す混
合関数に基づいて、点の第1の時刻および第2の時刻間
の所定の時刻での変位ベクトルが求められて、求められ
た点の第1の時刻での位置ベクトルおよび点の所定の時
刻での変位ベクトルに基づいて、点の所定の時刻での位
置ベクトルが求められて表示されるので、コンピュータ
グラフィックスにおいて対象となる対象物体の極力自然
でかつ実時間の動作を生成することができるとともに、
極力高速に動作を表示生成可能となり、たとえば計算機
に対する負荷を極力軽減できる。
As described above, according to the present invention, a displacement vector of a point constituting a target object in computer graphics at a first time is obtained, and a displacement of the point at a second time is obtained. Vectors are determined, data representing their displacement vectors is transmitted, and a position vector at a first time of a point corresponding to the displacement vector of the point represented by the transmitted data at the first time is determined. First and second points in time of a point based on a mixing function indicating the ratio of mixing of the displacement vector of the point at the first time and the displacement vector of the point at the second time represented by the extracted data. A displacement vector at a predetermined time is obtained, and a position vector of the point at a predetermined time is obtained based on the obtained position vector of the point at a first time and the displacement vector of the point at a predetermined time. Asked Because it is displayed is, it is possible to produce as much as possible natural and real-time operation of the object of interest in computer graphics,
The operation can be displayed and generated as fast as possible. For example, the load on the computer can be reduced as much as possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】直流サーボモータの原理を説明するための図で
ある。
FIG. 1 is a diagram for explaining the principle of a DC servomotor.

【図2】離散時間系における入力u(i)、入力u
(i)の値をiに応じて1,2,0に変化させた場合の
出力y(i)、速度dy(i)/diおよびブレンディ
ング関数Bld(i)の値を示したグラフである。
FIG. 2 shows an input u (i) and an input u in a discrete time system
5 is a graph showing the output y (i), the speed dy (i) / di, and the value of the blending function Bld (i) when the value of (i) is changed to 1, 2, 0 according to i.

【図3】物理的定義に基づいた時変ホモトピーによる実
時間で動作するシリンダの時系列連続画像を示した図で
ある。
FIG. 3 is a diagram showing a time-series continuous image of a cylinder operating in real time by a time-varying homotopy based on a physical definition.

【図4】図3に示されたシリンダの動作生成に対しての
入力u(i)、出力y(i)およびブレンディング関数
Bld(i)を示したグラフである。
FIG. 4 is a graph showing an input u (i), an output y (i), and a blending function Bld (i) for the operation generation of the cylinder shown in FIG. 3;

【図5】物理的定義に基づく時変ホモトピーによる実時
間で動作する顔のしわの時系列連続画像を示した図であ
る。
FIG. 5 is a diagram showing a time-series continuous image of face wrinkles operating in real time by a time-varying homotopy based on a physical definition.

【図6】図5に示された顔のしわの動作生成に対しての
入力u(i)、出力y(i)およびブレンディング関数
Bld(i)を示したグラフである。
6 is a graph showing an input u (i), an output y (i), and a blending function Bld (i) with respect to the generation of the motion of the face wrinkle shown in FIG.

【図7】物理的定義に基づく時変ホモトピーによる実時
間で動作する口の開閉の時系列連続画像を示した図であ
る。
FIG. 7 is a diagram showing a time-series continuous image of opening and closing of a mouth that operates in real time by a time-varying homotopy based on a physical definition.

【図8】図7に示された口の開閉の動作生成に対しての
三次元ワイヤフレームモデルの状態を示した図である。
FIG. 8 is a diagram showing a state of a three-dimensional wire frame model for the generation of the opening / closing operation of the mouth shown in FIG. 7;

【図9】この発明の一実施例によるコンピュータグラフ
ィックスにおける動作表示生成方法を処理する合成部の
内部構成を示した図である。
FIG. 9 is a diagram showing an internal configuration of a synthesizing unit that processes an operation display generation method in computer graphics according to an embodiment of the present invention.

【図10】図9に示した合成部に対応した図であって、
変位ベクトル算出部と表示部との内部処理を示した図で
ある。
FIG. 10 is a diagram corresponding to the synthesizing unit shown in FIG. 9,
FIG. 5 is a diagram illustrating internal processing of a displacement vector calculation unit and a display unit.

【図11】この発明の一実施例によるコンピュータグラ
フィックスにおける動作表示生成方法を示したフロー図
である。
FIG. 11 is a flowchart showing a method for generating an operation display in computer graphics according to an embodiment of the present invention.

【図12】図11のステップ1の詳細をしめしたフロー
図である。
FIG. 12 is a flowchart showing details of step 1 in FIG. 11;

【図13】図11のステップ1で伝送されるデータを示
したグラフである。
FIG. 13 is a graph showing data transmitted in step 1 of FIG.

【図14】この発明の他の実施例によるコンピュータグ
ラフィックスにおける動作表示生成方法を実行するため
の合成部の内部処理を示した図である。
FIG. 14 is a diagram showing internal processing of a synthesizing unit for executing a method for generating an operation display in computer graphics according to another embodiment of the present invention.

【図15】この発明の他の実施例におけるコンピュータ
グラフィックスにおける動作表示生成方法を示したフロ
ー図である。
FIG. 15 is a flowchart showing a method for generating an operation display in computer graphics according to another embodiment of the present invention.

【図16】図15のステップ101で伝送されるデータ
を示したグラフである。
FIG. 16 is a graph showing data transmitted in step 101 of FIG.

【図17】図15に示されるコンピュータグラフィック
スにおける動作表示生成方法で得られ、かつ物理的定義
に基づく時変ホモトピーによる実時間で動作するシリン
ダーの時系列連続画像を示した図である。
17 is a diagram showing a time-series continuous image of a cylinder operating in real time by a time-varying homotopy based on a physical definition, obtained by the operation display generation method in computer graphics shown in FIG.

【図18】臨場感通信会議の状態を示した図である。FIG. 18 is a diagram illustrating a state of the presence communication conference.

【図19】臨場感通信会議システムの装置概略ブロック
図である。
FIG. 19 is a schematic block diagram of a device of the communication conference system with a sense of presence.

【図20】顔の表情筋の構造を示した図である。FIG. 20 is a diagram showing the structure of facial expression muscles.

【図21】三次元ワイヤフレームモデルを示した図であ
る。
FIG. 21 is a diagram showing a three-dimensional wire frame model.

【図22】位相幾何学(トポロジー)におけるホモトピ
ーを説明するための図である。
FIG. 22 is a diagram for explaining homotopy in topology.

【図23】従来の数学的定義に基づく時変ホモトピーを
説明するための図である。
FIG. 23 is a diagram for explaining a time-varying homotopy based on a conventional mathematical definition.

【図24】ブレンディング関数Rn (v)の一例を示し
たグラフである。
FIG. 24 is a graph showing an example of a blending function R n (v).

【図25】ブレンディング関数Rn (v)の他の例を示
したグラフである。
FIG. 25 is a graph showing another example of the blending function R n (v).

【図26】図24に示されるブレンディング関数R
n (v)によって得られる物体の静的形状の1階微分が
不連続な面を示した図である。
FIG. 26 shows a blending function R shown in FIG.
It is the figure which showed the surface where the 1st-order differentiation of the static shape of the object obtained by n (v) was discontinuous.

【図27】図25に示されるブレンディング関数R
n (v)によって得られる物体の静的形状の1階微分が
連続な面の形状を示した図である。
FIG. 27 shows a blending function R shown in FIG.
It is the figure which showed the shape of the surface where the 1st derivative of the static shape of the object obtained by n (v) was continuous.

【図28】従来の数学的定義に基づく時変ホモトピーに
よって得られるシリンダの実時間における動作生成を示
した図である。
FIG. 28 is a diagram showing a real-time motion generation of a cylinder obtained by a time-varying homotopy based on a conventional mathematical definition.

【符号の説明】[Explanation of symbols]

13 合成部 41 変位ベクトル算出部 43 表示部 13 Combining unit 41 Displacement vector calculating unit 43 Display unit

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 時変ホモトピーに基づいて対象物体の動
作を表示生成するために、前記対象物体を構成する点の
動作を表示生成するコンピュータグラフィックスにおけ
る動作表示生成方法であって、 前記時変ホモトピーは物理的に定義され、 前記点の第1の時刻での変位ベクトルが求められ、前記
点の第2の時刻での変位ベクトルが求められ、それらの
変位ベクトルを表わすデータが伝送される第1のステッ
プと、 前記伝送されたデータが表わす前記点の第1の時刻での
変位ベクトルに対応する前記点の第1の時刻での位置ベ
クトルを求め、前記伝送されたデータが表わす前記点の
第1の時刻での変位ベクトルと前記点の第2の時刻での
変位ベクトルとの混合の割合を示す混合関数に基づい
て、前記点の第1の時刻および第2の時刻間の所定の時
刻での変位ベクトルを求める第2のステップと、 前記第2のステップで求められた前記点の第1の時刻で
の位置ベクトルおよび前記点の所定の時刻での変位ベク
トルに基づいて、前記点の所定の時刻での位置ベクトル
を求めて表示する第3のステップとを含む、コンピュー
タグラフィックスにおける動作表示生成方法。
1. A motion display generation method in computer graphics for displaying and generating a motion of a point constituting a target object in order to display and generate a motion of a target object based on a time-varying homotopy. The homotopy is physically defined, a displacement vector of the point at a first time is determined, a displacement vector of the point at a second time is determined, and data representing the displacement vectors is transmitted. Determining a position vector of the point at a first time corresponding to a displacement vector of the point at a first time represented by the transmitted data; and determining a position vector of the point represented by the transmitted data. A predetermined value between the first time and the second time of the point is determined based on a mixing function indicating a mixing ratio of the displacement vector at the first time and the displacement vector of the point at a second time. A second step of obtaining a displacement vector at the time of, based on a position vector of the point at a first time and a displacement vector of the point at a predetermined time obtained in the second step, And a third step of obtaining and displaying a position vector of the point at a predetermined time.
【請求項2】 前記第1の時刻および前記第2の時刻
は、第3の時刻と第4の時刻との間の時刻であり、 前記第1のステップは、 前記点の第3の時刻での位置ベクトルが与えられ、前記
点の第4の時刻での位置ベクトルが与えられる第4のス
テップと、 前記第4のステップで与えられた前記点の第3の時刻で
の位置ベクトルと前記点の第4の時刻での位置ベクトル
との混合の割合を示す混合関数を定義する第5のステッ
プと、 前記第5のステップで定義された混合関数に基づいて、
前記第1の時刻およよび第2の時刻それぞれでの位置ベ
クトルを求める第6のステップと、 前記第4のステップで与えられた前記点の第3の時刻で
の位置ベクトルならびに前記第6のステップで求められ
た前記点の第1の時刻および第2の時刻それぞれでの位
置ベクトルに基づいて、前記点の第1の時刻および第2
の時刻それぞれの変位ベクトルを求める第7のステップ
とを含む、請求項1記載のコンピュータグラフィックス
における動作表示生成方法。
2. The method according to claim 1, wherein the first time and the second time are times between a third time and a fourth time, and the first step is a third time at the point. The position vector of the point at a fourth time is given, and the position vector of the point given at the fourth step at a third time and the point A fifth step of defining a mixing function indicating the proportion of mixing with the position vector at the fourth time of the following: based on the mixing function defined in the fifth step,
A sixth step of obtaining a position vector at each of the first time and the second time; a position vector at a third time of the point given in the fourth step; The first time and the second time of the point are obtained based on the position vectors of the point at the first time and the second time, respectively, obtained in the step.
And calculating a displacement vector at each of the times.
【請求項3】 前記時変ホモトピーは、前記第5のステ
ップで定義された混合関数を定義するための伝達関数を
定義する、請求項2記載のコンピュータグラフィックス
における動作表示生成方法。
3. The method according to claim 2, wherein the time-varying homotopy defines a transfer function for defining the mixing function defined in the fifth step.
【請求項4】 前記時変ホモトピーは、前記対象物体に
加わる外力を定義する、請求項1または2記載のコンピ
ュータグラフィックスにおける動作表示生成方法。
4. The method according to claim 1, wherein the time-varying homotopy defines an external force applied to the target object.
JP6191604A 1994-08-15 1994-08-15 Motion display generation method in computer graphics Expired - Fee Related JP2739436B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6191604A JP2739436B2 (en) 1994-08-15 1994-08-15 Motion display generation method in computer graphics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6191604A JP2739436B2 (en) 1994-08-15 1994-08-15 Motion display generation method in computer graphics

Publications (2)

Publication Number Publication Date
JPH0855233A JPH0855233A (en) 1996-02-27
JP2739436B2 true JP2739436B2 (en) 1998-04-15

Family

ID=16277408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6191604A Expired - Fee Related JP2739436B2 (en) 1994-08-15 1994-08-15 Motion display generation method in computer graphics

Country Status (1)

Country Link
JP (1) JP2739436B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2903303B2 (en) * 1996-09-03 1999-06-07 株式会社モノリス Animation processing method and its application

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739434B2 (en) * 1994-08-12 1998-04-15 株式会社エイ・ティ・アール通信システム研究所 Action generation method in computer graphics

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
テレビジョン学会技術報告 VOL.17,NO58,P37−P42
電子情報通信学会技術研究報告IE94−37(1994.7)

Also Published As

Publication number Publication date
JPH0855233A (en) 1996-02-27

Similar Documents

Publication Publication Date Title
US7791606B2 (en) Goal-directed cloth simulation
KR101819535B1 (en) Method and apparatus for expressing rigid area based on expression control points
US7872654B2 (en) Animating hair using pose controllers
WO2002080111A1 (en) Emotion-based 3-d computer graphics emotion model forming system
EP1627282B1 (en) Rig baking
JP3753625B2 (en) Expression animation generation apparatus and expression animation generation method
Ulgen A step towards universal facial animation via volume morphing
JP2739434B2 (en) Action generation method in computer graphics
KR20080052272A (en) The production method and system of cartoon animation using character animation and mesh deformation
JP2739436B2 (en) Motion display generation method in computer graphics
Duysak et al. Efficient modelling and simulation of soft tissue deformation using mass-spring systems
EP1306114B1 (en) Recording medium storing 3D model deformation program, 3D model deformation program, 3D deformation method and video game device
Tang et al. Lip-sync in human face animation based on video analysis and spline models
KR100792704B1 (en) A Method of Retargeting A Facial Animation Based on Wire Curves And Example Expression Models
JP2739447B2 (en) 3D image generator capable of expressing wrinkles
Savchenko et al. Feature based sculpting of functionally defined 3D geometric objects
US20030083854A1 (en) Particle control using a path
Nendya et al. Facial rigging for 3d character
Park et al. A feature‐based approach to facial expression cloning
JP3516377B2 (en) Method for generating motion image of articulated structure, recording medium recording the same, and motion image generation device using the same
Cohen-Or et al. Smooth boundary surfaces from binary 3D datasets
Narang et al. Fbcrowd: Interactive multi-agent simulation with coupled collision avoidance and human motion synthesis
WO2022222058A1 (en) Multi-hairstyle real-time animation method based on neural network interpolator
Kanda et al. Efficient, realistic method for animating dynamic behaviors of 3D botanical trees
Akinjala et al. Animating human movement & gestures on an agent using Microsoft kinect

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19971202

LAPS Cancellation because of no payment of annual fees