JP2813971B2 - State reproduction method - Google Patents

State reproduction method

Info

Publication number
JP2813971B2
JP2813971B2 JP25563695A JP25563695A JP2813971B2 JP 2813971 B2 JP2813971 B2 JP 2813971B2 JP 25563695 A JP25563695 A JP 25563695A JP 25563695 A JP25563695 A JP 25563695A JP 2813971 B2 JP2813971 B2 JP 2813971B2
Authority
JP
Japan
Prior art keywords
dimensional
vectors
vector
movement
sum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP25563695A
Other languages
Japanese (ja)
Other versions
JPH0935089A (en
Inventor
一之 海老原
淳 大谷
紀子 鈴木
文郎 岸野
Original Assignee
株式会社エイ・ティ・アール通信システム研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール通信システム研究所 filed Critical 株式会社エイ・ティ・アール通信システム研究所
Priority to JP25563695A priority Critical patent/JP2813971B2/en
Publication of JPH0935089A publication Critical patent/JPH0935089A/en
Application granted granted Critical
Publication of JP2813971B2 publication Critical patent/JP2813971B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Processing Or Creating Images (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、対象物が任意の動
きをした際の状態を再現する状態再現方法であって、特
に、人物の表情を、人物3次元モデルを用いて、自然に
再現することのできる状態再現方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a state reproducing method for reproducing a state when an object moves arbitrarily. In particular, a facial expression of a person is naturally reproduced using a three-dimensional model of a person. It relates to a state reproduction method that can be performed.

【0002】[0002]

【従来の技術】従来の状態再現方法は、たとえば、
(1)大谷淳、北村泰一、竹村治雄、岸野文郎「臨場感
通信会議における3次元顔画像の実時間表示」信学技報
HC92−61、(2)鈴木紀子、大谷淳、岸野文郎
「3次元計測に基づいた顔画像の表情再現法の検討」信
学技報 信学全大会A−155、に開示されている。以
上に示した文献には、対象物が任意の動きをした際の状
態を再現する状態再現方法として、人物の表情を再現す
る方法が記載されている。したがって、以下、従来の状
態再現方法として、従来の人物の表情再現方法について
説明する。
2. Description of the Related Art Conventional state reproducing methods include, for example,
(1) Atsushi Otani, Taiichi Kitamura, Haruo Takemura, Fumio Kishino "Real-Time Display of 3D Face Images in Realistic Communication Conference" IEICE Technical Report HC92-61, (2) Noriko Suzuki, Atsushi Otani, Fumio Kishino " Examination of Facial Expression Reproduction Method Based on Three-Dimensional Measurement ", IEICE Technical Report, A-155. The literature described above describes a method of reproducing a facial expression of a person as a state reproduction method of reproducing a state when an object moves arbitrarily. Therefore, a conventional facial expression reproducing method will be described below as a conventional state reproducing method.

【0003】遠隔地にいる人々があたかも一堂に会する
かのような視覚的相互作用が得られ、仮想空間内での協
調作業が可能な場が提供できるようにすることを目的と
した通信を臨場感通信会議と呼ぶ。この臨場感通信会議
のようなシステムでは、送信側で検出された表情を、受
信側で人物3次元モデル(従来の状態再現方法としての
表情再現方法においては、3次元ワイヤフレームモデル
(3D Wire Frame Model:WFM)を用いている。以
下、「3D WFM」という。)において再現する必要
がある。
[0003] Communication is performed for the purpose of providing a visual interaction as if people in remote places are gathering together and providing a place where collaborative work in a virtual space is possible. This is called a “realistic communication conference”. In a system such as this real-life communication conference, an expression detected on the transmission side is converted into a person 3D model on the reception side (in a conventional expression reproduction method as a state reproduction method, a 3D wire frame model (3D Wire Frame model)). Model: WFM), which is hereinafter referred to as “3D WFM”).

【0004】すなわち、実時間で人物の表情検出を行な
うために、人物の顔に直接マーカ(人物の表情を捕える
手段)を貼り、テレビカメラにより撮影された顔の顔画
像中でマーカの動きを追跡する。このマーカの追跡結果
を利用して、予め3次元画像に当てはめておいた3D
WFMを変形して、人物の表情を再現する。なお、3D
WFMは、三角パッチの集合体であり、3D WFM
の変形は三角パッチの各頂点を駆動することにより行な
う。
That is, in order to detect the expression of a person in real time, a marker (means for capturing the expression of the person) is attached directly to the face of the person, and the movement of the marker in the face image of the face captured by a television camera is determined. Chase. Using the tracking result of this marker, 3D previously applied to the 3D image
The WFM is transformed to reproduce the expression of a person. 3D
WFM is a set of triangular patches, and 3D WFM
Is performed by driving each vertex of the triangular patch.

【0005】上記した先行技術文献(1)に示した従来
の状態再現方法としての表情再現方法においては、人物
の顔に貼られた各マーカに対応する範囲ごとに3D W
FMの各頂点の動かし方を決めるモーションルールは、
人間の判断に基づいて作成している。
In the expression reproducing method as the conventional state reproducing method shown in the above-mentioned prior art document (1), 3D W is used for each range corresponding to each marker attached to the face of a person.
The motion rule that determines how to move each vertex of FM is
Created based on human judgment.

【0006】上記した先行技術文献(2)に示した従来
の状態再現方法としての表情再現方法においては、予め
人物のいくつかの表情を表出した際の3次元計測を行な
い、その結果に基づいて顔画像中のマーカの2次元移動
ベクトルを3D WFMの各頂点の3次元移動ベクトル
に変換する推定マトリックスを用いる手法により人物の
表情を再現する。この場合、3次元計測により求められ
た、人物のいくつかの表情表出時の3次元移動ベクトル
の中から、顔画像中のマーカの2次元移動ベクトルの動
きに最も方向が近い1つの3次元移動ベクトルを利用し
ている。
In the facial expression reproducing method as the conventional state reproducing method shown in the above-mentioned prior art document (2), three-dimensional measurement is performed in advance when several facial expressions of a person are expressed, and based on the results, Then, the facial expression of the person is reproduced by a method using an estimation matrix for converting the two-dimensional movement vector of the marker in the face image into the three-dimensional movement vector of each vertex of the 3D WFM. In this case, one of the three-dimensional movement vectors closest to the movement of the two-dimensional movement vector of the marker in the face image is selected from the three-dimensional movement vectors obtained by expressing three expressions of the person obtained by the three-dimensional measurement. Uses movement vectors.

【0007】[0007]

【発明が解決しようとする課題】先行技術文献(1)に
示した従来の状態再現方法としての表情再現方法におい
ては、上述したように3D WFMの各頂点の動かし方
を決めるモーションルールは、人間の判断に基づいて作
成されていたため、実際の人物の顔と合成した顔画像を
比較して表情が異なる場合があるという問題点があっ
た。
In the conventional facial expression reproducing method as the state reproducing method shown in the prior art document (1), as described above, the motion rule for determining how to move each vertex of the 3D WFM is a human rule. Therefore, there is a problem that the facial expression may be different by comparing the actual face of the person with the synthesized face image.

【0008】先行技術文献(2)に示した従来の状態再
現方法としての表情再現方法においては、上述したよう
に、3D WFMの1つの頂点を動かす際に、先に行な
った3次元計測により求められた人物のいくつかの表情
表出時の3次元移動ベクトルのうち、1つの3次元移動
ベクトルを利用していたため、予め3次元計測を行なっ
た表情以外の表情に対応するマーカの動きが入力された
場合、マーカの動きに追従するという柔軟性がなく、常
に自然な人物の表情が再現できるとは限らないという問
題点があった。
In the facial expression reproducing method as the conventional state reproducing method shown in the prior art document (2), as described above, when one vertex of the 3D WFM is moved, it is determined by the three-dimensional measurement previously performed. Since one of the three-dimensional movement vectors of the given person at the time of expression is used, the movement of the marker corresponding to an expression other than the expression whose three-dimensional measurement has been performed in advance is input. In such a case, there is no flexibility to follow the movement of the marker, and there is a problem that a natural expression of a person cannot always be reproduced.

【0009】この発明は、以上のような問題点を解決す
るためになされたもので、予め3次元計測を行なった表
情以外の表情を人物がした場合においても、人物3次元
モデルによって自然な表情の再現ができる表情再現方法
を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems. Even when a person performs an expression other than the expression for which three-dimensional measurement has been performed in advance, a natural expression can be obtained by using a three-dimensional human model. It is an object of the present invention to provide a facial expression reproducing method capable of reproducing an image.

【0010】すなわち、この発明の目的は、対象物の任
意の動き後の状態を3次元模型で再現する際に、その再
現性をよくすることのできる状態再現方法を提供するこ
とである。
[0010] That is, an object of the present invention is to provide a state reproducing method capable of improving the reproducibility of a three-dimensional model when reproducing the state of the object after any movement.

【0011】[0011]

【課題を解決するための手段】本発明の請求項1の状態
再現方法は、複数の基準点を設けた基準となる対象物
が、いくつかの所定の動きをした際の、基準となる対象
物の基準点の動きを表わす複数の3次元移動ベクトル
を、2次元画像で表わされる複数の特徴点を設けた任意
の対象物に投影した複数の2次元ベクトルと、任意の対
象物が任意の動きをした際の、任意の対象物の特徴点の
動きを表わす2次元移動ベクトルとに基づいて、基準と
なる対象物の複数の基準点に対応する格子点を含む複数
の格子点からなる、基準となる対象物の画像としての3
次元模型を駆動させることにより、任意の対象物が任意
の動きをした際の状態を再現する状態再現方法であっ
て、複数の基準点に対応する複数の特徴点の各々におい
て、基準となる対象物がいくつかの所定の動きをした際
の複数の3次元移動ベクトルに対応する複数の2次元ベ
クトルの中から、2次元移動ベクトルに近い、かつ、2
次元移動ベクトルを間に挟む、2つの2次元ベクトルを
抽出するステップと、複数の基準点に対応する複数の特
徴点の各々において、抽出された2つの2次元ベクトル
のそれぞれに重み付けをして、2次元移動ベクトルが、
抽出された2つの2次元ベクトルの第1の和で表現でき
るように、抽出された2つの2次元ベクトルに対する、
それぞれの重み付けを算出するステップと、複数の基準
点に対応する複数の特徴点の各々において算出された重
み付けをもとに、任意の対象物が任意の動きをした際
の、複数の格子点の動きを決定する複数のベクトルを求
め、複数の格子点の動きを決定する複数のベクトルに基
づいた複数の格子点の移動により、3次元模型を駆動す
るステップとを含む。
According to a first aspect of the present invention, there is provided a method for reproducing a state, comprising the steps of: providing a plurality of reference points; A plurality of two-dimensional vectors obtained by projecting a plurality of three-dimensional movement vectors representing the movement of a reference point of an object onto an arbitrary object provided with a plurality of feature points represented by a two-dimensional image; A plurality of grid points including grid points corresponding to a plurality of reference points of the reference target object, based on a two-dimensional movement vector representing the movement of the feature point of the arbitrary target when moving. 3 as the image of the reference object
A state reproduction method that reproduces a state when an arbitrary object makes an arbitrary movement by driving a three-dimensional model, wherein a reference object is set at each of a plurality of feature points corresponding to a plurality of reference points. From a plurality of two-dimensional vectors corresponding to a plurality of three-dimensional movement vectors when the object makes some predetermined movement, the two-dimensional movement vector is close to the two-dimensional movement vector and 2
Extracting two two-dimensional vectors sandwiching the two-dimensional movement vector; and weighting each of the two extracted two-dimensional vectors at each of a plurality of feature points corresponding to the plurality of reference points, The two-dimensional movement vector is
The two extracted two-dimensional vectors are represented by a first sum of the two extracted two-dimensional vectors.
Calculating the respective weights, and based on the weights calculated for each of the plurality of feature points corresponding to the plurality of reference points, based on the weights calculated for each of the plurality of grid points, Obtaining a plurality of vectors for determining the motion, and driving the three-dimensional model by moving the plurality of grid points based on the plurality of vectors for determining the motion of the plurality of grid points.

【0012】請求項1の状態再現方法においては、任意
の対象物の任意の動きを表わす2次元移動ベクトルを、
基準の対象物の所定の動きを表わす3次元移動ベクトル
から得た2次元ベクトルの第1の和として表現し、その
際に算出される重み付けをもとに得られた、3次元模型
の格子点の動きを決定するベクトルに従い、3次元模型
の格子点を動かし、3次元模型を駆動する。
In the state reproducing method according to the first aspect, a two-dimensional movement vector representing an arbitrary movement of an arbitrary object is represented by:
Lattice points of a three-dimensional model expressed as a first sum of two-dimensional vectors obtained from three-dimensional movement vectors representing a predetermined movement of a reference object, and obtained based on weights calculated at that time The lattice points of the three-dimensional model are moved according to the vector that determines the movement of the three-dimensional model, and the three-dimensional model is driven.

【0013】本発明の請求項2の状態再現方法では、請
求項1の状態再現方法において、3次元模型を駆動する
ステップは、抽出された2つの2次元ベクトルがそれぞ
れ表わすいくつかの所定の動きに相対する2つの3次元
移動ベクトルに、算出された重み付けをするステップ
と、重み付けされた2つの3次元移動ベクトルの第2の
和を求め、第2の和である格子点の動きを決定するベク
トルに基づき、3次元模型の格子点を動かすステップと
を含む。
In the state reproducing method according to the second aspect of the present invention, in the state reproducing method according to the first aspect, the step of driving the three-dimensional model includes the steps of: Weighting the two three-dimensional motion vectors calculated with respect to, calculating the second sum of the two weighted three-dimensional motion vectors, and determining the movement of the grid point as the second sum Moving the grid points of the three-dimensional model based on the vector.

【0014】請求項2の状態再現方法においては、請求
項1の状態再現方法において、任意の対象物の任意の動
きを表わす2次元移動ベクトルを第1の和で表現する2
つの2次元ベクトルがそれぞれ表わす所定の動きに相対
する2つの3次元移動ベクトルに、2次元移動ベクトル
を第1の和で表現するときに用いた重み付けをし、重み
付けされた2つの3次元移動ベクトルの第2の和を求
め、その第2の和である格子点の動きを決定するベクト
ルをもとに3次元模型の格子点を動かして、3次元模型
を駆動する。
According to a second aspect of the present invention, in the state reproducing method of the first aspect, a two-dimensional motion vector representing an arbitrary motion of an arbitrary object is represented by a first sum.
Two three-dimensional motion vectors corresponding to predetermined motions respectively represented by the two two-dimensional vectors are weighted when the two-dimensional motion vector is expressed by the first sum, and the two weighted two-dimensional motion vectors are used. Is obtained, and the three-dimensional model is driven by moving the lattice points of the three-dimensional model based on the vector that determines the movement of the lattice point, which is the second sum.

【0015】本発明の請求項3の状態再現方法では、請
求項2の状態再現方法において、抽出された2つの2次
元ベクトルがそれぞれ表わすいくつかの所定の動きに相
対する2つの3次元移動ベクトルは、抽出された2つの
2次元ベクトルの第1の和で表わされる2次元移動ベク
トルによって示される特徴点に対応する基準点の2つの
3次元移動ベクトルである。
According to a third aspect of the present invention, there is provided the state reproducing method according to the second aspect, wherein two three-dimensional movement vectors corresponding to some predetermined movements represented by the two extracted two-dimensional vectors, respectively. Are two three-dimensional movement vectors of a reference point corresponding to a feature point indicated by a two-dimensional movement vector represented by a first sum of two extracted two-dimensional vectors.

【0016】請求項3の状態再現方法においては、請求
項2の状態再現方法において、任意の対象物の任意の動
きを特徴付ける特徴点に対応する基準点における重み付
けされた2つの3次元移動ベクトルの第2の和である格
子点の動きを決定するベクトルに基づいて、3次元模型
を駆動する。
According to a third aspect of the present invention, in the state reproducing method of the second aspect, two weighted three-dimensional motion vectors at a reference point corresponding to a feature point characterizing an arbitrary movement of an arbitrary object are used. The three-dimensional model is driven based on a vector that determines the movement of the grid point, which is the second sum.

【0017】本発明の請求項4の状態再現方法では、請
求項2の状態再現方法において、抽出された2つの2次
元ベクトルがそれぞれ表わすいくつかの所定の動きに相
対する2つの3次元移動ベクトルは、抽出された2つの
2次元ベクトルの第1の和で表わされる2次元移動ベク
トルによって示される特徴点に対応する基準点の近傍に
ある基準点の2つの3次元移動ベクトルである。
According to a fourth aspect of the present invention, there is provided the state reproducing method according to the second aspect, wherein two three-dimensional motion vectors corresponding to some predetermined motions represented by the two extracted two-dimensional vectors, respectively. Are two three-dimensional movement vectors of a reference point near a reference point corresponding to a feature point indicated by a two-dimensional movement vector represented by a first sum of two extracted two-dimensional vectors.

【0018】請求項4の状態再現方法においては、請求
項2の状態再現方法において、任意の対象物の任意の動
きを特徴付ける特徴点に対応する基準点の近傍にある基
準点における重み付けされた2つの3次元移動ベクトル
の第2の和である格子点の動きを決定するベクトルに基
づいて3次元模型を駆動する。
According to a fourth aspect of the present invention, in the state reproducing method of the second aspect, the weighted two points at the reference point near the reference point corresponding to the characteristic point characterizing the arbitrary movement of the arbitrary object are set. The three-dimensional model is driven based on a vector that determines the movement of the lattice point, which is the second sum of the three three-dimensional movement vectors.

【0019】本発明の請求項5の状態再現方法では、請
求項1の状態再現方法において、複数の基準点およびい
くつかの所定の動きに対しての、任意の対象物が所定の
動きをした際の2次元移動ベクトルと、基準となる対象
物が所定の動きをした際の2次元ベクトルとの誤差の二
乗和が、最小になるように3次元移動ベクトルの計測の
条件を決定するステップをさらに含む。
According to a fifth aspect of the present invention, there is provided the state reproducing method according to the first aspect, wherein an arbitrary object makes a predetermined movement with respect to a plurality of reference points and some predetermined movements. Determining the measurement condition of the three-dimensional movement vector so that the sum of squares of the error between the two-dimensional movement vector at the time and the two-dimensional vector when the reference object moves in a predetermined manner is minimized. In addition.

【0020】請求項5の状態再現方法においては、請求
項1の状態再現方法において、2次元ベクトルと、2次
元移動ベクトルとの誤差が小さくなるような、すなわ
ち、3次元計測系(3次元移動ベクトルの計測系)と2
次元計測系(2次元移動ベクトルの計測系)との誤差が
小さくなるような処理を行ない、3次元模型を駆動す
る。
According to a fifth aspect of the present invention, in the state reproducing method of the first aspect, an error between the two-dimensional vector and the two-dimensional movement vector is reduced, that is, a three-dimensional measurement system (three-dimensional moving system). Vector measurement system) and 2
A process is performed so as to reduce an error with a dimensional measurement system (a two-dimensional movement vector measurement system) to drive a three-dimensional model.

【0021】本発明の請求項6の状態再現方法では、請
求項5の状態再現方法において、3次元移動ベクトルの
計測の条件は、視点、倍率および回転である。
In the state reproducing method according to the sixth aspect of the present invention, in the state reproducing method according to the fifth aspect, the conditions for measuring the three-dimensional movement vector are a viewpoint, a magnification, and a rotation.

【0022】請求項6の状態再現方法においては、請求
項5の状態再現方法において、2次元ベクトルと、2次
元移動ベクトルとの誤差が小さくなるように、すなわ
ち、3次元計測系(3次元移動ベクトルの計測系)と2
次元計測系(2次元移動ベクトルの計測系)との誤差が
小さくなるように、3次元移動ベクトルの計測のための
視点、倍率および回転を決定する処理を行ない、3次元
模型を駆動する。
According to a sixth aspect of the present invention, in the state reproducing method of the fifth aspect, an error between the two-dimensional vector and the two-dimensional movement vector is reduced, that is, a three-dimensional measuring system (three-dimensional moving Vector measurement system) and 2
The viewpoint, magnification and rotation for measuring the three-dimensional movement vector are determined so as to reduce the error from the three-dimensional measurement system (two-dimensional movement vector measurement system), and the three-dimensional model is driven.

【0023】本発明の請求項7の状態再現方法では、請
求項5または6の状態再現方法において、複数の基準点
およびいくつかの所定の動きに対して、誤差を保管する
ステップをさらに含む。
According to a seventh aspect of the present invention, the method of the fifth or sixth aspect further includes the step of storing an error for a plurality of reference points and some predetermined movements.

【0024】請求項7の状態再現方法においては、請求
項5または6の状態再現方法において、複数の基準点お
よびいくつかの所定の動きに対して、2次元ベクトルと
2次元移動ベクトルとの誤差を保管して、3次元模型を
駆動する。
According to a seventh aspect of the present invention, in the state reproducing method of the fifth or sixth aspect, the error between the two-dimensional vector and the two-dimensional movement vector is determined for a plurality of reference points and some predetermined movements. And drive the 3D model.

【0025】本発明の請求項8の状態再現方法では、請
求項5から7のいずれか1項の状態再現方法において、
3次元模型を駆動するステップは、抽出された2つの2
次元ベクトルがそれぞれ表わすいくつかの所定の動きに
相対する2つの3次元移動ベクトルに、算出された重み
付けをするステップと、重み付けされた2つの3次元移
動ベクトルの第2の和を求めるステップと、誤差に基づ
き、抽出された2つの2次元ベクトルがそれぞれ表わす
いくつかの所定の動きに相対する2つの3次元移動ベク
トルの誤差を表わす2つの3次元誤差ベクトルを求める
ステップと、2つの3次元誤差ベクトルに、算出された
重み付けをするステップと、重み付けされた2つの3次
元誤差ベクトルの第3の和を求めるステップと、第2の
和と第3の和との第4の和を求めるステップと、第4の
和である格子点の動きを決定するベクトルに基づき、3
次元模型の格子点を動かすステップとを含む。
According to the state reproducing method of claim 8 of the present invention, in the state reproducing method of any one of claims 5 to 7,
The step of driving the three-dimensional model consists of two extracted two
Weighting two calculated three-dimensional motion vectors respectively corresponding to some predetermined motions represented by the respective dimension vectors, and calculating a second sum of the two weighted three-dimensional motion vectors; Determining two three-dimensional error vectors representing the errors of the two three-dimensional motion vectors relative to some predetermined movements respectively represented by the two extracted two-dimensional vectors, based on the errors; Weighting the calculated vector, calculating a third sum of the two weighted three-dimensional error vectors, and calculating a fourth sum of the second and third sums; , Based on the vector that determines the movement of the grid point, which is the fourth sum, 3
Moving the grid points of the three-dimensional model.

【0026】請求項8の状態再現方法においては、請求
項5から7のいずれか1項に記載の状態再現方法におい
て、任意の対象物の任意の動きを表わす2次元移動ベク
トルを第1の和で表現する2つの2次元ベクトルがそれ
ぞれ表わす所定の動きに相対する2つの3次元移動ベク
トルおよびその2つの3次元移動ベクトルの誤差を表わ
す2つの3次元誤差ベクトルに、2次元移動ベクトルを
第1の和で表現するときに用いた重み付けをし、重み付
けされた2つの3次元移動ベクトルの第2の和および重
み付けされた2つの3次元誤差ベクトルの第3の和を求
め、さらに、その第2の和と第3の和との第4の和を求
め、その第4の和である格子点の動きを決定するベクト
ルを基に3次元模型の格子点を動かして、3次元模型を
駆動する。
In the state reproducing method according to the eighth aspect, in the state reproducing method according to any one of the fifth to seventh aspects, a two-dimensional movement vector representing an arbitrary movement of an arbitrary object is added to the first sum. The two-dimensional motion vector is defined as a two-dimensional motion vector corresponding to a predetermined motion represented by each of the two two-dimensional motion vectors and two three-dimensional error vectors each representing an error between the two three-dimensional motion vectors. , And a second sum of the two weighted three-dimensional motion vectors and a third sum of the two weighted three-dimensional error vectors are obtained. A fourth sum of the sum of the first and third sums is obtained, and the grid points of the three-dimensional model are moved based on a vector that determines the movement of the grid point, which is the fourth sum, to drive the three-dimensional model. .

【0027】[0027]

【発明の実施の形態】以下、本発明による状態再現方法
としての人物の表情再現方法について図面を参照しなが
ら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A method for reproducing a facial expression of a person as a state reproducing method according to the present invention will be described below with reference to the drawings.

【0028】(第1の実施の形態)本発明の第1の実施
の形態による状態再現方法としての表情再現方法におい
ては、送信側において、テレビカメラにより顔を撮影
し、顔画像中で人間の顔に貼られたマーカを追跡し、受
信側において、マーカの追跡結果を利用して、人物3次
元モデルを適宜変形して表情を再現する。なお、第1の
実施の形態では、人物3次元モデルとして3次元ワイヤ
フレームモデル(以下、「3D WFM」という)を用
いている。
(First Embodiment) In a facial expression reproducing method as a state reproducing method according to a first embodiment of the present invention, a face is photographed by a television camera on a transmitting side, and human faces are included in the facial image. The marker attached to the face is tracked, and on the receiving side, the facial expression is reproduced by appropriately modifying the three-dimensional model of the person using the tracking result of the marker. In the first embodiment, a three-dimensional wireframe model (hereinafter, referred to as “3D WFM”) is used as a person three-dimensional model.

【0029】図1は、人物の表情検出の際の、人物の顔
に貼付されたマーカの位置を示す図である。
FIG. 1 is a diagram showing the position of a marker attached to the face of a person when detecting the expression of the person.

【0030】図1において、模式的に示された人物の顔
1には、7つのマーカ2が貼付されている。マーカ2
は、人の表情を捕える手段であり、マーカの数および位
置は、図1に示した場合に限られない。模式的に示され
た人物の顔1の表情が変ったときにはマーカ2が移動す
るが、マーカ2を追跡する際に、小型カメラを用いて、
人間の顔を正面から2次元のデータとして捕えるため、
マーカ2の移動量は無表情時からの相対的な2次元移動
ベクトルで表現される。
In FIG. 1, seven markers 2 are attached to a face 1 of a person schematically shown. Marker 2
Is a means for capturing the expression of a person, and the number and position of the markers are not limited to the case shown in FIG. When the expression of the face 1 of the person shown schematically changes, the marker 2 moves. When the marker 2 is tracked, a small camera is used.
To capture a human face as two-dimensional data from the front,
The movement amount of the marker 2 is represented by a relative two-dimensional movement vector from the time of no expression.

【0031】次に、第1の実施の形態による状態再現方
法としての表情再現方法の手順について詳細に説明す
る。
Next, the procedure of the facial expression reproducing method as the state reproducing method according to the first embodiment will be described in detail.

【0032】(1) 人物の各種表情表出時の顔の3次
元計測を行なっておく。図2は、人物の各種表情表出時
の顔の3次元計測を行なうために人物の顔に描かれたド
ットを示す図である。
(1) Three-dimensional measurement of a face when various facial expressions of a person are displayed. FIG. 2 is a diagram showing dots drawn on the face of a person in order to perform three-dimensional measurement of the face when expressing various facial expressions of the person.

【0033】図2において、模式的に示された人物の顔
3の半面に複数のドット4が描かれている。なお、第1
の実施の形態においては、ドット4はたとえば、170
点とした。
In FIG. 2, a plurality of dots 4 are drawn on a half surface of a person's face 3 schematically shown. The first
In the embodiment, the dot 4 is, for example, 170
Points.

【0034】人物の各種表情表出時の顔の3次元計測と
は、顔の各種表情表出時の各ドット4の、顔の無表情時
における位置からの3次元移動ベクトルを求めることで
ある。ここで、計測した表情の種類の数をNとすると、
1つのドット4に対しN個の3次元移動ベクトルが求め
られることになる。
The three-dimensional measurement of the face at the time of expressing various facial expressions of a person refers to obtaining a three-dimensional movement vector of each dot 4 at the time of expressing various facial expressions from the position of the face when there is no facial expression. . Here, assuming that the number of measured expression types is N,
N three-dimensional movement vectors are determined for one dot 4.

【0035】ドット4の数は、図1における、人物の顔
の任意の表情を検出するためのマーカ2の数よりも多く
してあり、マーカ2の位置にはドット4がある。図2に
おけるドット4を利用して、人物3次元モデル、すなわ
ち、3D WFMを作成する。
The number of dots 4 is larger than the number of markers 2 for detecting an arbitrary facial expression of a person's face in FIG. Using the dots 4 in FIG. 2, a person three-dimensional model, that is, a 3D WFM is created.

【0036】図3は、基本の3次元ワイヤフレームモデ
ル(3D WFM)を示す図である。
FIG. 3 is a diagram showing a basic three-dimensional wire frame model (3D WFM).

【0037】図3において、基本の3D WFMは人物
の顔半面を表わし、三角パッチ5の集合体からなる。図
3における基本の3D WFMの頂点(三角パッチ5の
頂点)として、図2の人物の顔半面に直接描いた複数の
ドット4を用いている。すなわち、図2のドット4と図
3の基本の3D WFMの頂点とが対応していることに
なる。
In FIG. 3, the basic 3D WFM represents a half face of a person's face, and is composed of a set of triangular patches 5. As a vertex of the basic 3D WFM (vertex of the triangular patch 5) in FIG. 3, a plurality of dots 4 drawn directly on the half face of the person in FIG. 2 are used. That is, the dots 4 in FIG. 2 correspond to the vertices of the basic 3D WFM in FIG.

【0038】図4は、図3の基本の3D WFMを拡張
した3D WFMを示す図である。図4の拡張した3D
WFMは図3の3D WFMの頂点が左右対称である
と仮定して求めたものである。さらに、拡張した3D
WFMは、3次元計測を予め行なった頂点以外の3D
WFMの頂点に対する移動規則として、3次元計測を予
め行なった頂点以外の頂点から最も近い3つの頂点から
の距離による重み付けを用いるという手法を用いて求め
られたものである。
FIG. 4 is a diagram showing a 3D WFM obtained by expanding the basic 3D WFM of FIG. The expanded 3D of FIG.
The WFM is obtained assuming that the vertices of the 3D WFM in FIG. 3 are symmetric. In addition, expanded 3D
WFM is 3D other than the vertex for which 3D measurement was performed in advance.
The movement rule for the vertices of the WFM is obtained by using a method of using weights based on distances from three vertices closest to vertices other than vertices in which three-dimensional measurement has been performed in advance.

【0039】これにより、拡張した3D WFMは、1
300の頂点を持っている。したがって、拡張した3D
WFMは、基本の3D WFMの三角パッチ5よりも
細かい三角パッチ7の集合体から構成される。
Thus, the expanded 3D WFM becomes 1
It has 300 vertices. Therefore, the expanded 3D
The WFM is composed of a set of triangular patches 7 finer than the triangular patches 5 of the basic 3D WFM.

【0040】(2) (1)の説明の中で求めた人物の
N種類の表情表出時の図2のドット4の3次元移動ベク
トル(図2のドット4は図3の基本の3D WFMの頂
点に対応するため、N種類の表情表出時の基本の3D
WFMの頂点の3次元移動ベクトルとも言える。)の中
から、人物の顔に貼付された図1に示すようなマーカ2
に対応する図3の基本の3D WFMの頂点hの3次元
移動ベクトルMhj(j=1,2,…,N)を抽出する。
すなわち、3次元移動ベクトルMhjは、1つのマーカに
対し、N個抽出されることになる。
(2) The three-dimensional movement vector of dot 4 in FIG. 2 at the time of expressing N types of facial expressions of the person obtained in the description of (1) (dot 4 in FIG. 2 is a basic 3D WFM in FIG. 3) 3D for displaying N types of facial expressions
It can also be called a three-dimensional movement vector of the vertex of WFM. ), A marker 2 attached to the face of the person as shown in FIG.
, A three-dimensional movement vector M hj (j = 1, 2,..., N) of the vertex h of the basic 3D WFM of FIG.
That is, N three-dimensional movement vectors M hj are extracted for one marker.

【0041】(3) (2)の説明の中で抽出した3次
元移動ベクトルMhjを、図示しない小型カメラで撮影さ
れた人物の顔画像に投影し、2次元ベクトルmhj(j=
1,2,…,N)とする。
(3) The three-dimensional movement vector M hj extracted in the description of (2) is projected on a face image of a person photographed by a small camera (not shown), and the two-dimensional vector m hj (j =
1, 2,..., N).

【0042】(4) 人物の任意の表情を検出する際に
は、図示しない小型カメラで撮影された人物の顔画像中
で、表情の変化に伴うマーカの動きの追跡を行ない、マ
ーカの2次元移動ベクトルuh を得る。
(4) When detecting an arbitrary facial expression of a person, the movement of the marker accompanying the change in the facial expression is tracked in the facial image of the person photographed by a small camera (not shown), and the two-dimensional marker is detected. Obtain the movement vector u h .

【0043】(5) (3)の説明の中で求めた、図3
の基本の3D WFMの頂点hの3次元移動ベクトルM
hjを顔画像に投影して得たN種類の2次元ベクトルmhj
の中から、(4)の説明の中で求めた、図3の基本の3
D WFMの頂点hに対応するマーカの2次元移動ベク
トルuh を間に挟み、かつ、最も2次元移動ベクトルu
h に近い2つの2次元ベクトルmha、mhbを抽出する。
(5) FIG. 3 obtained in the explanation of (3)
3D motion vector M of vertex h of the basic 3D WFM
N types of two-dimensional vectors m hj obtained by projecting hj onto a face image
Of the basic 3 of FIG. 3 obtained in the explanation of (4).
The two-dimensional movement vector u h of the marker corresponding to the vertex h of the D WFM is sandwiched between the two, and the most two-dimensional movement vector u
Extract two two-dimensional vectors m ha and m hb close to h .

【0044】そして、抽出された2つの2次元ベクトル
haおよびmhbのそれぞれに重み付けkh およびlh
して、マーカの2次元移動ベクトルuh を、重み付けさ
れた2つの2次元ベクトルmhaとmhbとの和で表現す
る。すなわち、マーカの2次元移動ベクトルuh は次式
で表わされる。
Then, the two extracted two-dimensional vectors m ha and m hb are weighted by k h and l h respectively, and the two-dimensional movement vector u h of the marker is converted into two weighted two-dimensional vectors m h and m hb. Expressed as the sum of ha and m hb . That is, the two-dimensional movement vector u h of the marker is represented by the following equation.

【0045】[0045]

【数1】 (Equation 1)

【0046】図5は、図3の基本の3D WFMの頂点
hに対応するマーカにおける、(3)の説明の中で求め
た2次元ベクトルmhjおよび(4)の説明の中で求めた
マーカの2次元移動ベクトルuh を示す図である。
FIG. 5 shows the two-dimensional vector m hj obtained in the description of (3) and the marker obtained in the description of (4) in the marker corresponding to the vertex h of the basic 3D WFM in FIG. FIG. 7 is a diagram showing a two-dimensional movement vector u h of FIG.

【0047】図5において、マーカ2の2次元移動ベク
トルuh は、3次元移動ベクトルmhjを顔画像に投影し
た2つの2次元ベクトルmhaおよびmhbの間に挟まれて
いる。そして、2次元移動ベクトルuh は、kh および
h によってそれぞれ重み付けされた2次元ベクトルm
haおよびmhbの和で表現される。なお、2次元ベクトル
haおよびmhbは、N個ある2次元ベクトルmhjの中か
ら、2次元移動ベクトルuh に最も近いものとして選ば
れている。
In FIG. 5, the two-dimensional movement vector u h of the marker 2 is sandwiched between two two-dimensional vectors m ha and m hb that project the three-dimensional movement vector m hj onto a face image. Then, the two-dimensional movement vector u h is a two-dimensional vector m weighted by k h and l h , respectively.
It is expressed as the sum of ha and m hb . Note that the two-dimensional vectors m ha and m hb are selected as the ones closest to the two-dimensional movement vector u h among the N two-dimensional vectors m hj .

【0048】ここで、重み付けkh およびlh は次のよ
うにして算出される。マーカの2次元移動ベクトルuh
=(x0 ,y0 )、2次元ベクトルmha=(x
a,a )、2次元ベクトルmhb=(xb ,yb )とする
と、式[1]は次のように表わされる。
Here, the weights k h and l h are calculated as follows. Marker two-dimensional movement vector u h
= (X 0 , y 0 ), two-dimensional vector m ha = (x
a, y a), 2-dimensional vector m hb = (x b, When y b), the formula [1] is expressed as follows.

【0049】[0049]

【数2】 (Equation 2)

【0050】式[2]について、x座標、y座標各々に
ついて表わすと、次式のようになる。
Expression (2) can be expressed as follows with respect to each of the x coordinate and the y coordinate.

【0051】[0051]

【数3】 (Equation 3)

【0052】式[3]と式[4]とを連立方程式として
解くと、kh およびlh は次のように表わされる。
When equations [3] and [4] are solved as simultaneous equations, k h and l h are expressed as follows.

【0053】[0053]

【数4】 (Equation 4)

【0054】(6) (1)〜(5)の説明で求めた、
図2のドット4の3次元移動ベクトル(図3の基本の3
D WFMの頂点の3次元移動ベクトル)および重み付
けkh 、lh に基づいて、図4の拡張した3D WFM
の各頂点を駆動することにより、人物が任意の表情をと
った際の表情を再現する。
(6) Determined in the description of (1) to (5),
The three-dimensional movement vector of the dot 4 in FIG.
Based on the three-dimensional motion vector of the vertices of the D WFM) and the weights k h , l h , the expanded 3D WFM of FIG.
By driving each of the vertices, the facial expression when the person takes an arbitrary facial expression is reproduced.

【0055】以下、(a)図4の拡張した3D WFM
の頂点とドットが一致し、ドット上にマーカが貼付して
ある場合、(b)図4の拡張した3D WFMの各頂点
とドットが一致しており、ドット上にマーカがない場
合、(c)図4の拡張した3DWFMの各頂点に対応す
るドットがない場合の3つについて、それぞれ、図4の
拡張した3D WFMの各頂点の動きを決定する3次元
ベクトルの求め方について詳細に説明する。
Hereinafter, (a) the expanded 3D WFM of FIG.
(B) When the vertex of each of the extended 3D WFMs shown in FIG. 4 matches the dot and the marker does not exist on the dot, (b) 4) For three cases where there is no dot corresponding to each vertex of the expanded 3D WFM of FIG. 4, how to obtain a three-dimensional vector that determines the motion of each vertex of the expanded 3D WFM of FIG. 4 will be described in detail. .

【0056】(a) 図5の2次元ベクトルmhaおよび
2次元ベクトルmhbに対応する図4の拡張した3D W
FMの頂点hにおける(2)の説明の中で求めた3次元
移動ベクトルをそれぞれMhaおよびMhbとすると、人物
が任意の表情をした際の図4の拡張した3D WFMの
頂点hの動きを決定する3次元ベクトルUh は次式で表
わされる。
(A) The expanded 3D W of FIG. 4 corresponding to the two-dimensional vector m ha and the two-dimensional vector m hb of FIG.
When 3-dimensional movement vectors each M ha and M hb determined in the description of the FM vertex h (2), the motion of the vertex h of 3D WFM a person extended in Figure 4 upon any expression 3-dimensional vector U h to determine the is represented by the following equation.

【0057】[0057]

【数5】 (Equation 5)

【0058】(b) 図1のマーカ2の各々が代表する
領域(点線で示す)を考え、たとえば、図4の拡張した
3D WFMの頂点iが、頂点hに対応するマーカの領
域にあるとする。図4の拡張した3D WFMの頂点i
の動きを決定するベクトルUi は、頂点hにおける重み
付けkh 、lh と、頂点hの3次元移動ベクトルMha
hbがそれぞれ表わすN種類の表情うちの2つの表情に
対応する表情を表わす、頂点iにおける3次元移動ベク
トルMia、Mibを用いて、次式で表わされる。
(B) Consider a region (indicated by a dotted line) represented by each of the markers 2 in FIG. 1, and for example, assume that the vertex i of the expanded 3D WFM in FIG. 4 is in the marker region corresponding to the vertex h. I do. Vertex i of the expanded 3D WFM of FIG.
The vector U i for determining the movement, the weighting at the vertex h k h, l h and, 3-dimensional movement vector M ha vertex h,
The three-dimensional movement vectors M ia and M ib at the vertex i, which represent the facial expressions corresponding to two of the N types of facial expressions represented by M hb , are represented by the following equations.

【0059】[0059]

【数6】 (Equation 6)

【0060】(c) 3次元計測を予め行なったドット
に対応する頂点のない図4の拡張した3D WFMの頂
点に対する移動規則として、その頂点を内部に含む三角
形(ドットを3頂点とする)を考え、三角形の各頂点か
らの距離による重み付けを用いる。
(C) As a movement rule for a vertex of the expanded 3D WFM of FIG. 4 having no vertex corresponding to a dot which has been subjected to three-dimensional measurement in advance, a triangle including the vertex inside (three dots) is used. We use weighting based on the distance from each vertex of the triangle.

【0061】図6は、図4の拡張した3D WFMにお
いて、対応するドットのない3DWFMの頂点の動きを
決定する3次元ベクトルを求める手法を説明するための
図である。
FIG. 6 is a diagram for explaining a method of obtaining a three-dimensional vector for determining the motion of the vertex of the 3D WFM without a corresponding dot in the expanded 3D WFM of FIG.

【0062】図6において、3つのドットのある3D
WFMの頂点A、B、Cを結んで作られる三角形ABC
の内側に、ドットのない頂点Pがあるとする。頂点Pが
頂点A、B、Cから受ける動きの影響(重み)は次のよ
うにして求められる。
In FIG. 6, 3D with three dots
Triangle ABC formed by connecting vertices A, B, and C of WFM
A vertex P without a dot exists inside. The influence (weight) of the movement that the vertex P receives from the vertices A, B, and C is obtained as follows.

【0063】頂点Aから頂点Pを通り辺BCに下ろした
足をA1 、頂点Bから頂点Pを通り辺ACに下ろした足
をB1 および頂点Cから頂点Pを通り辺ABに下ろした
足をC1 とする。頂点Pの頂点Aに対する影響の重みP
a 、頂点Pの頂点Bに対する影響の重みPWb および
頂点Pの頂点Cに対する影響の重みPWc はそれぞれ次
式により表わされる。
[0063] feet feet drawn vertex P as the side BC from the apex A A 1, which lower the feet put an apex P as the side AC from B 1 and vertex C from the apex B of the apex P as edge AB Is C 1 . Weight P of influence of vertex P on vertex A
W a , the weight PW b of the influence of the vertex P on the vertex B, and the weight PW c of the influence of the vertex P on the vertex C are expressed by the following equations, respectively.

【0064】[0064]

【数7】 (Equation 7)

【0065】ただし、PWa 、PWb 、PWc の間には
以下のような関係がある。
However, there is the following relationship between PW a , PW b and PW c .

【0066】[0066]

【数8】 (Equation 8)

【0067】以上により、頂点Pの動きを決定する3次
元ベクトルdPは、各頂点A、B、Cの動きを決定する
3次元ベクトルdA、dB、dCにより次式で表わされ
る。
As described above, the three-dimensional vector dP that determines the movement of the vertex P is represented by the following equation using the three-dimensional vectors dA, dB, and dC that determine the movement of the vertices A, B, and C.

【0068】[0068]

【数9】 (Equation 9)

【0069】ここで、頂点Aの動きを決定する3次元ベ
クトルdAは、上述の(a)、(b)において求めた、
人物が任意の表情をとった際の、拡張した3D WFM
の頂点の動きを決定する3次元ベクトルUh 、Ui など
である。
Here, the three-dimensional vector dA for determining the movement of the vertex A is obtained in the above-mentioned (a) and (b).
Extended 3D WFM when a person takes an arbitrary expression
Are the three-dimensional vectors U h , U i, etc., which determine the movement of the vertices.

【0070】以上、(1)〜(6)(a)(b)(c)
で説明したようにして、人物が任意の表情をとった際の
表情を3D WFMによって再現する。
As described above, (1) to (6) (a) (b) (c)
As described above, the facial expression when the person takes an arbitrary facial expression is reproduced by 3D WFM.

【0071】図7は、人物の表情を再現するための処理
の流れを示す図である。図7において、ステップS1、
S3、S5、S7およびS9は、それぞれ、上述した説
明(2)、(3)、(4)、(5)および(6)(b)
に対応する。
FIG. 7 is a diagram showing a flow of processing for reproducing the expression of a person. In FIG. 7, step S1,
S3, S5, S7 and S9 correspond to the descriptions (2), (3), (4), (5) and (6) (b) described above, respectively.
Corresponding to

【0072】図7において、ステップS1では、人物の
顔に貼付されたマーカに対応する3D WFMの頂点h
の3次元移動ベクトルMhj(j=1,2,…,N)を得
る。
In FIG. 7, in step S 1, the vertex h of the 3D WFM corresponding to the marker attached to the face of the person
, A three-dimensional movement vector M hj (j = 1, 2,..., N) is obtained.

【0073】ステップS3では、3D WFMの頂点h
の3次元移動ベクトルMhjを顔画像に投影し、2次元ベ
クトルmhj(j=1,2,…,N)とする。なお、ステ
ップS1およびステップS3は、前処理の段階である。
In step S3, the vertex h of the 3D WFM
Is projected on the face image to obtain a two-dimensional vector m hj (j = 1, 2,..., N). Steps S1 and S3 are preprocessing steps.

【0074】ステップS5では、人物の表情検出時に、
顔画像中でマーカの追跡を行ない、2次元移動ベクトル
h を得る。
In step S5, when a facial expression of a person is detected,
The marker is tracked in the face image to obtain a two-dimensional movement vector u h .

【0075】ステップS7では、3次元移動ベクトルM
hjを顔画像に投影した2次元ベクトルmhj(1,2,
…,N)の中から選んだマーカの2次元移動ベクトルu
h を挟む2つの2次元ベクトルmhaとmhbとを用いてマ
ーカの2次元移動ベクトルuhをベクトル和で表現す
る。
In step S7, the three-dimensional movement vector M
hj is a two-dimensional vector m hj (1, 2,
..., N) two-dimensional movement vector u of the marker selected from
The two-dimensional movement vector u h of the marker is represented by a vector sum using two two-dimensional vectors m ha and m hb sandwiching h .

【0076】ステップS9では、S7のベクトル和を求
めるときに用いた重みを、各マーカが代表する顔の領域
の3D WFMの頂点iに利用し、3D WFMの頂点
iの動きを決定する3次元ベクトルUi を算出し、それ
を用いて、3D WFMを変形し、人物の顔の表情を再
現する。
In step S9, the weight used in obtaining the vector sum of S7 is used for the vertex i of the 3D WFM of the face area represented by each marker to determine the motion of the vertex i of the 3D WFM. The vector U i is calculated, and the 3D WFM is transformed using the vector U i to reproduce the facial expression of the person.

【0077】図8は、第1の実施の形態による状態再現
方法としての表情再現方法を用いて、実際に、人物の顔
の表情を再現したときの顔画像を示す図である。
FIG. 8 is a diagram showing a face image when the facial expression of a person's face is actually reproduced using the facial expression reproducing method as the state reproducing method according to the first embodiment.

【0078】図8の左は、人物が「あ」と言ったときの
原画像を示す。図8の右は、人物が「あ」と言ったとき
の表情を再現した際の顔画像を示す。
The left side of FIG. 8 shows an original image when a person says “A”. The right side of FIG. 8 shows a face image when a facial expression when a person says “A” is reproduced.

【0079】図8に示すように、第1の実施の形態によ
る状態再現方法としての表情再現方法によれば、自然な
人の顔の表情の再現が可能となる。
As shown in FIG. 8, according to the expression reproducing method as the state reproducing method according to the first embodiment, it is possible to reproduce the natural facial expression of a person.

【0080】以上のように、第1の実施の形態による状
態再現方法としての表情再現方法では、人物の顔の任意
の表情を表わすマーカの2次元移動ベクトルuh を、人
物の顔のN種類の所定の表情を表わすN個の3次元移動
ベクトルMhjから得た2つの2次元ベクトルmhaおよび
hbの和として表現し、その際に算出される重み付けk
h ,lh をもとに得られた、3D WFMの頂点の動き
を決定するベクトルに従い、3D WFMの頂点を動か
し、3D WFMを駆動するため、予め3次元計測を行
なった表情以外の表情が入力された場合においても、表
情の再現性がよく、自然な人物の表情の再現が可能とな
る。
As described above, in the facial expression reproducing method as the state reproducing method according to the first embodiment, the two-dimensional movement vector u h of the marker representing an arbitrary facial expression of the person's face is determined by using N types of the human face. Is expressed as the sum of two two-dimensional vectors m ha and m hb obtained from N three-dimensional movement vectors M hj representing a predetermined expression, and a weight k calculated at that time
In order to move the vertex of the 3D WFM and drive the 3D WFM in accordance with the vector that determines the motion of the vertex of the 3D WFM obtained based on h and lh, the facial expressions other than the facial expression previously subjected to three-dimensional measurement are used. Even in the case of input, the expression can be reproduced with good reproducibility, and the expression of a natural person can be reproduced.

【0081】(第2の実施の形態)3次元移動ベクトル
を測定する3次元物体測定装置(3Dスキャナ)は、測
定する物体の周囲をまわり測定する。したがって、3次
元物体測定装置では機械的な操作が介入するため、機械
的な駆動部分のない2次元物体測定装置(カメラなど)
との間に誤差が生じやすい。すなわち、3次元移動ベク
トルを測定する3次元物体測定装置で測定した結果と、
2次元移動ベクトルを測定する2次元物体測定装置(カ
メラなど)で測定した結果との誤差が生じる。
(Second Embodiment) A three-dimensional object measuring apparatus (3D scanner) for measuring a three-dimensional movement vector measures around an object to be measured. Therefore, in the three-dimensional object measuring device, since a mechanical operation is involved, a two-dimensional object measuring device without a mechanical driving part (such as a camera)
And an error easily occurs. That is, a result measured by a three-dimensional object measuring device that measures a three-dimensional movement vector,
An error occurs with a result measured by a two-dimensional object measuring device (such as a camera) that measures a two-dimensional movement vector.

【0082】第1の実施の形態では、その誤差を考慮す
ることなく表情再現を行なっている。このため、表情再
現品質の品質低下を招く恐れがある。
In the first embodiment, the expression is reproduced without considering the error. For this reason, there is a possibility that the quality of the expression reproduction quality is reduced.

【0083】第2の実施の形態による状態再現方法とし
ての表情再現方法は、このような問題を解決するために
なされたもので、3次元物体測定装置で測定した結果
と、2次元物体測定装置で測定した結果との誤差を考慮
して、表情再現を行なう。このような誤差が生じる原因
について詳しく説明する。
The facial expression reproducing method as the state reproducing method according to the second embodiment has been made to solve such a problem, and the result of measurement by the three-dimensional object measuring device and the result of the two-dimensional object measuring device The facial expression is reproduced in consideration of the error from the result measured in the step. The cause of such an error will be described in detail.

【0084】図9は、マーカを付した人間の顔の2次元
画像に、3次元物体測定装置による計測(以下、「3次
元計測」という)によるドットを投影した様子を示す図
である。なお、マーカおよびドットについては、第1の
実施の形態と同様である。
FIG. 9 is a diagram showing a state in which dots are projected on a two-dimensional image of a human face with a marker by measurement using a three-dimensional object measuring device (hereinafter, referred to as “three-dimensional measurement”). Note that the markers and dots are the same as in the first embodiment.

【0085】図9においては、2次元物体測定装置によ
る計測(以下、「2次元計測」という)による人間の顔
の表情と、3次元計測による人間の顔の表情は同じであ
る。すなわち、第1の実施の形態で説明したように、人
間の顔の表面に多数のドットを描き、3Dスキャナ(3
次元物体測定装置)により人間の所定の表情時における
各ドットの3次元移動ベクトルを求める。そして、表情
再現時の入力系には、CCDカメラ(2次元物体測定装
置)を用い、その2次元顔画像中において、3次元計測
時と同じ所定の表情表出時の各マーカの2次元移動ベク
トルを求める。
In FIG. 9, the expression of the human face by measurement by the two-dimensional object measuring device (hereinafter referred to as “two-dimensional measurement”) is the same as the expression of the human face by three-dimensional measurement. That is, as described in the first embodiment, a large number of dots are drawn on the surface of a human face, and a 3D scanner (3
A three-dimensional movement vector of each dot at a predetermined facial expression of a human is obtained by a three-dimensional object measuring device). Then, a CCD camera (two-dimensional object measuring device) is used as an input system at the time of facial expression reproduction, and two-dimensional movement of each marker in the two-dimensional face image at the time of expressing the same predetermined facial expression as at the time of three-dimensional measurement Find a vector.

【0086】このように、2次元計測時の表情と3次元
計測時の表情が同じ場合においては、理想的には、3次
元計測データを2次元の顔画像に投影すれば、3次元計
測によるドットの位置と、2次元計測によるマーカの位
置は一致するはずである。しかし、図9に示すように、
2次元計測によるマーカ2と、3次元計測したドットを
2次元画像に投影したドット4との位置は一致していな
い。
As described above, when the expression at the time of the two-dimensional measurement and the expression at the time of the three-dimensional measurement are the same, ideally, if the three-dimensional measurement data is projected on the two-dimensional face image, the three-dimensional measurement is performed. The position of the dot should match the position of the marker by two-dimensional measurement. However, as shown in FIG.
The position of the marker 2 obtained by the two-dimensional measurement does not match the position of the dot 4 obtained by projecting the three-dimensionally measured dot on the two-dimensional image.

【0087】これは、2次元計測をするためにCCDカ
メラを取り付けたヘルメット(被験者が被る)の装着の
ずれ、3Dスキャナによる3次元計測時の被験者の首の
傾き、3次元計測時の被験者の表出する表情と2次元計
測時の被験者の表出する表情との違いなどの誤差要因に
基づくものである。
This is because of the misalignment of the helmet (to which the subject wears) equipped with a CCD camera for two-dimensional measurement, the tilt of the subject's neck during three-dimensional measurement by the 3D scanner, and the subject's neck during three-dimensional measurement. This is based on an error factor such as a difference between a facial expression expressed and a facial expression expressed by the subject at the time of two-dimensional measurement.

【0088】そこで、第2の実施の形態による状態再現
方法としての表情再現方法においては、以下のような処
理を行なう。まず、3次元計測における顔の表情と、2
次元計測における顔の表情とを同じにして、3次元移動
ベクトルおよび2次元移動ベクトルを、複数の顔の表情
について測定する。なお、3次元移動ベクトルおよび2
次元移動ベクトルについては、第1の実施の形態で説明
したのと同様である。
Therefore, in the expression reproducing method as the state reproducing method according to the second embodiment, the following processing is performed. First, facial expressions in 3D measurement and 2
The three-dimensional movement vector and the two-dimensional movement vector are measured for a plurality of facial expressions with the same facial expression in the dimension measurement. Note that the three-dimensional movement vector and 2
The dimensional movement vector is the same as that described in the first embodiment.

【0089】ここで、顔の表出表情数をN(j=1,
2,…,N)、ドット数(マーカ数)をQ(q=1,
2,…,Q)とする。また、3Dスキャナにより入力さ
れたドットの3次元座標(3次元移動ベクトル)を2次
元顔画像に投影した2次元位置ベクトルを2次元ベクト
ルmqjとし、CCDカメラにより入力されたマーカの2
次元位置ベクトルを2次元移動ベクトルuqjとする。な
お、2次元ベクトルmqjおよび2次元移動ベクトルuqj
は、第1の実施の形態で説明した2次元ベクトルおよび
2次元移動ベクトルと同様である。
Here, the number of facial expressions is expressed as N (j = 1,
2,..., N) and the number of dots (the number of markers) is Q (q = 1,
2,..., Q). The two-dimensional position vector obtained by projecting the three-dimensional coordinates (three-dimensional movement vector) of the dot input by the 3D scanner onto the two-dimensional face image is defined as a two-dimensional vector m qj.
The two-dimensional position vector is defined as a two-dimensional movement vector u qj . Note that the two-dimensional vector m qj and the two-dimensional movement vector u qj
Are the same as the two-dimensional vector and the two-dimensional movement vector described in the first embodiment.

【0090】たとえば、図5を参照して、2次元ベクト
ルmhjは、第2の実施の形態の2次元ベクトルmqjに相
当する。また、図5を参照して、2次元移動ベクトルu
h は、第2の実施の形態の2次元移動ベクトルuqjに相
当する。図5においては、2次元移動ベクトルuh は、
人が任意の表情を表出した際のベクトルであるが、第2
の実施の形態では、2次元移動ベクトルuqjは、3次元
計測における顔の表情と同じ表情をした際のベクトルで
ある。
For example, referring to FIG. 5, two-dimensional vector m hj corresponds to two-dimensional vector m qj in the second embodiment. Referring to FIG. 5, two-dimensional movement vector u
h corresponds to the two-dimensional movement vector u qj of the second embodiment. In FIG. 5, the two-dimensional movement vector u h is
This is a vector when a person expresses an arbitrary expression.
In the embodiment, the two-dimensional movement vector u qj is a vector when the same facial expression as the facial expression in the three-dimensional measurement is performed.

【0091】なお、2次元ベクトルを表わすmqjおよび
2次元移動ベクトルを表わすuqjの添字「q」はドット
(マーカ)を表わし、添字「j」は表出表情を表わして
いる。表出表情数Nおよびドット数(マーカ数)Qにつ
いて、2次元ベクトルmqjと2次元移動ベクトルuqj
の誤差の二乗和は以下の式で表わされる。
Note that the subscript “q” of m qj representing a two-dimensional vector and u qj representing a two-dimensional movement vector represents a dot (marker), and the subscript “j” represents an expression. For the number N of expressed expressions and the number Q of dots (the number of markers), the sum of squares of the error between the two-dimensional vector m qj and the two-dimensional movement vector u qj is expressed by the following equation.

【0092】[0092]

【数10】 3Dスキャナによる計測結果(3次元移動ベクトル)
を、CCDカメラによる2次元顔画像へ投影する際に
(2次元投影時に)、この誤差の二乗和E(以下、単
に、「誤差E」という)が最小となるように、遺伝的ア
ルゴリズム(GeneticAlgorithm :以下、「GA」とい
う)により、3次元移動ベクトルの計測のための「視
点」、「倍率」および「回転(被験者の首の傾き)」な
どの係数を最適化する。
(Equation 10) Measurement result by 3D scanner (3D movement vector)
Is projected onto a two-dimensional face image by the CCD camera (at the time of two-dimensional projection) so that the sum of squares E of the error (hereinafter, simply referred to as “error E”) is minimized. : Hereinafter referred to as “GA”) to optimize coefficients such as “viewpoint”, “magnification”, and “rotation (tilt of subject's neck)” for measuring a three-dimensional movement vector.

【0093】GAでは、誤差Eが小さい世代が出現する
と子孫が反映するように教師データが設定されており、
誤差が大きい場合には子孫が減少するように設定されて
いる。ここで、2次元投影時における倍率、視点および
回転について詳しく説明する。
In the GA, teacher data is set so that when a generation with a small error E appears, descendants are reflected.
If the error is large, the descendants are set to decrease. Here, the magnification, viewpoint, and rotation during two-dimensional projection will be described in detail.

【0094】第2の実施の形態では、2次元計測は一般
のビデオカメラ(CCDカメラなど)を用いて行ない、
3次元計測は3Dスキャナを用いて行なっている。2次
元計測と3次元計測では、同じ顔の表情を測定するた
め、コンピュータの2次元画面上に、3次元計測による
顔と2次元計測による顔を表わす場合は、全く同一のイ
メージで表示される。
In the second embodiment, two-dimensional measurement is performed using a general video camera (CCD camera or the like).
The three-dimensional measurement is performed using a 3D scanner. In the two-dimensional measurement and the three-dimensional measurement, the same facial expression is measured. Therefore, when the face obtained by the three-dimensional measurement and the face obtained by the two-dimensional measurement are displayed on the two-dimensional screen of the computer, they are displayed in exactly the same image. .

【0095】しかし、2次元計測と3次元計測とでは大
きな違いがある。2次元計測を行なった顔画像は横や上
下から見ることは不可能であり、正面から見た画像のみ
が表示される。一方、3次元計測を行なった場合は、そ
のデータを用いることにより、任意の視点から画面上に
顔を表示することが可能である。たとえば、真横から見
た顔画像、上方向から見た顔画像および下方向から見た
顔画像など、任意に表示することができる。
However, there is a significant difference between two-dimensional measurement and three-dimensional measurement. A face image on which two-dimensional measurement has been performed cannot be viewed from the side or top and bottom, and only an image viewed from the front is displayed. On the other hand, when three-dimensional measurement is performed, the face can be displayed on the screen from an arbitrary viewpoint by using the data. For example, a face image viewed from the side, a face image viewed from above, and a face image viewed from below can be arbitrarily displayed.

【0096】以上のことは、人間の顔を考えるよりも、
円柱と半円柱を見る場合を考えると理解しやすい。この
ことを図を用いて説明する。
[0096] The above is more than a human face.
It is easy to understand when you look at cylinders and half cylinders. This will be described with reference to the drawings.

【0097】図10は、2次元投影時の、「視点」、
「倍率」および「回転」を説明するための図である。
FIG. 10 shows a “viewpoint” during two-dimensional projection.
FIG. 4 is a diagram for explaining “magnification” and “rotation”.

【0098】図10を参照して、半円柱9を、正面(矢
印bの方向)から撮影した場合、画面Bに示すように円
柱と見分けがつかない(2次元計測に相当)。しかし、
3次元計測を行なった場合には、任意の「視点」に移動
させることが可能であるため、真横(矢印cの方向)か
らの表示(画面C1)が可能となり、円柱と半円柱との
見分けは任意につく。同様に、「視点」を移動させ、上
(矢印aの方向)からの表示(画面A)も、3次元計測
を行なった場合には可能になる。
Referring to FIG. 10, when photographing half cylinder 9 from the front (in the direction of arrow b), it cannot be distinguished from the cylinder as shown in screen B (corresponding to two-dimensional measurement). But,
When three-dimensional measurement is performed, since it is possible to move to an arbitrary "viewpoint", display (screen C1) from right beside (in the direction of arrow c) becomes possible, and discrimination between a cylinder and a semi-cylinder can be made. Is optional. Similarly, display (screen A) from above (in the direction of arrow a) by moving the “viewpoint” becomes possible when three-dimensional measurement is performed.

【0099】以上のように、「視点」とは、3次元の物
体をビデオカメラ(上述した2次元計測とは関係なく、
単に、「視点」を説明するために登場させたものであ
る)で撮影した場合のビデオカメラの位置に相当するも
のである。また、「回転」については、3次元の物体を
ビデオカメラ(上述した2次元計測とは関係なく、単
に、「回転」の説明のために登場させたものである)で
撮影し、それが表示された画面を首を傾けて見る場合を
想定すると意味がよく理解できる。つまり、右に首を傾
ける代わりにビデオカメラを傾ければ斜めの画像(画面
C2)が見えることになる。なお、画面C2は、真横
(矢印cの方向)からの「視点」で、ビデオカメラを傾
けた場合である。画面C1は、真横からの「視点」であ
るがビデオカメラは傾いていない。
As described above, the “viewpoint” refers to a three-dimensional object captured by a video camera (regardless of the two-dimensional measurement described above.
This is simply an appearance for explaining the “viewpoint”), and corresponds to the position of the video camera when shooting is performed. As for "rotation", a three-dimensional object is photographed with a video camera (independently of the two-dimensional measurement described above, which is merely used for explaining "rotation") and displayed. The meaning can be understood well when assuming a case where the displayed screen is viewed with the head tilted. That is, if the video camera is tilted instead of tilting the head to the right, an oblique image (screen C2) can be seen. The screen C2 is a case where the video camera is tilted from the “viewpoint” from the side (in the direction of the arrow c). The screen C1 is a “viewpoint” from the side, but the video camera is not tilted.

【0100】以上のように、「回転(被験者の首の傾
き)」とは、3次元の物体をビデオカメラで撮影する場
合の、ビデオカメラの傾き(回転の度合い)に相当す
る。
As described above, "rotation (tilt of the subject's neck)" corresponds to the tilt (degree of rotation) of the video camera when a three-dimensional object is photographed by the video camera.

【0101】「倍率」とは、3次元の物体をビデオカメ
ラ(上述した2次元計測とは関係なく、単に、「倍率」
を説明するために登場させたものである)で撮影すると
きの距離に相当する。すなわち、「倍率」を変えること
により、遠くの物体は小さく、近くの物体は大きく表示
させることができる。
The term "magnification" means that a three-dimensional object is simply referred to as a "magnification" regardless of the two-dimensional measurement described above.
Is introduced to explain the above). That is, by changing the “magnification”, a distant object can be displayed small and a near object can be displayed large.

【0102】つまり、3次元計測による3次元移動ベク
トルを、2次元計測による2次元顔画像に投影する際に
(たとえば、3次元の物体をビデオカメラ(上述した2
次元計測とは関係なく、単に、説明のために登場させた
ものである)で撮影して、画面に表示する場合の2次元
変換と同様の処理に相当する)、誤差Eが最小になるよ
うにGAの実行で、3次元計測における、「視点」、
「倍率」および「回転」を決定するということは、例え
て言うと、3次元の物体をどこから(視点)、どの程度
の距離で(倍率)、被験者の首(またはビデオカメラ
(上述した2次元計測とは関係なく、単に、説明のため
に登場させたものである))をどの程度傾けて(回
転)、撮影すれば(2次元画面上に投影すれば)、その
撮影結果が、2次元計測でビデオカメラ(CCDカメラ
など)で撮影した2次元画像と同じになるかを決定する
ことに相当する。
In other words, when projecting a three-dimensional movement vector based on three-dimensional measurement onto a two-dimensional face image based on two-dimensional measurement (for example, when a three-dimensional object is
Irrespective of the dimension measurement, this is merely an example for the purpose of explanation) and is equivalent to the same processing as the two-dimensional conversion when the image is taken and displayed on the screen), and the error E is minimized. In the execution of GA, "viewpoint" in three-dimensional measurement,
Determining “magnification” and “rotation” means, for example, that a three-dimensional object can be viewed from where (viewpoint) and at what distance (magnification) by the subject's neck (or a video camera (as described above). Irrespective of the measurement, it is simply introduced for explanation)), how much the camera is tilted (rotated) and photographed (projected on a two-dimensional screen), This corresponds to determining whether or not the measurement is the same as a two-dimensional image captured by a video camera (CCD camera or the like).

【0103】すなわち、GAの実行では、ビデオカメラ
を用いた2次元計測の顔画像と、その2次元計測を行な
った顔画像に投影した3次元計測の顔画像とが同一に見
えるように(2次元計測をする際に顔に描いたマーカの
位置と、3次元計測をする際に顔に描いたドットの位置
との差が最も小さくなるように)、3次元計測のため
の、距離(倍率)αと、被験者の首(またはビデオカメ
ラ(上述した2次元計測とは関係なく、単に、説明のた
めに登場させたものである))の傾き(回転)βと、眺
める地点・位置(視点)DX ,DY を計算する。
That is, in the execution of the GA, the face image of the two-dimensional measurement using the video camera and the face image of the three-dimensional measurement projected on the face image subjected to the two-dimensional measurement are made to look the same (2). Distance (magnification) so that the difference between the position of the marker drawn on the face when performing three-dimensional measurement and the position of the dot drawn on the face when performing three-dimensional measurement is minimized) ) Α, the inclination (rotation) β of the subject's neck (or a video camera (which has nothing to do with the above-described two-dimensional measurement and is merely used for explanation)), and the point / position to be viewed (viewpoint) ) D X, calculating the D Y.

【0104】以上のように、第2の実施の形態による表
情再現方法においては、3次元移動ベクトルを2次元画
像に投影し、2次元ベクトルmqjを求める際に、2次元
ベクトルmqjと2次元移動ベクトルuqjとの誤差が小さ
くなるように、GAにより3次元計測における、「視
点」、「倍率」および「回転」を決定する。このため、
誤差Eを考慮にいれない第1の実施の形態に比し、表情
再現品質が向上する。
[0104] As described above, in the facial expression reproduction method according to the second embodiment, projecting a 3-dimensional motion vector in a two-dimensional image, when obtaining the two-dimensional vector m qj, two-dimensional vector m qj and 2 The “viewpoint”, “magnification”, and “rotation” in three-dimensional measurement are determined by the GA so that the error with the dimensional movement vector u qj is reduced. For this reason,
Expression reproduction quality is improved as compared with the first embodiment in which the error E is not taken into account.

【0105】なお、誤差Eを最小とするためのパラメー
タ(「視点」、「倍率」、「回転」)の計算において
は、GAと同様の効果を持つ、ニューラルネット、最小
誤差二乗法などの手法を用いることもできる。この場合
にも、第1の実施の形態に比し、表情再現品質が向上す
る。
In calculating the parameters (“viewpoint”, “magnification”, “rotation”) for minimizing the error E, a method such as a neural network and a minimum error square method having the same effect as GA is used. Can also be used. Also in this case, the expression reproduction quality is improved as compared with the first embodiment.

【0106】以上のようにして、パラメータ(「視
点」、「倍率」、「回転」)の最適化を行なっても、3
次元計測を行なう3次元物体測定装置(3Dスキャナ)
および2次元計測を行なう2次元物体測定装置(CCD
カメラなどのカメラ)は、それぞれ精度誤差を含んでい
るため、誤差Eを0にすることは極めて難しい。
As described above, even if the parameters (“viewpoint”, “magnification”, “rotation”) are optimized,
3D object measurement device (3D scanner) that performs 3D measurement
Object measuring device (CCD)
Cameras such as cameras) each include an accuracy error, and it is extremely difficult to set the error E to zero.

【0107】そこで、第2の実施の形態の変更例による
表情再現方法においては、精度誤差の少ない2次元計測
を行なうCCDカメラからの入力を基準とし、以下のよ
うにして3次元計測系と2次元系測系の誤差を極力小さ
くする。3D WFMの頂点hに対応するマーカ(2次
元計測による顔画像のマーカ)に、3次元計測による3
次元移動ベクトルを投影した2次元ベクトルmhj(図5
の2次元ベクトルmhjに相当)を考える。2次元ベクト
ルmhjの添字「h」は、3D WFMの頂点hに対応す
ることを示し、添字「j」は、3次元計測における表出
表情を示している。
Therefore, in the expression reproducing method according to the modified example of the second embodiment, the three-dimensional measuring system and the two-dimensional measuring system are performed as follows based on the input from the CCD camera which performs the two-dimensional measurement with a small accuracy error. Minimize the error of the dimensional measurement system. A marker corresponding to the vertex h of the 3D WFM (a marker of the face image by two-dimensional measurement)
The two-dimensional vector m hj (FIG. 5)
(Corresponding to the two-dimensional vector m hj of). The suffix “h” of the two-dimensional vector m hj indicates that it corresponds to the vertex h of the 3D WFM, and the suffix “j” indicates an expression expression in three-dimensional measurement.

【0108】ここで、3次元計測を行なった表出表情
(基本表情)aとbとの中間表情の2次元移動ベクトル
h は、基本表情aの2次元ベクトルmha(図5の2次
元ベクトルmhaに相当)と基本表情bの2次元ベクトル
hb(図5の2次元ベクトルm hbに相当)とを用いて以
下のように表わされる。
Here, a three-dimensional measured expression expression
(Basic expression) Two-dimensional movement vector of the intermediate expression between a and b
xhIs a two-dimensional vector m of the basic expression aha(Secondary in FIG. 5
Source vector mhaAnd a two-dimensional vector of the basic expression b
mhb(The two-dimensional vector m in FIG. 5 hb) And
It is expressed as below.

【0109】[0109]

【数11】 なお、式[13]において、kh およびlh は、第1の
実施の形態の式[1]の重み付けkh およびlh に相当
する重み付けである。なお、式[13]を求める手順
は、第1の実施の形態と同様であり、重み付けkh およ
びlh を求める手順も第1の実施の形態と同様である。
すなわち、第2の実施の形態による表情再現方法のここ
までの手順は、上述したような誤差Eを最小とするよう
に2次元投影時に「視点」、「倍率」および「回転」を
決定する点を除けば、第1の実施の形態と同様である。
式[13]の重み付けkh およびlh を用いて、3D
WFMの頂点hの動きを決定する。このことを詳しく説
明する。
[Equation 11] In Expression [13], k h and l h are weights corresponding to the weights k h and l h in Expression [1] of the first embodiment. Note that the procedure for obtaining equation [13] is the same as that in the first embodiment, and the procedure for obtaining the weights k h and l h is also the same as in the first embodiment.
That is, the procedure up to this point of the facial expression reproducing method according to the second embodiment is that the “viewpoint”, “magnification”, and “rotation” are determined at the time of two-dimensional projection so as to minimize the error E as described above. Except for the above, it is the same as the first embodiment.
Using the weights k h and l h in equation [13], 3D
Determine the motion of vertex h of WFM. This will be described in detail.

【0110】式[13]の2次元ベクトルmhaに対応す
る3次元移動ベクトルMhaおよび2次元ベクトルmhb
対応する3次元移動ベクトルMhbに、それぞれ重み付け
hおよびlh をし、その和をとると次式を得る。
[0110] Formula [13] of the 3-dimensional movement vector M hb corresponding to the three-dimensional movement vector M ha and 2-dimensional vector m hb corresponding to the two-dimensional vector m ha, to each weighted k h and l h, the The following equation is obtained by taking the sum.

【0111】[0111]

【数12】 式[14]は、第1の実施の形態の式[7]に相当す
る。すなわち、ここまでの手順は、第1の実施の形態で
式[7]を求める手順と同様である。なお、3次元移動
ベクトルMhaの添字「h」は、3D WFMの頂点hを
示し、添字「a」は、3次元計測を行なった表出表情
(基本表情)aであることを示す。3次元移動ベクトル
hbについても同様である。
(Equation 12) Equation [14] corresponds to equation [7] in the first embodiment. That is, the procedure up to this point is the same as the procedure for obtaining equation [7] in the first embodiment. Note that subscripts 3-dimensional movement vector M ha "h" indicates the vertex h of 3D WFM, subscript "a" indicates that the expression expression (basic facial expression) a was subjected to three-dimensional measurement. The same applies to the three-dimensional movement vector M hb .

【0112】GAの結果残存する3次元誤差ベクトルを
考える。3次元移動ベクトルMhaの3次元誤差ベクトル
haおよび3次元移動ベクトルMhbの3次元誤差ベクト
ルShbに、それぞれ重み付けkh およびlh をし、その
和をとり、次式を得る。
Consider a three-dimensional error vector remaining as a result of GA. A three-dimensional moving vector M 3 dimensional error vector S ha and 3-dimensional movement vector M 3 dimensional error vector S hb of hb of ha, respectively weighted k h and l h, taking the sum, the following expression is obtained.

【0113】[0113]

【数13】 なお、3次元誤差ベクトルShaおよびShbの添字「h
a」、「hb」は、3次元移動ベクトルMhaおよびMhb
の添字「ha」、「hb」と同様である。なお、GAで
は、3次元のベクトルを2次元のベクトルにして、処理
を行なうが、その逆の手順を踏むことにより3次元誤差
ベクトルShaおよびShbを求める。
(Equation 13) The subscript “h” of the three-dimensional error vectors S ha and S hb
a ”and“ hb ”are three-dimensional movement vectors M ha and M hb
Are the same as suffixes “ha” and “hb”. In GA, and the three-dimensional vector into a two-dimensional vector, performs the processing to obtain the three-dimensional error vector S ha and S hb by stepping on procedure in reverse.

【0114】すなわち、式[12]の、2次元ベクトル
と2次元移動ベクトルとの誤差(mqj−uqj)に基づ
き、3次元誤差ベクトルを求める。
That is, a three-dimensional error vector is obtained based on the error (m qj -u qj ) between the two-dimensional vector and the two-dimensional movement vector in equation [12].

【0115】3D WFMの頂点hの動きを決定する3
次元のベクトルXh は、式[14]に示すベクトルと、
式[15]で示すベクトルとの和で表わされ、以下のよ
うになる。
3 Determines the Motion of Vertex h of 3D WFM
The dimensional vector X h is calculated by using the vector shown in Expression [14] and
It is represented by the sum with the vector shown in Expression [15], and is as follows.

【0116】[0116]

【数14】 式[16]で表わされた3次元ベクトルXh を基に、3
D WFMの頂点を駆動し、人物が任意の表情をした際
の表情を再現する。
[Equation 14] Based on the three-dimensional vector X h represented by the formula [16], 3
The top of the D WFM is driven to reproduce the expression when a person expresses an arbitrary expression.

【0117】図11は、式[16]を図示したものであ
る。図11を参照して、ベクトルYh は、式[14]で
表わされるベクトルを示している。すなわち、ベクトル
h は、3次元移動ベクトルMhaおよびMhbにそれぞれ
重み付けkh およびlh をし、その和をとったものであ
る。
FIG. 11 illustrates equation [16]. Referring to FIG. 11, a vector Y h indicates a vector represented by Expression [14]. That is, the vector Y h is obtained by weighting the three-dimensional movement vectors M ha and M hb by weights k h and l h , respectively, and taking the sum.

【0118】ベクトルSh は、式[15]で表わされる
ベクトルを示している。すなわち、ベクトルSh は、3
次元誤差ベクトルShaおよびShbにそれぞれ重み付けk
h およびlh をし、その和をとったものである。ベクト
ルSh は、ベクトルYh の3次元誤差ベクトルというこ
とになる。3D WFMの頂点hの動きを決定するベク
トルXh は、ベクトルYh とベクトルSh との和で表わ
されている。
[0118] Vector S h shows a vector represented by the formula [15]. That is, the vector Sh is 3
Weight k for the dimensional error vectors S ha and S hb respectively
the h and l h, is obtained by taking the sum. Vector S h would that 3-dimensional error vector of the vector Y h. Vector X h that determines the movement of the vertex h of 3D WFM is represented as the sum of the vectors Y h and the vector S h.

【0119】図12は、第1の実施の形態による表情再
現方法による表情の再現結果と、第2の実施の形態の変
更例による表情再現方法による表情の再現結果とを比較
して示す図である。
FIG. 12 is a diagram showing a comparison between the expression reproduction result by the expression reproducing method according to the first embodiment and the expression reproduction result by the expression reproducing method according to the modification of the second embodiment. is there.

【0120】図12を参照して、図12(a)は、第2
の実施の形態による表情再現方法の結果を示す。図12
(b)は、第1の実施の形態による表情再現方法の結果
を示す。図12からもわかるように、第2の実施の形態
では、第1の実施の形態に比し、さらに、表情の再現品
質が向上したことがわかる。
Referring to FIG. 12, FIG.
7 shows the results of the facial expression reproducing method according to the embodiment. FIG.
(B) shows the result of the facial expression reproducing method according to the first embodiment. As can be seen from FIG. 12, it can be seen that the reproduction quality of facial expressions is further improved in the second embodiment as compared with the first embodiment.

【0121】以上のように、本発明の第2の実施の形態
の変更例による表情再現方法においては、GAで、誤差
Eを最小にするように、3次元計測のための、「倍
率」、「視点」および「回転」を決定するとともに、G
Aの結果残存する3次元誤差ベクトルを考慮して、3D
WFMの頂点を駆動し、人物が任意の表情をした際の
表情を再現する。すなわち、3次元計測系と2次元計測
系との誤差を最小にし、その誤差を除去できない部分
は、表情再現時に誤差を考慮して、表情の再現を行な
う。
As described above, in the facial expression reproducing method according to the modified example of the second embodiment of the present invention, the “magnification”, Determine “viewpoint” and “rotation”, and
Considering the remaining three-dimensional error vector as a result of A, 3D
The vertex of the WFM is driven to reproduce the expression when the person expresses an arbitrary expression. That is, the error between the three-dimensional measurement system and the two-dimensional measurement system is minimized, and in the portion where the error cannot be removed, the facial expression is reproduced in consideration of the error when reproducing the facial expression.

【0122】このため、本発明の第2の実施の形態の変
更例による表情再現方法においては、第1の実施の形態
および第2の実施の形態による表情再現方法に比し、さ
らに表情の再現品質の向上を図ることができる。
For this reason, the facial expression reproducing method according to the modified example of the second embodiment of the present invention is further different from the facial expression reproducing method according to the first and second embodiments in reproducing the facial expression. The quality can be improved.

【0123】また、第2の実施の形態(第2の実施の形
態の変更例)による表情再現方法と第1の実施の形態に
よる表情再現方法との相違は以下の点である。第2の実
施の形態(第2の実施の形態の変更例)による表情再現
方法では、3次元計測系と2次元計測系との誤差を考慮
して表情を再現しているのに対し、第1の実施の形態に
よる表情再現方法では、この誤差を考慮していない点で
ある。それ以外については、第1の実施の形態と第2の
実施の形態(第2の実施の形態の変更例)は同様であ
る。
The difference between the expression reproducing method according to the second embodiment (a modification of the second embodiment) and the expression reproducing method according to the first embodiment is as follows. In the expression reproducing method according to the second embodiment (a modification of the second embodiment), the expression is reproduced in consideration of an error between the three-dimensional measurement system and the two-dimensional measurement system. In the expression reproducing method according to the first embodiment, this error is not considered. Otherwise, the first embodiment is the same as the second embodiment (a modified example of the second embodiment).

【0124】[0124]

【発明の効果】以上のように、本発明の請求項1の状態
再現方法においては、任意の対象物の任意の動きを表わ
す2次元移動ベクトルを、基準となる対象物の所定の動
きを表わす3次元移動ベクトルから得た2次元ベクトル
の第1の和として表現し、その際に算出される重み付け
をもとに得られた、任意の対象物が任意の動きをした際
の3次元模型の格子点の動きを決定するベクトルに従
い、3次元模型の格子点を動かし、3次元模型を駆動す
るため、予め、3次元移動ベクトルが求められている所
定の動き以外の、動きを任意の対象物がしたときでも、
動き後の任意の対象物の状態の再現性がよくなる。
As described above, in the state reproducing method according to the first aspect of the present invention, a two-dimensional movement vector representing an arbitrary movement of an arbitrary object is represented by a predetermined movement of a reference object. Expressed as the first sum of the two-dimensional vector obtained from the three-dimensional movement vector, and obtained based on the weights calculated at that time, the three-dimensional model when an arbitrary object makes an arbitrary movement In order to move the lattice points of the three-dimensional model in accordance with the vector that determines the movement of the lattice points and to drive the three-dimensional model, any motion other than the predetermined motion for which the three-dimensional movement vector is determined in advance is optional. Even when you do,
The reproducibility of the state of any object after the movement is improved.

【0125】請求項2の状態再現方法においては、任意
の対象物の任意の動きを表わす2次元移動ベクトルを和
で表現する2つの2次元ベクトルがそれぞれ表わす所定
の動きに相対する2つの3次元移動ベクトルに、2次元
移動ベクトルを第1の和で表現するときに用いた重み付
けをし、重み付けされた2つの3次元移動ベクトルの第
2の和を求めて、その第2の和である格子点の動きを決
定するベクトルに基づき3次元模型の格子点を動かして
3次元模型を駆動するため、予め3次元移動ベクトルが
求められている所定の動き以外の、動きを任意の対象物
がしたときでも、動き後の任意の状態の対象物の再現性
がよくなる。
In the state reproducing method according to the second aspect, two three-dimensional vectors respectively corresponding to predetermined motions represented by two two-dimensional vectors each representing a two-dimensional motion vector representing an arbitrary motion of an arbitrary object as a sum. The motion vector is weighted for use in expressing the two-dimensional motion vector as a first sum, a second sum of the two weighted three-dimensional motion vectors is obtained, and a grid that is the second sum is obtained. Since the three-dimensional model is driven by moving the grid points of the three-dimensional model based on the vector that determines the motion of the point, any object other than the predetermined motion for which the three-dimensional movement vector is determined in advance has been moved. Even at this time, the reproducibility of the object in any state after the movement is improved.

【0126】請求項3の状態再現方法においては、任意
の対象物の任意の動きを特徴付ける特徴点に対応する基
準点における重み付けされた2つの3次元移動ベクトル
の第2の和で表わされる3次元模型の格子点の動きを決
定するベクトルに基づいて、3次元模型を駆動するた
め、任意の対象物の任意の動き後の状態を自然に再現で
きる。
According to a third aspect of the present invention, in the state reproducing method, a three-dimensional motion vector represented by a second sum of two weighted three-dimensional motion vectors at a reference point corresponding to a feature point characterizing an arbitrary motion of an arbitrary object. Since the three-dimensional model is driven based on the vector that determines the movement of the lattice points of the model, the state of any object after any movement can be reproduced naturally.

【0127】請求項4の状態再現方法においては、任意
の対象物の任意の動きを特徴付ける特徴点に対応する基
準点の近傍にある基準点における重み付けされた2つの
3次元移動ベクトルの第2の和で表わされる3次元模型
の格子点の動きを決定するベクトルに基づいて3次元模
型を駆動するため、特徴点の数が基準点の数より少ない
ときでも、任意の対象物の任意の動き後の状態を自然に
再現できる。
In the state reproducing method according to the fourth aspect, the second of the two weighted three-dimensional movement vectors at a reference point near a reference point corresponding to a feature point characterizing an arbitrary movement of an arbitrary object. Since the three-dimensional model is driven based on the vector that determines the movement of the lattice points of the three-dimensional model represented by the sum, even after the arbitrary movement of any object, even when the number of feature points is smaller than the number of reference points Can be reproduced naturally.

【0128】請求項5の状態再現方法においては、2次
元ベクトルと2次元移動ベクトルとの誤差が小さくなる
ように、すなわち、3次元計測系(3次元移動ベクトル
の計測系)と、2次元計測系(2次元移動ベクトルの計
測系)との誤差が小さくなるような処理を行ない、3次
元模型を駆動するため、請求項1の状態再現方法に比
し、さらに、任意の対象物の任意の状態の再現性が向上
する。
According to the state reproducing method of the fifth aspect, the error between the two-dimensional vector and the two-dimensional movement vector is reduced, that is, the three-dimensional measurement system (three-dimensional movement vector measurement system) and the two-dimensional measurement vector are used. In order to drive the three-dimensional model by performing processing to reduce the error with respect to the system (measurement system of the two-dimensional movement vector), an arbitrary object of any object can be further compared with the state reproduction method of claim 1. The reproducibility of the state is improved.

【0129】請求項6の状態再現方法においては、2次
元ベクトルと2次元移動ベクトルとの誤差が小さくなる
ように、すなわち、3次元計測系(3次元移動ベクトル
の計測系)と、2次元計測系(2次元移動ベクトルの計
測系)との誤差が小さくなるように、3次元移動ベクト
ルの計測のための、視点、倍率、および回転を決定する
処理を行ない、3次元模型を駆動するため、請求項1の
状態再現方法に比し、任意の対象物の任意の状態の再現
性が向上する。
In the state reproducing method according to the sixth aspect, the error between the two-dimensional vector and the two-dimensional movement vector is reduced, that is, the three-dimensional measurement system (three-dimensional movement vector measurement system) and the two-dimensional measurement vector In order to reduce the error with the system (measurement system of two-dimensional movement vector), the viewpoint, magnification, and rotation are determined for the measurement of the three-dimensional movement vector, and the three-dimensional model is driven. Compared with the state reproducing method of the first aspect, the reproducibility of an arbitrary state of an arbitrary object is improved.

【0130】請求項7の状態再現方法においては、複数
の基準点およびいくつかの所定の動きに対して、2次元
ベクトルと2次元移動ベクトルとの誤差を保管するた
め、その誤差を考慮して、3次元模型を駆動することが
でき、請求項5の状態再現方法に比し、さらに任意の対
象物の任意の状態の再現性を向上させることができる。
According to the state reproducing method of the present invention, an error between a two-dimensional vector and a two-dimensional movement vector is stored for a plurality of reference points and some predetermined movements. The three-dimensional model can be driven, and the reproducibility of an arbitrary state of an arbitrary object can be improved as compared with the state reproducing method of the fifth aspect.

【0131】請求項8の状態再現方法においては、任意
の対象物の任意の動きを表わす2次元移動ベクトルを第
1の和を表現する2つの2次元ベクトルがそれぞれ表わ
す所定の動きに相対する2つの3次元移動ベクトルおよ
びその2つの3次元移動ベクトルの誤差を表わす2つの
3次元誤差ベクトルに、2次元移動ベクトルを第1の和
で表現するときに用いた重み付けをし、重み付けされた
2つの3次元移動ベクトルの第2の和および重み付けさ
れた2つの3次元誤差ベクトルの第3の和を求め、さら
に、その第2の和と第3の和との第4の和を求め、その
第4の和である格子点の動きを決定するベクトルを基に
3次元模型の格子点を動かして、3次元模型を駆動する
ため、請求項5の状態再現方法に比し、さらに任意の対
象物の任意の状態の再現性を向上させることができる。
According to the state reproducing method of the present invention, a two-dimensional motion vector representing an arbitrary motion of an arbitrary object is converted into a two-dimensional motion vector corresponding to a predetermined motion represented by each of the two two-dimensional vectors expressing the first sum. The two three-dimensional motion vectors and the two three-dimensional error vectors representing the errors between the two three-dimensional motion vectors are weighted when the two-dimensional motion vector is expressed by the first sum. A second sum of the three-dimensional motion vectors and a third sum of the two weighted three-dimensional error vectors are obtained, and a fourth sum of the second sum and the third sum is obtained. Since the three-dimensional model is driven by moving the lattice points of the three-dimensional model on the basis of the vector that determines the movement of the lattice point, which is the sum of the four, the arbitrary object is further compared with the state reproduction method of claim 5. Any state of It is possible to improve the reproducibility.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施の形態における、人物の表情検出の
際の、人物の顔に貼付されたマーカの位置を示す図であ
る。
FIG. 1 is a diagram illustrating a position of a marker attached to a person's face when a facial expression of a person is detected in the first embodiment.

【図2】第1の実施の形態における、人物の顔の各種表
情表出時の顔の3次元計測を行なうために、人物の顔に
描かれたドットの位置を示す図である。
FIG. 2 is a diagram illustrating positions of dots drawn on a person's face in order to perform three-dimensional measurement of the face at the time of expressing various facial expressions of the person's face in the first embodiment.

【図3】第1の実施の形態における、基本の3D WF
Mを示す図である。
FIG. 3 shows a basic 3D WF in the first embodiment.
It is a figure showing M.

【図4】第1の実施の形態における、図3の基本の3D
WFMを拡張した3D WFMを示す図である。
FIG. 4 shows the basic 3D of FIG. 3 in the first embodiment.
It is a figure showing 3D WFM which expanded WFM.

【図5】第1の実施の形態における、基本の3D WF
Mの頂点hに対応するマーカの2次元移動ベクトルuh
および人物の顔の3次元計測により得られた3次元移動
ベクトルを人物の顔に投影した2次元ベクトルmhjを示
す図である。
FIG. 5 shows a basic 3D WF in the first embodiment.
The two-dimensional movement vector u h of the marker corresponding to vertex h of M
FIG. 9 is a diagram showing a two-dimensional vector m hj obtained by projecting a three-dimensional movement vector obtained by three-dimensional measurement of a person's face onto a person's face.

【図6】第1の実施の形態における、図4の拡張した3
D WFMにおいて、マーカに対応するドットのない頂
点の動きを決定する手法を説明するための図である。
FIG. 6 is an expanded view of FIG. 4 according to the first embodiment;
FIG. 9 is a diagram for explaining a method of determining the movement of a vertex without a dot corresponding to a marker in D WFM.

【図7】第1の実施の形態における、人物の顔の表情を
再現するための処理の流れを示す図である。
FIG. 7 is a diagram showing a flow of processing for reproducing a facial expression of a person in the first embodiment.

【図8】第1の実施の形態による状態再現方法としての
表情再現方法を用いて、人物の顔の表情を再現したとき
の顔画像を示す図である。
FIG. 8 is a diagram showing a face image when a facial expression of a person is reproduced using a facial expression reproducing method as a state reproducing method according to the first embodiment.

【図9】マーカを付した人間の顔の2次元計測による顔
画像に、3次元計測によるドットを投影した様子を示す
図である。
FIG. 9 is a diagram illustrating a state in which dots obtained by three-dimensional measurement are projected on a face image obtained by two-dimensional measurement of a human face with a marker.

【図10】第2の実施の形態において、GAで最適化す
る、「視点」、「倍率」および「回転」について説明す
るための図である。
FIG. 10 is a diagram for describing “viewpoint”, “magnification”, and “rotation” optimized by GA in the second embodiment.

【図11】第2の実施の形態において、3D WFMの
頂点hの動きを決定するベクトルを求める手順を説明す
るための図である。
FIG. 11 is a diagram illustrating a procedure for obtaining a vector for determining the motion of the vertex h of the 3D WFM in the second embodiment.

【図12】第1の実施の形態による表情再現方法の表情
再現結果と、第2の実施の形態の変更例による表情再現
方法の表情再現結果とを比較して示す図である。
FIG. 12 is a diagram showing a comparison between a facial expression reproduction result of the facial expression reproducing method according to the first embodiment and a facial expression reproduction result of a facial expression reproducing method according to a modification of the second embodiment;

【符号の説明】[Explanation of symbols]

1,3 模式的に示された人物の顔 2 マーカ 4 ドット 5,7 三角パッチ 9 半円柱 1,3 Face of a person schematically shown 2 Marker 4 Dot 5,7 Triangular patch 9 Semicircular cylinder

フロントページの続き 特許法第30条第1項適用申請有り 電子情報通信学会 1995年総合大会講演論文集 基礎・境界,A−252, 「3次元計測に基づいた顔画像の表情再現法の検討」, 平成7年3月 (72)発明者 鈴木 紀子 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (72)発明者 岸野 文郎 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (56)参考文献 特開 平8−96162(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 - 17/50 H04N 7/13 - 7/15Continuing from the front page Patent application Article 30 (1) is applied. IEICE 1995 General Conference Proceedings Proceedings, Boundary, A-252, "Examination of facial expression reproduction method based on 3D measurement" , March 1995 (72) Inventor Noriko Suzuki 5th place, Sanraya, Inaya, Seika-cho, Kyoto, Japan Town No.5, Hiratani, Sanriya, A.T. A.T.R. Communication System Research Laboratories Co., Ltd. (56) References JP-A-8-96162 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB) G06T 1/00-17/50 H04N 7/13-7/15

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の基準点を設けた基準となる対象物
が、いくつかの所定の動きをした際の、前記基準となる
対象物の前記基準点の動きを表わす複数の3次元移動ベ
クトルを、2次元画像で表わされる複数の特徴点を設け
た任意の対象物に投影した複数の2次元ベクトルと、前
記任意の対象物が任意の動きをした際の、前記任意の対
象物の前記特徴点の動きを表わす2次元移動ベクトルと
に基づいて、前記基準となる対象物の複数の基準点に対
応する格子点を含む複数の格子点からなる前記基準とな
る対象物の画像としての3次元模型を駆動させることに
より、前記任意の対象物が前記任意の動きをした際の状
態を再現する状態再現方法であって、 前記複数の基準点に対応する前記複数の特徴点の各々に
おいて、前記基準となる対象物が前記いくつかの所定の
動きをした際の複数の前記3次元移動ベクトルに対応す
る前記複数の2次元ベクトルの中から、前記2次元移動
ベクトルに近い、かつ、前記2次元移動ベクトルを間に
挟む、2つの前記2次元ベクトルを抽出するステップ
と、 前記複数の基準点に対応する前記複数の特徴点の各々に
おいて、前記抽出された2つの2次元ベクトルのそれぞ
れに重み付けをして、前記2次元移動ベクトルが、前記
抽出された2つの2次元ベクトルの第1の和で表現でき
るように、前記抽出された2つの2次元ベクトルに対す
る、それぞれの前記重み付けを算出するステップと、 前記複数の基準点に対応する前記複数の特徴点の各々に
おいて算出された前記重み付けをもとに、前記任意の対
象物が任意の動きをした際の前記複数の格子点の動きを
決定する複数のベクトルを求め、前記複数の格子点の動
きを決定する前記複数のベクトルに基づいた前記複数の
格子点の移動により、前記3次元模型を駆動するステッ
プとを含む、状態再現方法。
1. A plurality of three-dimensional movement vectors representing the movement of the reference point of the reference object when the reference object provided with a plurality of reference points makes some predetermined movements. A plurality of two-dimensional vectors projected on an arbitrary object provided with a plurality of feature points represented by a two-dimensional image, and the arbitrary object moves when the arbitrary object moves, On the basis of the two-dimensional movement vector representing the motion of the feature point, the image of the reference target object consisting of a plurality of grid points including a plurality of grid points corresponding to the plurality of reference points of the reference target object is used as an image. A state reproduction method for reproducing a state when the arbitrary object makes the arbitrary movement by driving a three-dimensional model, wherein in each of the plurality of feature points corresponding to the plurality of reference points, The reference object is the front From among the plurality of two-dimensional vectors corresponding to the plurality of three-dimensional motion vectors when performing some predetermined motion, close to the two-dimensional motion vector, and sandwiching the two-dimensional motion vector, Extracting the two two-dimensional vectors; and weighting each of the two extracted two-dimensional vectors at each of the plurality of feature points corresponding to the plurality of reference points, thereby performing the two-dimensional movement. Calculating respective weights for the two extracted two-dimensional vectors so that the vector can be represented by a first sum of the two extracted two-dimensional vectors; Based on the weights calculated at each of the corresponding plurality of feature points, the movement of the plurality of grid points when the arbitrary object performs an arbitrary movement Determine a plurality of vectors to determine, by the movement of said plurality of said plurality of grid points based on the vector to determine the movement of the plurality of lattice points, and a step of driving the three-dimensional model, state reproduction method.
【請求項2】 前記3次元模型を駆動するステップは、 前記抽出された2つの2次元ベクトルがそれぞれ表わす
前記いくつかの所定の動きに相対する2つの前記3次元
移動ベクトルに、前記算出された重み付けをするステッ
プと、 前記重み付けされた前記2つの3次元移動ベクトルの第
2の和を求め、前記第2の和である前記格子点の動きを
決定するベクトルに基づき、前記3次元模型の前記格子
点を動かすステップとを含む、請求項1に記載の状態再
現方法。
2. The step of driving the three-dimensional model, wherein the two three-dimensional motion vectors corresponding to the some predetermined motions respectively represented by the two extracted two-dimensional vectors are calculated. Weighting; determining a second sum of the weighted two-dimensional motion vectors; and determining the second sum of the two-dimensional motion vectors based on a vector that determines the movement of the lattice point. Moving the grid points.
【請求項3】 前記抽出された2つの2次元ベクトルが
それぞれ表わす前記いくつかの所定の動きに相対する前
記2つの3次元移動ベクトルは、 前記抽出された2つの2次元ベクトルの前記第1の和で
表わされる前記2次元移動ベクトルによって示される前
記特徴点に対応する前記基準点の2つの3次元移動ベク
トルである、請求項2に記載の状態再現方法。
3. The two three-dimensional motion vectors corresponding to the some predetermined movements respectively represented by the two extracted two-dimensional vectors are: a first one of the two extracted two-dimensional vectors. 3. The state reproduction method according to claim 2, wherein the three-dimensional movement vectors of the reference point corresponding to the feature points indicated by the two-dimensional movement vector represented by the sum are three.
【請求項4】 前記抽出された2つの2次元ベクトルが
それぞれ表わす前記いくつかの所定の動きに相対する前
記2つの3次元移動ベクトルは、 前記抽出された2つの2次元ベクトルの前記第1の和で
表わされる前記2次元移動ベクトルによって示される前
記特徴点に対応する前記基準点の近傍にある前記基準点
の2つの3次元移動ベクトルである、請求項2に記載の
状態再現方法。
4. The two three-dimensional motion vectors corresponding to the some predetermined motions respectively represented by the two extracted two-dimensional vectors are: a first one of the two extracted two-dimensional vectors. The state reproduction method according to claim 2, wherein there are two three-dimensional movement vectors of the reference point near the reference point corresponding to the feature point indicated by the two-dimensional movement vector represented by a sum.
【請求項5】 前記複数の基準点および前記いくつかの
所定の動きに対しての、前記任意の対象物が前記所定の
動きをした際の前記2次元移動ベクトルと、前記基準と
なる対象物が前記所定の動きをした際の前記2次元ベク
トルとの誤差の二乗和が、最小になるように前記3次元
移動ベクトルの計測の条件を決定するステップをさらに
含む、請求項1に記載の状態再現方法。
5. The two-dimensional movement vector when the arbitrary object makes the predetermined movement with respect to the plurality of reference points and the some predetermined movements, and the reference object 2. The state according to claim 1, further comprising: determining a measurement condition of the three-dimensional movement vector such that a sum of squares of an error with the two-dimensional vector when the predetermined movement is performed is minimized. How to reproduce.
【請求項6】 前記3次元移動ベクトルの計測の条件
は、視点、倍率および回転である、請求項5に記載の状
態再現方法。
6. The state reproduction method according to claim 5, wherein the conditions for measuring the three-dimensional movement vector are a viewpoint, a magnification, and a rotation.
【請求項7】 前記複数の基準点および前記いくつかの
所定の動きに対して、前記誤差を保管するステップをさ
らに含む、請求項5または6に記載の状態再現方法。
7. The state reproduction method according to claim 5, further comprising the step of storing the error for the plurality of reference points and the some predetermined movements.
【請求項8】 前記3次元模型を駆動するステップは、 前記抽出された2つの2次元ベクトルがそれぞれ表わす
前記いくつかの所定の動きに相対する2つの前記3次元
移動ベクトルに、前記算出された重み付けをするステッ
プと、 前記重み付けされた前記2つの3次元移動ベクトルの第
2の和を求めるステップと、 前記誤差に基づき、前記抽出された2つの2次元ベクト
ルがそれぞれ表わす前記いくつかの所定の動きに相対す
る前記2つの3次元移動ベクトルの誤差を表わす2つの
3次元誤差ベクトルを求めるステップと、 前記2つの3次元誤差ベクトルに、前記算出された重み
付けをするステップと、 前記重み付けされた前記2つの3次元誤差ベクトルの第
3の和を求めるステップと、 前記第2の和と前記第3の和との第4の和を求めるステ
ップと、 前記第4の和である前記格子点の動きを決定するベクト
ルに基づき、前記3次元模型の前記格子点を動かすステ
ップとを含む、請求項5から7のいずれか1項に記載の
状態再現方法。
8. The step of driving the three-dimensional model, wherein the two three-dimensional motion vectors corresponding to the some predetermined motions respectively represented by the two extracted two-dimensional vectors are calculated. Weighting; calculating a second sum of the weighted two three-dimensional motion vectors; and determining the predetermined number of the predetermined two-dimensional vectors represented by the two two-dimensional vectors based on the error. Obtaining two three-dimensional error vectors representing an error between the two three-dimensional motion vectors relative to motion; applying the calculated weights to the two three-dimensional error vectors; Obtaining a third sum of two three-dimensional error vectors; and obtaining a fourth sum of the second sum and the third sum The method according to any one of claims 5 to 7, further comprising: moving the grid point of the three-dimensional model based on a vector that determines the movement of the grid point that is the fourth sum. State reproduction method.
JP25563695A 1995-05-15 1995-09-06 State reproduction method Expired - Lifetime JP2813971B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25563695A JP2813971B2 (en) 1995-05-15 1995-09-06 State reproduction method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7-116081 1995-05-15
JP11608195 1995-05-15
JP25563695A JP2813971B2 (en) 1995-05-15 1995-09-06 State reproduction method

Publications (2)

Publication Number Publication Date
JPH0935089A JPH0935089A (en) 1997-02-07
JP2813971B2 true JP2813971B2 (en) 1998-10-22

Family

ID=26454459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25563695A Expired - Lifetime JP2813971B2 (en) 1995-05-15 1995-09-06 State reproduction method

Country Status (1)

Country Link
JP (1) JP2813971B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100360487B1 (en) * 2000-02-28 2002-11-13 삼성전자 주식회사 Texture mapping method and apparatus for 2D facial image to 3D facial model
KR100523742B1 (en) * 2002-03-26 2005-10-26 김소운 System and Method for 3-Dimension Simulation of Glasses

Also Published As

Publication number Publication date
JPH0935089A (en) 1997-02-07

Similar Documents

Publication Publication Date Title
KR101238608B1 (en) A system and method for 3D space-dimension based image processing
JP3512992B2 (en) Image processing apparatus and image processing method
TWI709107B (en) Image feature extraction method and saliency prediction method including the same
US6396491B2 (en) Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
JP5093053B2 (en) Electronic camera
JP3524147B2 (en) 3D image display device
JPH06510893A (en) Video merging using pattern key insertion
CN103443826B (en) mesh animation
JP2006249618A (en) Virtual try-on device
US20220108422A1 (en) Facial Model Mapping with a Neural Network Trained on Varying Levels of Detail of Facial Scans
WO2020184174A1 (en) Image processing device and image processing method
JPH05303629A (en) Method for synthesizing shape
JP2802725B2 (en) Facial expression reproducing device and method of calculating matrix used for facial expression reproduction
JP2813971B2 (en) State reproduction method
JP2010152529A (en) Vertex texture mapping device and program
JP2670663B2 (en) Real-time image recognition and synthesis device
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
CN109309827A (en) More people's apparatus for real time tracking and method for 360 ° of suspension light field three-dimensional display systems
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
JP2627487B2 (en) Real-time image recognition and synthesis device
JPH07175930A (en) Image processor
JP2023026244A (en) Image generation apparatus, image generation method, and program
CN117474749A (en) 2.5-dimensional map projection method
JPH0969170A (en) Method and device for reconstituting shape and surface pattern of three-dimensional scene

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980616