JP2986441B2 - Generating 3D face models with arbitrary facial expressions - Google Patents

Generating 3D face models with arbitrary facial expressions

Info

Publication number
JP2986441B2
JP2986441B2 JP1427098A JP1427098A JP2986441B2 JP 2986441 B2 JP2986441 B2 JP 2986441B2 JP 1427098 A JP1427098 A JP 1427098A JP 1427098 A JP1427098 A JP 1427098A JP 2986441 B2 JP2986441 B2 JP 2986441B2
Authority
JP
Japan
Prior art keywords
expression
image
dimensional
pseudo
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1427098A
Other languages
Japanese (ja)
Other versions
JPH11213132A (en
Inventor
勝宣 磯野
正友 張
茂 赤松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Ningen Joho Tsushin Kenkyusho Kk
Original Assignee
Ei Tei Aaru Ningen Joho Tsushin Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Ningen Joho Tsushin Kenkyusho Kk filed Critical Ei Tei Aaru Ningen Joho Tsushin Kenkyusho Kk
Priority to JP1427098A priority Critical patent/JP2986441B2/en
Publication of JPH11213132A publication Critical patent/JPH11213132A/en
Application granted granted Critical
Publication of JP2986441B2 publication Critical patent/JP2986441B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は任意表情を持つ3
次元顔モデルの生成方法に関し、特に、ビデオ会議シス
テムやバーチャルリアリティやVRMLなどのコンテン
ツなどに利用でき、復元された3次元ユークリッド構造
は完全には正確でないが必ずしも正確な表情を必要とし
ないアプリケーションに有効な任意表情を持つ3次元顔
モデルの生成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention
Regarding the method of generating a three-dimensional face model, in particular, it can be used for video conferencing systems, contents such as virtual reality and VRML, etc., and the restored three-dimensional Euclidean structure is not completely accurate but is not necessarily required for an application that does not necessarily require an accurate expression. The present invention relates to a method for generating a three-dimensional face model having an effective arbitrary expression.

【0002】[0002]

【従来の技術】少ない実画像から任意方向,任意表情の
顔画像を生成する技術としてたとえば向川康博,中村裕
一,太田友一,“複数の顔画像の組合せによる任意方向
・任意表情の顔画像の生成,”電子情報通信学会論文誌
(D−II),Vol.J80−D−II,No.6,
pp.1555−1562,1997(文献1)あるい
はD. Beymer, A. Shashua, and T. Poggio, “Example
Based Image Analysis and Synthesis, ”A. I. Memo N
o. 1431, MIT AI Lab., 1993(文献2)などがある。
2. Description of the Related Art Yasuhiro Mukaikawa, Yuichi Nakamura, Yuichi Ota, etc., for generating a face image of any direction and any facial expression from a small number of real images, "Face images of any direction and any facial expression by combining multiple face images" , "IEICE Transactions (D-II), Vol. J80-D-II, No. 6,
pp. 1555-1562, 1997 (Reference 1) or D. Beymer, A. Shashua, and T. Poggio, “Example
Based Image Analysis and Synthesis, ”AI Memo N
o. 1431, MIT AI Lab., 1993 (Reference 2).

【0003】また、3次元物理モデルを用いて任意表情
の生成を行なっているものとしては、D. Terzopoulos a
nd K. Waters, “Analysis and synthesis of facial i
magesequences using physical and anatomical model
s,”IEEE Transactions on Pattern Analysis and Mach
ine Intelligence, VOL.15, No.6, pp. 569-579, June
1993(文献3)またはY. Lee, D.Terzopoulos, and K.
Waters, “Realisticmodeling for facial animatio
n,”In Computer Graphics, Annual ConferenceSeries,
pp. 55-62. ACM SIGGRAHP, 1995 (文献4)などがあ
る。
[0003] In addition, D. Terzopoulos a
nd K. Waters, “Analysis and synthesis of facial i
magesequences using physical and anatomical model
s, ”IEEE Transactions on Pattern Analysis and Mach
ine Intelligence, VOL.15, No.6, pp. 569-579, June
1993 (Reference 3) or Y. Lee, D. Terzopoulos, and K.
Waters, “Realisticmodeling for facial animatio
n, ”In Computer Graphics, Annual ConferenceSeries,
pp. 55-62. ACM SIGGRAHP, 1995 (Reference 4).

【0004】さらに、同一人物,同一表情で顔の向きの
異なる2枚の実画像から3次元モデルを復元するアプロ
ーチは、Z. Zhang, K. Isono, and S. Akamatsu,“Eucl
idean structure from uncalibrated images using fuz
zy domain knowledge: Application to facial images
systhesis,” In Proccedings of the InternationalCo
nference on Computer Vision(ICCV '98), pp. 784-7
89 India, January 1998 (文献5)において紹介され
ている。
Further, an approach for restoring a three-dimensional model from two real images having the same person and the same facial expression but different face directions is described in Z. Zhang, K. Isono, and S. Akamatsu, “Eucl.
idean structure from uncalibrated images using fuz
zy domain knowledge: Application to facial images
systhesis, ”In Proccedings of the InternationalCo
nference on Computer Vision (ICCV '98), pp. 784-7
89 India, January 1998 (Reference 5).

【0005】[0005]

【発明が解決しようとする課題】上述の文献1,文献2
の方法の最終目的は画像生成であり、3次元ユークリッ
ド構造の復元ではない。しかし、バーチャルリアリティ
などでは、画像だけでなく、3次元モデルを必要とする
場合が多くある。また、文献1では、顔の向きの指定の
ために参照画像を用いている。このため、いろいろな方
向の画像が欲しいときには、それに応じた参照画像を複
数枚用意する必要がある。
The above-mentioned references 1 and 2
The end purpose of the method is image generation, not reconstruction of the three-dimensional Euclidean structure. However, virtual reality and the like often require not only an image but also a three-dimensional model. In Reference 1, a reference image is used for designating a face direction. For this reason, when images in various directions are desired, it is necessary to prepare a plurality of reference images corresponding to the images.

【0006】一方、文献3,文献4の方法は、3次元物
理モデルを用いて任意の表情の生成を行なっている。し
かし、この方法では、基本となる3次元物理モデルが必
要であり、それらを取得するためには、レーザ光などを
利用した特殊な計測装置が必要となることや、筋肉配置
などの細かな知識が必要となってくる。さらに、表情パ
ラメータの調節は微妙かつ困難であり、顔画像を自然な
ものとすることが難しく、その計算量も膨大になってし
まうという問題点もある。
On the other hand, in the methods of References 3 and 4, arbitrary facial expressions are generated using a three-dimensional physical model. However, in this method, a basic three-dimensional physical model is required, and in order to obtain them, a special measuring device using a laser beam or the like is required. Is required. Furthermore, there is a problem that the adjustment of the facial expression parameter is delicate and difficult, it is difficult to make the face image natural, and the amount of calculation becomes enormous.

【0007】それゆえに、この発明の主たる目的は、物
理モデルなどの構築を行なうことなく、少ない実画像か
らより自然な任意表情を持った3次元モデルを生成する
生成方法を提供することである。
[0007] Therefore, a main object of the present invention is to provide a generation method for generating a three-dimensional model having a more natural arbitrary expression from a small number of real images without constructing a physical model or the like.

【0008】[0008]

【課題を解決するための手段】この発明は同一人物,同
一表情で顔の向きの異なる2枚の入力画像から表情に関
する知識を用いて任意表情を持つ表情3次元ユークリッ
ド構造を生成する生成方法であって、第1の表情と第2
の表情のペアからなる表情顔サンプルからそれぞれの画
像上に特徴点を指定し、第2の表情の特徴点座標から第
1の表情の特徴点座標を引くことにより表情差分ベクト
ルを求める第1のステップと、表情差分ベクトルを入力
画像および入力画像から復元された表情3次元ユークリ
ッド構造に加えることによる擬似表情画像と擬似表情ユ
ークリッド構造を生成する第2のステップと、表情3次
元ユークリッド構造上の特徴点を画像上に投影した点の
座標は、表情差分ベクトルを用いて得られた擬似表情画
像上の特徴点の座標に等しいという拘束条件と、表情
次元ユークリッド構造の特徴点座標は、擬似表情ユーク
リッド構造に等しいという拘束条件をマハラノビス距離
の二乗で定式化する第3のステップと、これらの拘束条
件を用いて非線形最小自乗法を用いて表情3次元形状の
生成を行なう第4のステップを含む。
SUMMARY OF THE INVENTION The present invention relates to a generation method for generating a three-dimensional Euclidean expression having an arbitrary expression from two input images having the same person and the same expression but different face directions by using knowledge about the expression. There, the first expression and the second
First, a feature point is designated on each image from a facial expression sample composed of a pair of facial expressions, and a facial expression difference vector is obtained by subtracting the characteristic point coordinates of the first facial expression from the characteristic point coordinates of the second facial expression. Step, a second step of generating a pseudo-expression image and a pseudo-expression Euclidean structure by adding the expression difference vector to the input image and the expression three-dimensional Euclidean structure restored from the input image, and features on the expression three-dimensional Euclidean structure The constraint that the coordinates of the point projected on the image are equal to the coordinates of the feature point on the pseudo-expression image obtained using the expression difference vector, and the expression 3
A third step of formulating a constraint condition that the feature point coordinates of the two- dimensional Euclidean structure are equal to the pseudo-expression Euclidean structure by the square of the Mahalanobis distance, and a three-dimensional expression using the nonlinear least squares method using these constraint conditions And a fourth step of generating a shape.

【0009】[0009]

【発明の実施の形態】図1はこの発明の一実施形態の全
体の構成を示すブロック図であり、図2は図1の表情差
分データ抽出部のブロック図であり、図3は入力実画像
を示す図であり、図4は特徴点を示す画像である。
FIG. 1 is a block diagram showing an entire configuration of an embodiment of the present invention, FIG. 2 is a block diagram of an expression difference data extracting unit in FIG. 1, and FIG. 3 is an input actual image. FIG. 4 is an image showing feature points.

【0010】次に、図1〜図4を参照して、この発明の
一実施形態について説明する。図1において、入力画像
1はたとえば図3に示すような同一人物(人物P),同
一表情(表情A)で、顔の向きの異なる2枚の無校正実
画像が特徴点抽出部10に入力される。このとき、人物
Pの別の表情(表情B)の画像は与えられていない。
Next, an embodiment of the present invention will be described with reference to FIGS. In FIG. 1, an input image 1 includes two uncorrected real images having the same person (person P) and the same facial expression (facial expression A) as shown in FIG. Is done. At this time, an image of another expression (expression B) of the person P is not given.

【0011】特徴点抽出部10は、入力画像の特徴点の
抽出を汎用グラフィックスワークステーションの対話処
理機能を利用して行なう。すなわち、表示された入力画
像から目視で特徴点を検出し、マウス操作によって入力
画像表面上を移動するカーソルを用いて特徴点の位置を
特定する。今回、図4に示すように、83点の特徴点を
用いた。
The feature point extracting unit 10 extracts feature points of an input image using an interactive processing function of a general-purpose graphics workstation. That is, a feature point is visually detected from the displayed input image, and the position of the feature point is specified using a cursor that moves on the surface of the input image by a mouse operation. This time, as shown in FIG. 4, 83 feature points were used.

【0012】表情Aの3次元ユークリッド構造復元処理
部20は、カメラモデルをアフィンカメラで近似するこ
とにより、前述の文献5の手法を用いて表情Aのユーク
リッド構造を復元する。表情A(通常は中立表情)から
表情B(笑顔など)への表情変化を考えたとき、顔の特
徴点が与えられているとすると、表情変化は表情Aの特
徴点と、その特徴点に対応する表情Bの特徴点の3次元
座標および3次元差分ベクトルと2次元差分ベクトルを
求める画像座標における差分ベクトルとして与えること
ができる。人物Pの表情Bの画像は与えられていないの
で、人物Pの表情変化時の差分ベクトルを入力画像から
直接得ることはできない。そこで、表情顔サンプルを用
意し、その表情顔サンプルを用いて差分ベクトルの取得
を行なう。
The three-dimensional Euclidean structure restoring unit 20 for the expression A restores the Euclidean structure of the expression A by approximating the camera model with an affine camera, using the method described in the aforementioned reference 5. Considering a change in facial expression from an expression A (usually a neutral expression) to an expression B (smile, etc.), assuming that a facial feature point is given, the facial expression change is based on the characteristic point of the facial expression A and its characteristic point. The three-dimensional coordinates of the feature points of the corresponding facial expression B and the three-dimensional difference vector and the two-dimensional difference vector can be given as a difference vector in the image coordinates to be obtained. Since the image of the expression B of the person P is not given, the difference vector when the expression of the person P changes can not be directly obtained from the input image. Therefore, an expression face sample is prepared, and a difference vector is obtained using the expression face sample.

【0013】次に、図2を参照して差分データの取得動
作について説明する。顔サンプル301は多人数分の表
情Aと表情Bのペアからなり、顔の向きはすべて正面向
きである。特徴点抽出部302は、顔サンプルの特徴点
の抽出を汎用グラフィックスワークステーションの対話
処理機能を利用して行なう。すなわち、表示された入力
画像から目視で特徴点を検出し、マウス操作によって入
力画像表面上を移動するカーソルを用いて特徴点の位置
を特定する。この際、特徴点としては、入力画像上での
特徴点と対応する点を指定する。
Next, the operation of acquiring difference data will be described with reference to FIG. The face sample 301 is composed of a pair of facial expressions A and B for a large number of people, and the faces are all facing forward. The feature point extracting unit 302 extracts feature points of the face sample using the interactive processing function of the general-purpose graphics workstation. That is, a feature point is visually detected from the displayed input image, and the position of the feature point is specified using a cursor that moves on the surface of the input image by a mouse operation. At this time, a point corresponding to the feature point on the input image is designated as the feature point.

【0014】差分ベクトル算出部303は、それぞれの
顔サンプルのペアにおいて、表情Aと表情Bの差分ベク
トルを求め、空間における差分ベクトルと、画像上にお
ける差分ベクトルの2種類の差分ベクトルを用いる。
The difference vector calculation unit 303 calculates a difference vector between the expression A and the expression B in each pair of face samples, and uses two types of difference vectors, a difference vector in space and a difference vector on the image.

【0015】3次元差分ベクトルは、複数人の表情Aと
表情Bの3次元データのペアを用意し、表情Aと表情B
の各特徴点における差分ベクトルを計算する。同様にし
て、画像差分ベクトルは、表情Aと表情Bの正面画像の
ペアからなる複数の画像サンプルから表情A画像と表情
B画像の差分ベクトルを求める。
As the three-dimensional difference vector, a pair of three-dimensional data of the expression A and the expression B of a plurality of persons is prepared, and the expression A and the expression B are prepared.
The difference vector at each feature point is calculated. Similarly, as the image difference vector, a difference vector between the expression A image and the expression B image is obtained from a plurality of image samples composed of a pair of the front images of the expression A and the expression B.

【0016】表情差分データ算出部304は、前述の差
分ベクトルはガウス分布に従うものとし、3次元平均差
分ベクトルδMi ,共分散行列ΛMiを求める。同様にし
て、画像平均差分ベクトルδmi および共分散行列Λmi
を求める。
The expression difference data calculation unit 304 determines that the above-mentioned difference vector follows a Gaussian distribution and obtains a three-dimensional average difference vector δM i and a covariance matrix Λ Mi. Similarly, the image average difference vectors .delta.m i and covariance matrix lambda mi
Ask for.

【0017】なお、今回は3次元データとして3次元レ
ンジデータを用いたが、異なるデータから取得しても問
題はない。また、サンプルで用いる3次元データおよび
画像データは大きさと向きに関して正規化が行なわれて
いるものとする。
Although the three-dimensional range data is used this time as the three-dimensional data, there is no problem if the data is obtained from different data. It is assumed that the three-dimensional data and the image data used in the sample have been normalized with respect to the size and the orientation.

【0018】図1の擬似表情Bデータ生成処理部40
は、入力画像と表情差分ベクトルとを用いて、擬似表情
データの生成を行なう。人物Pの表情Bの擬似画像は上
述の平均差分ベクトルδmi を人物Pの画像(表情A)
に加えることにより得ることができる。上述のδm
i は、正面画像を用いて得られたものであるため、人物
Pの画像も正面画像である必要がある。
The pseudo-expression B data generation processing unit 40 shown in FIG.
Generates pseudo-expression data using the input image and the expression difference vector. Pseudo image image of the average difference vector .delta.m i the person P above the person P expression B (expression A)
Can be obtained by adding Δm described above
Since i is obtained using the front image, the image of the person P also needs to be the front image.

【0019】入力画像の1枚として、2枚の入力画像の
うちの1枚の正面画像が与えられている場合は、与えら
れた正面画像を用いればよいが、もしも入力画像として
正面画像が与えられていない場合は、2枚の入力画像か
ら文献5の方法を用いて復元されたユークリッド構造を
用いて正面画像を得ることができる。また、δmi は多
数の画像サンプルの平均であるため、データが平均化さ
れ、表情変化が比較的小さく出てしまうおそれがある。
さらに、画像サンプルと人物Aの正面画像の大きさの違
いについても考慮する必要がある。そこで、δmi に表
情強度に関する重みωe と、画像の大きさに関する重み
ωs を掛けた値を正面画像に加えるものとする。ここ
で、ωe は任意に決定するものとし、ωs は、顔サンプ
ル画像の両目尻を結ぶ直線と口の両端の中点の距離d
^,人物Pの正面画像の両目尻を結ぶ直線と口の両端の
中点の距離をdとすると、 ωs =d/d^ となる。mV i を擬似画像上の特徴点座標,mA i を人
物Pの正面画像(表情A)の特徴点座標とすると、mV
i は次式で表わすことができる。
When one front image of two input images is given as one of the input images, the given front image may be used, but if the front image is given as the input image, Otherwise, a front image can be obtained from the two input images using the Euclidean structure restored using the method of Reference 5. Further, since .delta.m i is the average of a number of image samples, data are averaged, there is a possibility that expression change will come out relatively small.
Furthermore, it is necessary to consider the difference between the size of the image sample and the size of the front image of the person A. Therefore, it is assumed that addition of the weight omega e regarding expression strength .delta.m i, the value obtained by multiplying the weight omega s of the size of the image in the front image. Here, ω e is arbitrarily determined, and ω s is a distance d between a straight line connecting the outer corners of the eyes of the face sample image and the midpoint of both ends of the mouth.
^, assuming that the distance between the straight line connecting the corners of both eyes of the front image of the person P and the midpoint of both ends of the mouth is d, ω s = d / d ^. Assuming that m V i is the feature point coordinates on the pseudo image and m A i is the feature point coordinates of the front image (expression A) of the person P, m V
i can be represented by the following equation.

【0020】 mV i =mA i +ωe ωs δmi , …(1) 以上により得られた擬似画像上での特徴点の座標を用い
て擬似画像の生成を次のようにして行なう。初めに、入
力画像を特徴点を頂点とする三角パッチに分割する。次
に、それぞれの特徴点を第(1)式で求めた位置に移動
し、変形された三角形パッチに対して入力画像のテクス
チャをマッピングする。これにより、人物Pの擬似表情
B画像を得ることができる。
[0020] m V i = m A i + ω e ω s δm i, ... (1) using the coordinates of the feature points on the obtained pseudo-image by the above for generating a pseudo-image in the following manner. First, the input image is divided into triangular patches having feature points as vertices. Next, each feature point is moved to the position determined by the equation (1), and the texture of the input image is mapped to the deformed triangular patch. Thereby, a pseudo-expression B image of the person P can be obtained.

【0021】同様にして、文献5の手法を用いて得られ
た人物Pのユークリッド構造MA iと3次元表情差分ベ
クトルδMi を用いて、擬似表ユークリッド構造M
V iを得ることができる。
[0021] In the same manner, using the Euclidean structure M A i and the three-dimensional facial expression difference vector .DELTA.M i of the person P obtained using the technique of Document 5, pseudo Nihyo information B Euclidean structure M
V i can be obtained.

【0022】 MV i =MA i +ωE e ωE s δMi …(2) ここで,ωE e ,ωE s は、それぞれ3次元構造におけ
る表情強度と顔の大きさに関する重み係数である。
[0022] In M V i = M A i + ω E e ω E s δM i ... (2) where, ω E e, ω E s is a weighting factor related to the size of the expression intensity and the face in the three-dimensional structure, respectively is there.

【0023】なお、擬似表情データの生成を行なわず
に、別の人物の表情B画像および表情B3次元構造を直
接用いることも可能である。しかし、別の人物のデータ
を用いた場合、生成結果は不自然なものとなってしま
う。これは、顔の形状は人によつて異なるため、形状に
よる影響が生成画像に現われてしまうためと考えられ
る。そのため、今回は平均差分データを用いて擬似表情
データの生成を行ない、個人形状による影響を少なくす
る。これにより、より自然な表情を持った3次元ユーク
リッド構造の復元を行なうことができる。
It is also possible to directly use a facial expression B image and facial expression B three-dimensional structure of another person without generating pseudo facial expression data. However, when data of another person is used, the generation result becomes unnatural. This is probably because the shape of the face varies from person to person, and the influence of the shape appears in the generated image. Therefore, in this case, the pseudo-expression data is generated using the average difference data to reduce the influence of the personal shape. Thus, a three-dimensional Euclidean structure having a more natural expression can be restored.

【0024】表情3次元ユークリッド構造生成処理部
50は、画像と3次元構造の幾何学的関係から、3次元
構造画像上に投影したものは画像と等しくならなければ
ならない。しかし、上述の方法で得られた擬似画像は、
顔画像サンプルから得られた差分データを用いており、
擬似3次元構造は3次元レンジデータから得られた差分
データを用いているため、これらのデータは独立してお
り、幾何学的関係は正しくない。そこで、画像と3次元
構造との幾何学的関係を満足させるため、次のような拘
束条件を与える。
Expression B In the three-dimensional Euclidean structure generation processing unit 50, the projection on the three-dimensional structure image must be equal to the image from the geometric relationship between the image and the three-dimensional structure. However, the pseudo image obtained by the above method is
Using difference data obtained from the face image sample,
Since the pseudo three-dimensional structure uses difference data obtained from three-dimensional range data, these data are independent and the geometric relationship is incorrect. Therefore, in order to satisfy the geometric relationship between the image and the three-dimensional structure, the following constraint condition is given.

【0025】(1) 表情B3次元ユークリッド構造
特徴点を画像上に投影した点の座標は、擬似表情画像上
の特徴点の座標に等しい。
(1) Expression B The coordinates of the point at which the characteristic points of the three-dimensional Euclidean structure are projected on the image are equal to the coordinates of the characteristic points on the pseudo-expression image.

【0026】(2) 表情B3次元ユークリッド構造
特徴点座標は擬似表情Bユークリッド構造に等しい。
[0026] (2) feature point coordinates expressions B3 dimensional Euclidean structure is equal to the pseudo-expression B Euclidean structure.

【0027】擬似画像の特徴点をmV i ,それらの点の
ユークリッド空間における座標をM B i とすると、もし
擬似画像が人物Pの正しい表情画像を表わしているとす
ると、MB i の画像面への投影座標 m′i =GMB i +t は、mV i (共分散行列Αmi)に等しくなるはずであ
る。この拘束条件はマハラノビス距離の二乗で表わすこ
とができる。
The feature point of the pseudo image is mV i, Of those points
Let the coordinates in Euclidean space be M B iThen, if
Assume that the pseudo image represents a correct expression image of the person P.
Then, MB iProjection coordinates m ′ on the image planei= GMB i+ T is mV i(Covariance matrix Αmi)
You. This constraint can be expressed as the square of the Mahalanobis distance.
Can be.

【0028】 d2 m =(mV i −m′i T Λ-1 mi(mV i −m′i ) …(3) 擬似表情Bユークリッド構造の特徴点をMV i ,求める
表情B3次元ユークリッド構造の特徴点の座標をMB i
とする。擬似表情Bユークリッド構造が人物Pの正しい
表情モデルを表わしているとすると、MB i はM
v i (共分散行列ΑMi)に等しくなるはずである。この
拘束条件はマハラノビス距離の二乗で表わすことができ
る。
[0028] d 2 m = (m V i -m 'i) T Λ -1 mi (m V i -m' i) ... (3) pseudo-expression B Euclidean structure feature points M V i of obtaining expression B The coordinates of the feature points of the three-dimensional Euclidean structure are expressed as M B i
And When the pseudo expression B Euclidean structure is to represent the correct expression model of the person P, M B i is M
It should be equal to v i (covariance matrix Α Mi ). This constraint condition can be expressed by the square of the Mahalanobis distance.

【0029】 d2 M =(MV i −MB i T Λ-1 Mi(MV i −MB i ) …(4) 上述の方法を用いて、擬似表情Bデータとしての擬似画
像と擬似表情ユークリッド構造の生成を行ない、d2 m
とd2 M の総和が最小になるように、非線形最小自乗法
により、人物P・表情Bにおける特徴点の3次元ユーク
リッド座標MB i を求める。
[0029] d 2 M = (M V i -M B i) T Λ -1 Mi (M V i -M B i) ... (4) using the methods described above, the pseudo-image as a pseudo expression B data
Generate an image and a pseudo-expression Euclidean structure to obtain d 2 m
And so that the sum of d 2 M is minimized by nonlinear least squares method, obtaining the three-dimensional Euclidean coordinates M B i of the feature point in the person P · expression B.

【0030】 J=Σd2 m +Σd2 M →min. …(5) 得られたMB i から三角パッチを生成し、基本画像から
得られるテクスチャをマッピングすることにより、人物
P・表情Bの表情B3次元ユークリッド構造を得ること
ができる。
J = Σd 2 m + Σd 2 M → min. ... (5) generates a triangular patch from the obtained M B i, by mapping the texture obtained from the basic image, it is possible to obtain the expression B 3-dimensional Euclidean structure of the person P · expression B.

【0031】図5はこの発明の一実施形態によって得ら
れた表情画像の一例を示す図である。この図5では、表
情強度に関する重み係数は、ωe =ωE s =1.5とし
た。開口時の口内部のテクスチャは、基本画像から得る
ことはできないので、画像サンプル内の任意の幸福(開
口)画像より得られたものを用いた。
FIG. 5 is a view showing an example of a facial expression image obtained by one embodiment of the present invention. In FIG. 5, the weighting factor for the expression intensity is ω e = ω E s = 1.5. Since the texture inside the mouth at the time of opening cannot be obtained from the basic image, the texture obtained from any happiness (opening) image in the image sample was used.

【0032】[0032]

【発明の効果】以上のように、この発明によれば、同一
人物,同一表情で顔の向きの異なる2枚の入力画像と、
表情のデータから任意表情を持つ顔の3次元構造を生成
する方法において、表情データは顔サンプル画像と3次
元顔サンプルデータから統計分析により得られ、得られ
た表情データから擬似表情画像,3次元擬似表情構造を
生成し、画像と3次元構造の幾何学的関係から得られる
拘束条件をマハラノビス距離最小で与え、非線形最小自
乗法により表情3次元構造を生成するようにしたので、
2枚の画像が与えられれば、そこから任意の表情を持っ
た3次元形状の復元を行なうことができる。しかも、一
旦3次元形状が復元できれば、任意の方向の画像も容易
に作成することができる。さらに、複数の参照画像や3
次元物理モデルを用いる必要がなくなり、バーチャルリ
アリティなど3次元モデルを必要とするアプリケーショ
ンに応用できる。さらに、いろいろな表情を生成するこ
とにより、顔表情アニメーションなども簡単に作成する
ことができる。
As described above, according to the present invention, two input images having the same person and the same facial expression but different face directions are provided.
In a method of generating a three-dimensional structure of a face having an arbitrary expression from expression data, the expression data is obtained by statistical analysis from a face sample image and three-dimensional face sample data, and a pseudo-expression image and a three-dimensional image are obtained from the obtained expression data. Since a pseudo-facial expression structure was generated, and a constraint obtained from the geometrical relationship between the image and the three-dimensional structure was given with a minimum Mahalanobis distance, the three-dimensional expression structure was generated by a nonlinear least squares method.
Given two images, a three-dimensional shape having an arbitrary expression can be restored from the two images. Moreover, once the three-dimensional shape can be restored, an image in any direction can be easily created. In addition, multiple reference images and 3
There is no need to use a three-dimensional physical model, and the present invention can be applied to applications that require a three-dimensional model such as virtual reality. Further, by generating various facial expressions, a facial expression animation or the like can be easily created.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態の全体の構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing an overall configuration of an embodiment of the present invention.

【図2】図1に示した表情差分データ抽出部の具体的な
ブロック図である。
FIG. 2 is a specific block diagram of an expression difference data extracting unit shown in FIG.

【図3】入力画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an input image.

【図4】入力画像に特徴点を示した図である。FIG. 4 is a diagram showing feature points in an input image.

【図5】この発明の一実施形態によって生成された画像
の例を示す図である。
FIG. 5 is a diagram showing an example of an image generated according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 入力画像 2 表情B3次元ユークリッド構造 10 特徴点抽出部 20 表情A3次元ユークリッド構造復元処理部 30 表情差分データ抽出部 40 擬似表情Bデータ生成処理部 50 表情B3次元ユークリッド構造生成処理部 301 顔サンプル 302 特徴点抽出部 303 差分ベクトル算出部 304 表情差分データ Reference Signs List 1 input image 2 facial expression B three-dimensional Euclidean structure 10 feature point extraction unit 20 facial expression A three-dimensional Euclidean structure restoration processing unit 30 facial expression difference data extraction unit 40 pseudo facial expression B data generation processing unit 50 facial expression B three-dimensional Euclidean structure generation processing unit 301 face sample 302 Feature point extraction unit 303 Difference vector calculation unit 304 Expression difference data

───────────────────────────────────────────────────── フロントページの続き (72)発明者 赤松 茂 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール人 間情報通信研究所内 (56)参考文献 特開 平9−62865(JP,A) 特開 平8−63503(JP,A) 小松功児,”顔面像からの顔の3次元 形状の推定とその表情の変更”,電子情 報通信学会論文誌(D−▲II▼), 1990年5月,第73巻,第5号,p.707 −716 (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 G06T 7/00 - 7/60 G06T 15/00 G06T 17/00 - 17/50 ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Shigeru Akamatsu 5th Sanraya, Daiya, Seika-cho, Soraku-gun, Kyoto Pref. 62865 (JP, A) JP-A-8-63503 (JP, A) Kouji Komatsu, "Estimation of three-dimensional shape of face from face image and change of facial expression", Transactions of IEICE (D- ▲ II ▼), May 1990, Vol. 73, No. 5, p. 707 -716 (58) Field surveyed (Int.Cl. 6 , DB name) G06T 1/00 G06T 7/00-7/60 G06T 15/00 G06T 17/00-17/50

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 同一人物,同一表情で顔の向きの異なる
2枚の入力画像から表情に関する知識を用いて任意表情
を持つ表情3次元ユークリッド構造を生成する生成方法
であって、 第1の表情と第2の表情のペアからなる表情顔サンプル
からそれぞれの画像上に特徴点を指定し、第2の表情の
特徴点座標から第1の表情の特徴点座標を引くことによ
り表情差分ベクトルを求める第1のステップ、 前記表情差分ベクトルを入力画像および入力画像から復
元された表情3次元ユークリッド構造に加えることによ
る擬似表情画像と擬似表情ユークリッド構造を生成する
第2のステップ、 前記表情3次元ユークリッド構造上の特徴点を画像上に
投影した点の座標は、表情差分ベクトルを用いて得られ
た擬似表情画像上の特徴点の座標に等しいという拘束条
件と、表情3次元ユークリッド構造の特徴点座標は、表
情差分ベクトルを用いて得られた擬似表情ユークリッド
構造に等しいという拘束条件をマハラノビス距離の二乗
で定式化する第3のステップ、および前記拘束条件を用
いて非線形最小自乗法を用いて表情3次元ユークリッド
構造の生成を行なう第4のステップを備えた、任意表情
を持つ3次元顔モデルの生成方法。
1. A generation method for generating a three-dimensional Euclidean expression structure having an arbitrary expression from two input images of the same person and the same expression but having different face directions by using knowledge about the expression, the first expression comprising: A feature point is designated on each image from a facial expression sample composed of a pair of a facial expression and a second facial expression, and a facial expression difference vector is obtained by subtracting the characteristic point coordinate of the first facial expression from the characteristic point coordinate of the second facial expression. A first step, a second step of generating a pseudo-expression image and a pseudo-expression Euclidean structure by adding the expression difference vector to the input image and the expression three-dimensional Euclidean structure restored from the input image, the second step; The constraint that the coordinates of the point where the above feature point is projected on the image is equal to the coordinates of the feature point on the pseudo-expression image obtained using the expression difference vector A third step of formulating the condition and the constraint that the feature point coordinates of the expression three-dimensional Euclidean structure are equal to the pseudo-expression Euclidean structure obtained using the expression difference vector by the square of the Mahalanobis distance; and A method for generating a three-dimensional face model having an arbitrary expression, comprising a fourth step of generating an expression three-dimensional Euclidean structure using a nonlinear least squares method.
JP1427098A 1998-01-27 1998-01-27 Generating 3D face models with arbitrary facial expressions Expired - Fee Related JP2986441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1427098A JP2986441B2 (en) 1998-01-27 1998-01-27 Generating 3D face models with arbitrary facial expressions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1427098A JP2986441B2 (en) 1998-01-27 1998-01-27 Generating 3D face models with arbitrary facial expressions

Publications (2)

Publication Number Publication Date
JPH11213132A JPH11213132A (en) 1999-08-06
JP2986441B2 true JP2986441B2 (en) 1999-12-06

Family

ID=11856409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1427098A Expired - Fee Related JP2986441B2 (en) 1998-01-27 1998-01-27 Generating 3D face models with arbitrary facial expressions

Country Status (1)

Country Link
JP (1) JP2986441B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473804A (en) * 2013-08-29 2013-12-25 小米科技有限责任公司 Image processing method, device and terminal equipment

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100366210B1 (en) * 2000-01-24 2002-12-31 한국과학기술원 Human Head/Face Modeller Generation Method
KR100469086B1 (en) * 2000-05-25 2005-01-31 정필훈 Device for making models of 3 dimensional bone tissue or soft tissue and application method and model thereof
US6950104B1 (en) * 2000-08-30 2005-09-27 Microsoft Corporation Methods and systems for animating facial features, and methods and systems for expression transformation
KR20020049382A (en) * 2000-12-19 2002-06-26 이형민 System for generating face and method for generating using the same
KR20010044393A (en) * 2001-02-16 2001-06-05 김영익 Pass and security method using human face information
CN104680574A (en) * 2013-11-27 2015-06-03 苏州蜗牛数字科技股份有限公司 Method for automatically generating 3D face according to photo
CN104123562A (en) * 2014-07-10 2014-10-29 华东师范大学 Human body face expression identification method and device based on binocular vision
US20200090392A1 (en) * 2018-09-19 2020-03-19 XRSpace CO., LTD. Method of Facial Expression Generation with Data Fusion
CN110941332A (en) * 2019-11-06 2020-03-31 北京百度网讯科技有限公司 Expression driving method and device, electronic equipment and storage medium
CN113099150B (en) * 2020-01-08 2022-12-02 华为技术有限公司 Image processing method, device and system
KR102510881B1 (en) * 2020-07-01 2023-03-16 주식회사 딥브레인에이아이 Method and apparatus for learning key point of based neural network
CN113408434B (en) * 2021-06-22 2023-12-05 华侨大学 Intelligent monitoring expression recognition method, device, equipment and storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小松功児,"顔面像からの顔の3次元形状の推定とその表情の変更",電子情報通信学会論文誌(D−▲II▼),1990年5月,第73巻,第5号,p.707−716

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473804A (en) * 2013-08-29 2013-12-25 小米科技有限责任公司 Image processing method, device and terminal equipment

Also Published As

Publication number Publication date
JPH11213132A (en) 1999-08-06

Similar Documents

Publication Publication Date Title
US11189094B2 (en) 3D object reconstruction using photometric mesh representation
Chen et al. Self-supervised learning of detailed 3d face reconstruction
Starck et al. Model-based multiple view reconstruction of people
Johnson et al. Registration and integration of textured 3D data
US7174039B2 (en) System and method for embodying virtual reality
KR100721536B1 (en) Method for restoring 3-dimension image using silhouette information in 2-dimension image
WO2022001236A1 (en) Three-dimensional model generation method and apparatus, and computer device and storage medium
US20020041285A1 (en) Non-linear morphing of faces and their dynamics
JP2986441B2 (en) Generating 3D face models with arbitrary facial expressions
Fua et al. Using 3-dimensional meshes to combine image-based and geometry-based constraints
Lee et al. A SfM-based 3D face reconstruction method robust to self-occlusion by using a shape conversion matrix
CN108564619B (en) Realistic three-dimensional face reconstruction method based on two photos
CN112102480B (en) Image data processing method, apparatus, device and medium
Pighin et al. Realistic facial animation using image-based 3D morphing
JPH11504452A (en) Apparatus and method for reproducing and handling a three-dimensional object based on a two-dimensional projection
CN114742956A (en) Model processing method, device, equipment and computer readable storage medium
Hilton Scene modelling from sparse 3D data
Kang et al. Appearance-based structure from motion using linear classes of 3-d models
JP2832463B2 (en) 3D model reconstruction method and display method
JP3642923B2 (en) Video generation processing apparatus and structured data creation apparatus for creating structured data used in the apparatus
Afzal et al. Kinect Deform: enhanced 3d reconstruction of non-rigidly deforming objects
Hassanpour et al. Delaunay triangulation based 3d human face modeling from uncalibrated images
Mukaigawa et al. Face synthesis with arbitrary pose and expression from several images: An integration of image-based and model-based approaches
Kim et al. 3D face modeling based on 3D dense morphable face shape model
US20130294710A1 (en) Recovering dis-occluded areas using temporal information integration

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990914

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101001

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101001

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111001

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111001

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121001

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121001

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 14

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees