JP2002216161A - Image generator - Google Patents

Image generator

Info

Publication number
JP2002216161A
JP2002216161A JP2001012793A JP2001012793A JP2002216161A JP 2002216161 A JP2002216161 A JP 2002216161A JP 2001012793 A JP2001012793 A JP 2001012793A JP 2001012793 A JP2001012793 A JP 2001012793A JP 2002216161 A JP2002216161 A JP 2002216161A
Authority
JP
Japan
Prior art keywords
dimensional
image
information
dimensional image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001012793A
Other languages
Japanese (ja)
Inventor
Osamu Toyama
修 遠山
Takashi Kondo
尊司 近藤
Shigeaki Tochimoto
茂昭 栃本
Koichi Kanbe
幸一 掃部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001012793A priority Critical patent/JP2002216161A/en
Publication of JP2002216161A publication Critical patent/JP2002216161A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily generate an image or animation according to direction, size or expression, etc., of a face of characters. SOLUTION: This image generator 1 generates a two-dimensional synthetic image, is provided with a two-dimensional synthesizing part 26 to superpose a head image GR2 on a base picture GR1, a three-dimensional data storage part 22 to store three-dimensional shape data KDT of the head of the user, a head image generating part 25 to generate the head image GR2, a base image storage part 13 to store image control information NM of the head image GR2 to be superposed on the base image GR1 by every scene and a scene setting part 23 to successively select scenes, the head image generating part 25 generates the head image based on size information NM2 and direction information NM3 and the two-dimensional synthesizing part 26 superposes the head image on a position based on positional information NM1.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビゲームなど
の登場人物の顔などをシーンに合った向き、サイズ、ま
たは表情などに変形して2次元画像を生成する画像生成
装置および動画生成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generating apparatus and a moving image generating apparatus for generating a two-dimensional image by transforming a face or the like of a character in a video game or the like into a direction, size, or expression suitable for a scene. .

【0002】[0002]

【従来の技術】従来より、ユーザの顔が登場人物の顔の
画像として用いられたテレビゲームなどが知られてい
る。例えば、予め撮影したユーザの顔の2次元画像を用
いてテレビゲームの登場人物の画像を生成する方法が考
えられる。
2. Description of the Related Art Hitherto, there has been known a video game in which a user's face is used as an image of a character's face. For example, a method of generating an image of a character in a video game using a two-dimensional image of the user's face photographed in advance can be considered.

【0003】[0003]

【発明が解決しようとする課題】ところが、予め撮影し
たユーザの顔の2次元画像の枚数が少ないと、登場人物
の表情または顔の向きなどの変化が乏しく、ぎこちな
い。また、登場人物の顔がシーンになじんでいない登場
人物の画像が多く生成される。
However, if the number of two-dimensional images of the user's face photographed in advance is small, changes in the expression of the characters or the orientation of the face are poor and awkward. Also, many images of characters whose faces are not familiar with the scene are generated.

【0004】そこで、ユーザの顔を様々な表情で、か
つ、様々な方向から撮影して得られた大量の2次元画像
を用いる方法が考えられる。しかし、撮影には多くの時
間を要し、ユーザの負担となるので、現実的でない。
Therefore, a method of using a large number of two-dimensional images obtained by photographing a user's face with various expressions and from various directions is conceivable. However, photographing takes a lot of time and burdens the user, which is not practical.

【0005】本発明は、このような問題点に鑑み、登場
人物の顔の向き、サイズ、または表情などに応じた画像
を容易に生成する画像生成装置および動画生成装置を提
供することを目的とする。
SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide an image generating apparatus and a moving image generating apparatus which can easily generate an image according to the orientation, size, or expression of a character's face. I do.

【0006】[0006]

【課題を解決するための手段】本発明に係る画像生成装
置は、複数の2次元画像を合成して1つの2次元合成画
像を生成する画像生成装置であって、第一の2次元画像
に第二の2次元画像を重ね合わせる重ね合わせ手段と、
物体の3次元データを記憶する3次元データ記憶手段
と、前記3次元データから第二の2次元画像を生成する
2次元画像生成手段と、前記第一の2次元画像に重ね合
わされる前記第二の2次元画像に係る前記物体の位置情
報、大きさ情報、および方向情報を各シーンごとに記憶
する情報記憶手段と、シーンを順次選択するシーン選択
手段と、を有し、前記2次元画像生成手段は、現在選択
されているシーンに対応する前記大きさ情報および前記
方向情報に基づいて前記第二の2次元画像を生成し、前
記重ね合わせ手段は、前記位置情報に基づく位置に前記
第二の2次元画像を重ね合わせる。
An image generating apparatus according to the present invention is an image generating apparatus for synthesizing a plurality of two-dimensional images to generate one two-dimensional synthesized image. Superimposing means for superimposing the second two-dimensional image;
Three-dimensional data storage means for storing three-dimensional data of an object; two-dimensional image generation means for generating a second two-dimensional image from the three-dimensional data; and the second two-dimensional image superimposed on the first two-dimensional image Information storage means for storing, for each scene, position information, size information, and direction information of the object relating to the two-dimensional image, and scene selection means for sequentially selecting scenes, The means generates the second two-dimensional image based on the size information and the direction information corresponding to the currently selected scene, and the superimposing means generates the second two-dimensional image at a position based on the position information. Are superimposed.

【0007】好ましくは、前記3次元データ記憶手段
は、人間の頭部の3次元データを記憶し、前記情報記憶
手段は、前記第一の2次元画像に重ね合わされる前記第
二の2次元画像に係る前記人間の顔の表情情報を各シー
ンごとに記憶し、前記2次元画像生成手段は、前記表情
情報に基づいた表情になるように前記人間の頭部の3次
元データから第二の2次元画像を生成する。
Preferably, the three-dimensional data storage means stores three-dimensional data of a human head, and the information storage means stores the second two-dimensional image superimposed on the first two-dimensional image. The two-dimensional image generating means stores the second two-dimensional image data of the human head from the three-dimensional data of the human head so that the facial expression is based on the facial expression information. Generate a two-dimensional image.

【0008】または、人間の頭部の標準モデルを記憶す
る標準モデル記憶手段と、人間の顔を正面から撮影して
取得された3次元計測データに基づいて前記標準モデル
を変形する変形手段と、を有し、前記3次元データ記憶
手段は、前記変形手段によって変形された前記標準モデ
ルを3次元データとして記憶する。
[0008] Alternatively, standard model storage means for storing a standard model of a human head, deformation means for deforming the standard model based on three-dimensional measurement data obtained by photographing a human face from the front, And the three-dimensional data storage means stores the standard model deformed by the deformation means as three-dimensional data.

【0009】または、1つのシーンにおける前記第二の
2次元画像を重ね合わせるための前記大きさ情報および
前記方向情報と、その次のシーンにおける前記第二の2
次元画像を重ね合わせるための前記大きさ情報および前
記方向情報と、をそれぞれ比較する比較手段を有し、前
記比較手段による比較の結果、いずれかに変化があると
判断される場合は、前記2次元画像生成手段は、次のシ
ーンの前記第二の2次元画像を生成し、いずれにも変化
がないと判断される場合は、前記2次元画像生成手段に
よる前記第二の2次元画像の生成を行わず、1つのシー
ンの前記第二の2次元画像を次のシーンの前記第二の2
次元画像として用いる。
Alternatively, the size information and the direction information for superimposing the second two-dimensional image in one scene and the second two-dimensional image in the next scene
A comparing unit for comparing the size information and the direction information for superimposing the two-dimensional image with each other, and as a result of the comparison by the comparing unit, when it is determined that there is any change, The two-dimensional image generating means generates the second two-dimensional image of the next scene, and when it is determined that there is no change in any of the two scenes, the two-dimensional image generating means generates the second two-dimensional image. Is not performed, and the second two-dimensional image of one scene is replaced with the second 2D image of the next scene.
Used as a two-dimensional image.

【0010】[0010]

【発明の実施の形態】〔第一の実施形態〕図1は本発明
に係る画像生成装置1を示すブロック図、図2は標準モ
デルDSおよび3次元形状モデルDSHの例を示す図、
図3はベース画像DS1の例を示す図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] FIG. 1 is a block diagram showing an image generating apparatus 1 according to the present invention, FIG. 2 is a diagram showing examples of a standard model DS and a three-dimensional shape model DSH,
FIG. 3 is a diagram illustrating an example of the base image DS1.

【0011】本実施形態では、テレビゲームなどのシー
ンごとに、登場する登場人物MLの顔にユーザHMの顔
を用いた画像を生成し、動画を生成する。図1におい
て、画像生成装置1は、処理装置11、人間の頭部の標
準モデルDSを記憶する標準モデル記憶部12、各シー
ンのベース画像GR1および対応する画像制御情報NM
を記憶するベース画像記憶部13、および3次元計測デ
ータ記憶部14などを有する。
In the present embodiment, for each scene such as a video game, an image using the face of the user HM as the face of the appearing character ML is generated to generate a moving image. In FIG. 1, an image generation device 1 includes a processing device 11, a standard model storage unit 12 that stores a standard model DS of a human head, a base image GR1 of each scene, and corresponding image control information NM.
, A three-dimensional measurement data storage unit 14 and the like.

【0012】標準モデルDSは、標準的な顔のサイズお
よび形状を有した、頭部の全周を構造化した3次元デー
タである。標準モデルDSとして、図2(a)〜(c)
に示すような無表情の標準モデルDSa、「あ」の音を
発声する表情の標準モデルDSb、および驚きの表情の
標準モデルDScなどが用意されている。これ以外に、
喜怒哀楽などの感情を表す様々な表情、様々な音を発声
したときの表情、荷物を持ち上げまたは息を吐き出すな
ど動作を行うときの様々な表情が用意されている。
The standard model DS is three-dimensional data having a standard face size and shape and structured around the entire circumference of the head. As a standard model DS, FIGS.
The standard model DSa with no expression, the standard model DSb with facial expression that utters the sound of "A", the standard model DSc with surprise expression, and the like are prepared. Besides this,
There are various expressions that express emotions such as emotions and emotions, expressions when various sounds are uttered, and various expressions when performing an operation such as lifting a luggage or exhaling.

【0013】3次元計測データKDTは、点群からなる
ユーザHMの顔の3次元データである。この3次元計測
データKDTは、ユーザHMの顔の2次元画像、および
3次元計測データKDTの各点の信頼性を示す信頼性デ
ータDRとともに3次元計測データ記憶部14に記憶さ
れる。
The three-dimensional measurement data KDT is three-dimensional data of the face of the user HM composed of point groups. The three-dimensional measurement data KDT is stored in the three-dimensional measurement data storage unit 14 together with the two-dimensional image of the face of the user HM and the reliability data DR indicating the reliability of each point of the three-dimensional measurement data KDT.

【0014】後に説明する標準モデルDSのフィッティ
ングの処理において、正面から撮影した無表情の顔の3
次元計測データKDTが用いられる。そこで、ユーザH
Mに関するそのような3次元計測データKDTが、3次
元計測装置で撮影するなどして予め用意されている。
In the fitting process of the standard model DS, which will be described later, 3 of the expressionless face photographed from the front is used.
The dimension measurement data KDT is used. Then, user H
Such three-dimensional measurement data KDT relating to M is prepared in advance by photographing with a three-dimensional measurement device.

【0015】なお、ユーザHMの顔の2次元画像および
信頼性データDRは、標準モデルDSのフィッティング
の処理で用いられる。信頼性DRを求める方法として、
例えば、特開昭61−125686号に示される方法、
その他の公知の方法が用いられる。
The two-dimensional image of the face of the user HM and the reliability data DR are used in the fitting process of the standard model DS. As a method of obtaining the reliability DR,
For example, a method disclosed in JP-A-61-125686,
Other known methods are used.

【0016】ベース画像GR1は、図3に示すような登
場人物MLの全身の2次元画像である。ベース画像GR
1の中の頭部GR1aには、図6に示すように、画像制
御情報NMに基づいてユーザHMの頭部画像GR2が重
ね合わされる。画像制御情報NMは、登場人物MLの頭
部の位置、サイズ、方向、および表情に関する位置情報
NM1、サイズ情報NM2、方向情報NM3、および表
情情報NM4からなる。重ね合わせの処理ついては、後
に説明する。
The base image GR1 is a two-dimensional image of the whole body of the character ML as shown in FIG. Base image GR
As shown in FIG. 6, a head image GR2 of the user HM is superimposed on the head GR1a in 1 based on the image control information NM. The image control information NM includes position information NM1, size information NM2, direction information NM3, and expression information NM4 relating to the position, size, direction, and expression of the head of the character ML. The superposition process will be described later.

【0017】図1に戻って、処理装置11は、CPU、
RAM、ROM、および入出力インタフェースなどから
なり、CPUがプログラムを実行することにより、3次
元モデル生成部21、3次元モデル記憶部22、シーン
設定部23、3次元モデル変形部24、頭部画像生成部
25、および2次元合成部26などの機能が実現され
る。
Returning to FIG. 1, the processing device 11 includes a CPU,
A three-dimensional model generation unit 21, a three-dimensional model storage unit 22, a scene setting unit 23, a three-dimensional model deformation unit 24, a head image Functions such as the generation unit 25 and the two-dimensional synthesis unit 26 are realized.

【0018】図4は3次元形状モデルDSHの生成の処
理の流れを説明するフローチャート、図5は標準モデル
DSの例を示す図、図6は2次元合成画像GRZの例を
示す図である。
FIG. 4 is a flowchart for explaining the flow of processing for generating a three-dimensional shape model DSH. FIG. 5 is a diagram showing an example of a standard model DS. FIG. 6 is a diagram showing an example of a two-dimensional composite image GRZ.

【0019】3次元モデル生成部21は、標準モデルD
Sを3次元計測データKDTにフィッティングすること
によって、登場人物MLの頭部の3次元形状モデルDS
Hを生成する。
The three-dimensional model generation unit 21 uses the standard model D
By fitting S to the three-dimensional measurement data KDT, a three-dimensional shape model DS of the head of the character ML is obtained.
Generate H.

【0020】標準モデルDSをフィッティングする方法
として、例えば、3次元計測データKDTの各点の信頼
性データDRに基づいてフィッティングを行う方法が用
いられる。係る方法による処理は、図4に示すような流
れで行われる。
As a method of fitting the standard model DS, for example, a method of performing fitting based on the reliability data DR of each point of the three-dimensional measurement data KDT is used. The processing by such a method is performed according to the flow shown in FIG.

【0021】まず、図5に示す標準モデルDSと3次元
計測データKDTとの概略の位置合わせを行う(#5
1)。すなわち、標準モデルDSと3次元計測データK
DTとの距離が最小となるように、標準モデルDSの向
き、大きさ、および位置を変更する。一般に、標準モデ
ルDSおよび3次元計測データKDTとして、無表情の
状態のものが用いられる。
First, rough alignment between the standard model DS and the three-dimensional measurement data KDT shown in FIG. 5 is performed (# 5).
1). That is, the standard model DS and the three-dimensional measurement data K
The direction, size, and position of the standard model DS are changed so that the distance from the DT is minimized. Generally, an expressionless state is used as the standard model DS and the three-dimensional measurement data KDT.

【0022】輪郭および特徴点を抽出する(#52)。
標準モデルDSについての輪郭RKおよび特徴点TTと
同じ位置に配置されるべき輪郭および特徴点を、3次元
計測データKDT上に、またはそれに対応する2次元画
像上に配置する。
A contour and a feature point are extracted (# 52).
A contour and a feature point to be arranged at the same position as the contour RK and the feature point TT for the standard model DS are arranged on the three-dimensional measurement data KDT or a corresponding two-dimensional image.

【0023】特徴点として、例えば、目や口の端部、鼻
の頂部、顎の下端部のように実際に特徴のある部分、ま
たは、それらの中間のようなそれ自体では特徴はないが
位置的に特定し易い部分などが選ばれる。輪郭として、
顎のライン、唇のライン、または瞼のラインなどが選ば
れる。
As a characteristic point, for example, there is a characteristic part such as an end of an eye or a mouth, a top of a nose, a lower end of a chin, or a part having no characteristic in itself such as an intermediate part thereof. A part that is easily specified in a particular way is selected. As a contour,
A chin line, lip line, or eyelid line is selected.

【0024】計算量および誤差を削減するために、3次
元計測データKDTについてデータの削減を行う(#5
3)。標準モデルDSの変形を行う(#54)。すなわ
ち、3次元計測データKDTの各点と標準モデルDSの
面との間の距離に関連して定義されたエネルギー関数、
または過剰な変形を回避するために定義されたエネルギ
ー関数などを用い、それらが最小となるように標準モデ
ルDSの面を変形させる。
In order to reduce the calculation amount and the error, the data of the three-dimensional measurement data KDT is reduced (# 5).
3). The standard model DS is modified (# 54). That is, an energy function defined in relation to the distance between each point of the three-dimensional measurement data KDT and the surface of the standard model DS,
Alternatively, the surface of the standard model DS is deformed so as to minimize them by using an energy function or the like defined to avoid excessive deformation.

【0025】そして、対象とするエネルギー関数および
制御点を変更し、ステップ#54と同様な変更のための
処理を繰り返す(#55)。次に、ステップ#54の変
形処理について説明する。
Then, the target energy function and control point are changed, and the same processing for change as in step # 54 is repeated (# 55). Next, the transformation process in step # 54 will be described.

【0026】図7は変形処理の流れを説明するフローチ
ャート、図8は標準モデルDSの面Sと3次元計測デー
タKDTの点Pとを模式的に示す図、図9は標準モデル
DSの異常変形を防ぐための仮想バネを説明するための
図、図10は点Pに対する面Sの種々のフィッティング
の例を示す図である。
FIG. 7 is a flowchart for explaining the flow of the deformation process, FIG. 8 is a diagram schematically showing a plane S of the standard model DS and a point P of the three-dimensional measurement data KDT, and FIG. 9 is an abnormal deformation of the standard model DS. FIG. 10 is a view for explaining a virtual spring for preventing the above, and FIG. 10 is a view showing various fitting examples of the surface S with respect to the point P.

【0027】図8において、3次元計測データKDTを
構成する点群の1つが点Pkで示されている。標準モデ
ルDSの面Sにおいて、点Pkに最も近い点がQkで示
されている。点Qkは、点Pkから面Sに垂線を下ろし
たときの交点である。
In FIG. 8, one of the points forming the three-dimensional measurement data KDT is indicated by a point Pk. On the surface S of the standard model DS, the point closest to the point Pk is indicated by Qk. The point Qk is an intersection when a perpendicular is drawn from the point Pk to the surface S.

【0028】点群に面Sをフィッティングする方法は次
のとおりである。ここでは、まず、一般的なフィッティ
ングについて説明し、その後で信頼性に基づく重み付け
を行ったフィッティングを説明する。
The method for fitting the surface S to the point group is as follows. Here, first, a general fitting will be described, and then a fitting in which weighting based on reliability is performed will be described.

【0029】点群の中の1つの点Pk、それに対応する
点Qk、および対応点群T={(Pk,Qk),k=1
…n}について、フィッティングエネルギー(Fitting
Energy) 関数Ef(U)を、次の式(1)のように設定
する。
One point Pk in the point group, the corresponding point Qk, and the corresponding point group T = {(Pk, Qk), k = 1
... for n 、, fitting energy
Energy) The function Ef (U) is set as in the following equation (1).

【0030】[0030]

【数1】 但し、Qk(U)は、QkがUの関数であることを示
す。
(Equation 1) Here, Qk (U) indicates that Qk is a function of U.

【0031】また、面Sの過度の変形を防ぐために、図
9に示す仮想バネ(elastic bar) KBを導入する。仮想
バネKBの制約に基づいて、面Sの形状安定化のための
安定化エネルギー関数を導く。
In order to prevent the surface S from being excessively deformed, a virtual spring (elastic bar) KB shown in FIG. 9 is introduced. A stabilizing energy function for stabilizing the shape of the surface S is derived based on the constraint of the virtual spring KB.

【0032】すなわち、図9において、フィッティング
対象である標準モデルDSの面(曲面)Sの一部が示さ
れている。面Sは、制御点群U=|ui,i=1…N|
で形成されている。隣接する制御点間には、仮想バネK
Bが配置されている。仮想バネKBは、制御点間に引っ
張り力による拘束を与え、面Sの異常変形を防ぐ働きを
する。
That is, FIG. 9 shows a part of a surface (curved surface) S of the standard model DS to be fitted. The surface S has a control point group U = | ui, i = 1... N |
It is formed with. A virtual spring K is provided between adjacent control points.
B is arranged. The virtual spring KB gives a constraint between the control points by a tensile force, and functions to prevent abnormal deformation of the surface S.

【0033】つまり、隣接する制御点uの間隔が大きく
なった場合に、それに応じて仮想バネKBによる引っ張
り力が大きくなる。例えば、点Qkが点Pkに近づく場
合に、その移動にともなって制御点uの間隔が大きくな
ると、仮想バネKBによる引っ張り力が増大する。点Q
kが移動しても制御点uの間隔が変わらなければ、つま
り制御点u間の相対位置関係に変化がなければ、仮想バ
ネKBによる引っ張り力は変化しない。仮想バネKBに
よる引っ張り力を面Sの全体について平均化したもの
を、安定化エネルギーとして定義する。したがって、面
Sの一部が突出して変形した場合に安定化エネルギーは
増大する。面Sの全体が平均して移動すれば安定化エネ
ルギーは零である。
That is, when the interval between adjacent control points u increases, the pulling force by the virtual spring KB increases accordingly. For example, when the point Qk approaches the point Pk and the movement of the point Qk increases the interval between the control points u, the tensile force of the virtual spring KB increases. Point Q
If the interval between the control points u does not change even if k moves, that is, if the relative positional relationship between the control points u does not change, the pulling force by the virtual spring KB does not change. The value obtained by averaging the tensile force by the virtual spring KB over the entire surface S is defined as stabilizing energy. Therefore, when a part of the surface S protrudes and deforms, the stabilizing energy increases. If the entire surface S moves on average, the stabilization energy is zero.

【0034】安定化エネルギー関数Es(U)は、次の
式(2)で示される。
The stabilizing energy function Es (U) is expressed by the following equation (2).

【0035】[0035]

【数2】 ここで、(Equation 2) here,

【0036】[0036]

【数3】 は、それぞれ、仮想バネKBの初期端点、変形後の仮想
バネKBの端点である。cはバネ係数であり、Mは仮想
バネKBの本数である。また、次の関係が成り立つ。
(Equation 3) Are the initial end points of the virtual spring KB and the end points of the virtual spring KB after deformation, respectively. c is a spring coefficient, and M is the number of virtual springs KB. Further, the following relationship is established.

【0037】[0037]

【数4】 したがって、バネ係数cを大きくすると、仮想バネKB
は硬くなって変形し難くなる。
(Equation 4) Therefore, if the spring coefficient c is increased, the virtual spring KB
Are hard and difficult to deform.

【0038】このような安定化エネルギー関数Es
(U)を導入することにより、面Sの形状変化に一定の
拘束を設けることとなり、面Sの過度の変形を防ぐこと
ができる。
Such a stabilizing energy function Es
By introducing (U), a certain constraint is provided on the shape change of the surface S, and excessive deformation of the surface S can be prevented.

【0039】上に述べたフィッティングエネルギー関数
Ef(U)、および安定化エネルギー関数Es(U)を
用い、フィッティングの評価関数E(U)を次の式
(3)のように定義する。
Using the fitting energy function Ef (U) and the stabilizing energy function Es (U) described above, a fitting evaluation function E (U) is defined as in the following equation (3).

【0040】 E(U)=WfEf(U)+WsEs(U) ……(3) ここで、Wf,Wsは、それぞれ正規化のための重み係
数である。式(3)の評価関数E(U)が十分小さくな
るように、面Sの変形および対応点の探索を繰り返し、
面のフィッティングを行う。例えば、E(U)のUに関
する微分が0に近づく方向にフィッティングを行う。
E (U) = WfEf (U) + WsEs (U) (3) where Wf and Ws are weighting coefficients for normalization, respectively. The deformation of the surface S and the search for the corresponding points are repeated so that the evaluation function E (U) of the equation (3) becomes sufficiently small.
Perform surface fitting. For example, fitting is performed in a direction in which the derivative of E (U) with respect to U approaches zero.

【0041】さて、ここまでの説明では、各点Pkの信
頼性が同等であり、点群の信頼性を同等に扱った評価関
数E(U)を導いたが、次に、点Pkの信頼性に基づく
重み付けを行った評価関数E(U)について説明する。
In the above description, the reliability of each point Pk is equal, and the evaluation function E (U) which treats the reliability of the point group equally is derived. An evaluation function E (U) weighted based on gender will be described.

【0042】すなわち、全ての点Pkのデータが信頼で
きるものとは限らないので、式(1)に示したフィッテ
ィングエネルギー関数を用いた場合には、信頼性の低い
部分の影響を受けてしまって望ましくないフィッティン
グ結果が導かれる場合がある。しかし、信頼性の低い点
Pkを削除してしまった場合には、削除した点Pkのあ
った箇所において、点群の本来の形状を保てなくなるこ
とがあり、これも望ましくない。
That is, since the data of all the points Pk are not always reliable, when the fitting energy function shown in the equation (1) is used, the data is affected by the low reliability part. Undesirable fitting results may be introduced. However, if a point Pk with low reliability is deleted, the original shape of the point group may not be maintained at the position where the deleted point Pk is located, which is also undesirable.

【0043】そこで、点群内における各点Pkの信頼性
の要素を、各対応関係の重みとして導入し、式(1)を
次の式(1' )のように変更する。
Therefore, the reliability factor of each point Pk in the point group is introduced as the weight of each correspondence, and the equation (1) is changed to the following equation (1 ').

【0044】[0044]

【数5】 ここで、ρkは、点Pkの信頼性を示す。信頼性ρkと
して、上に述べた信頼性データDRを用いることができ
る。W(ρk)は信頼性ρkから重みを求める関数であ
る。
(Equation 5) Here, ρk indicates the reliability of the point Pk. The reliability data DR described above can be used as the reliability ρk. W (ρk) is a function for obtaining a weight from the reliability ρk.

【0045】一般に、信頼性をxとした場合に、W
(x)は、信頼性xの高いもの(xの小さいもの)には
大きい重みを、信頼性xの低いもの(xの大きいもの)
には小さい重みをそれぞれ与える関数である。そのよう
な関数は、例えば、次の式(4)で与えられる。
Generally, when reliability is x, W
(X) indicates that a high reliability x (small x) has a large weight, and a low reliability x (large x).
Is a function that gives a small weight to each. Such a function is given, for example, by the following equation (4).

【0046】 W(x)=1/(1+x)n ……(4) ここで、nは信頼性に対する重み係数である。また、x
>0である。例えば、信頼性xとして、上に述べた信頼
性データDRである画素数を用いた場合に、ずれがない
場合にはx=0であるから、重みW(x)は1となる。
x=1の場合には重みW(x)は1/2n となり、x=
2の場合には重みW(x)は1/3n となる。このよう
に、信頼性が低下すると(xが増大すると)、重みW
(x)は零に近づく。そのため、面Sは、各点Pkの信
頼性に応じて変形されることとなる。
W (x) = 1 / (1 + x) n (4) where n is a weighting factor for reliability. Also, x
> 0. For example, when the above-described number of pixels, which is the reliability data DR, is used as the reliability x, if there is no shift, x = 0 and the weight W (x) is 1.
When x = 1, the weight W (x) becomes 1 / 2n, and x =
In the case of 2, the weight W (x) is 1 / 3n. Thus, when reliability decreases (x increases), the weight W
(X) approaches zero. Therefore, the surface S is deformed according to the reliability of each point Pk.

【0047】上の式(1' )を、式(3)におけるフィ
ッティングエネルギー関数Ef(U)として用いる。こ
れによって、信頼性の高い点Pkについてはより精度の
高いフィッティングが行われ、信頼性の低い点について
は信頼性の高い部分に大きい影響を与えないようなフィ
ッティングが行われる。
The above equation (1 ′) is used as the fitting energy function Ef (U) in equation (3). As a result, more accurate fitting is performed for the highly reliable point Pk, and fitting that does not significantly affect the highly reliable part is performed for the less reliable point Pk.

【0048】例えば、図10(C)(D)に示すよう
に、6つの点P1〜6のうち、点P1,2の信頼性が大
きく、点P3〜6の信頼性が低い場合に、面Sは各点P
1〜6の信頼性に応じて変形される。このように変形さ
れた面Sc,Sdは、信頼性を考慮しなかった図10
(A)に示す面Sa、および信頼性の低い点を削除した
図10(B)に示す面Sbと比較すると、点群による形
状が信頼性の程度に応じて反映され、点群の形状が保た
れ、且つ突出した変形が抑えられていることが分かる。
For example, as shown in FIGS. 10C and 10D, out of the six points P1 to P6, when the reliability of the points P1 and P2 is high and the reliability of the points P3 to P6 is low, S is each point P
Deformed according to the reliability of 1 to 6. The surfaces Sc and Sd deformed in this way are shown in FIG. 10 without considering reliability.
Compared with the surface Sa shown in (A) and the surface Sb shown in FIG. 10B in which points with low reliability are deleted, the shape of the point group is reflected according to the degree of reliability, and the shape of the point group is It can be seen that the deformation is kept and the protruding deformation is suppressed.

【0049】図7において、変形処理では、まず、点P
kに対応する点Qkを計算で求め、点Pkと点Qkの組
みを作成する(#61)。面Sを変形し(#62)、変
形後の評価関数E(U)を計算する(#63)。評価関
数E(U)が収束するまで(#64でYes)、処理を
繰り返す。
In FIG. 7, in the transformation process, first, the point P
A point Qk corresponding to k is obtained by calculation, and a set of points Pk and Qk is created (# 61). The surface S is deformed (# 62), and the deformed evaluation function E (U) is calculated (# 63). The process is repeated until the evaluation function E (U) converges (Yes in # 64).

【0050】評価関数E(U)の収束を判定する方法と
して、評価関数E(U)が所定の値よりも小さくなった
ときを収束とする方法、前回の計算と比較べた変化の割
合が所定値以下となったときに収束とする方法など、公
知の方法を用いることが可能である。
As a method of judging the convergence of the evaluation function E (U), a method in which the convergence is performed when the evaluation function E (U) becomes smaller than a predetermined value, and a method in which the rate of change compared with the previous calculation is a predetermined value. A known method such as a method of converging when the value becomes equal to or less than the value can be used.

【0051】このような処理によって、図2(a)に示
す標準モデルDSを変形し、図2(d)に示すようなユ
ーザHMの顔の形状をした3次元形状モデルDSHを生
成することができる。
By such a process, the standard model DS shown in FIG. 2A is transformed to generate a three-dimensional shape model DSH having the shape of the face of the user HM as shown in FIG. 2D. it can.

【0052】図1に戻って、3次元モデル記憶部22
は、3次元モデル生成部21によって生成された3次元
形状モデルDSHを記憶する。シーン設定部23は、1
つのシーンに用いられるベース画像GR1およびそれに
対応する画像制御情報NMをベース画像記憶部13から
選択し、3次元モデル変形部24、頭部画像生成部2
5、または2次元合成部26における処理のための位置
情報NM1、サイズ情報NM2、方向情報NM3、また
は表情情報NM4を設定する。例えば、図3に示すよう
に、位置情報NM1、サイズ情報NM2、方向情報NM
3、および表情情報NM4のそれぞれに、座標「(40
0,50)」、サイズ「150ドット×150ドッ
ト」、角「(θ,φ,ψ)=(75°,15°,15
°)」、および「あ音を発声する表情」などと設定され
る。そして、各シーンのベース画像GR1およびそれに
対応する画像制御情報NMを順次選択し、同様の処理を
繰り返す。なお、「座標」とは、ユーザHMの頭部画像
GR2が重ね合わされる位置を示すベース画像GR1内
の2次元座標である。角(θ、φ、ψ)は、真っ直ぐ正
面を向いた頭部を基準とするオイラー角である。
Returning to FIG. 1, the three-dimensional model storage unit 22
Stores the three-dimensional shape model DSH generated by the three-dimensional model generation unit 21. The scene setting unit 23
A base image GR1 used for one scene and image control information NM corresponding to the base image GR1 are selected from the base image storage unit 13, a three-dimensional model deformation unit 24, a head image generation unit 2
5, or position information NM1, size information NM2, direction information NM3, or expression information NM4 for processing in the two-dimensional synthesizing unit 26 is set. For example, as shown in FIG. 3, position information NM1, size information NM2, direction information NM
3 and the expression information NM4, the coordinates “(40
0, 50) ”, size“ 150 dots × 150 dots ”, corner“ (θ, φ, ψ) = (75 °, 15 °, 15
°) ", and" a facial expression that utters a sound ". Then, the base image GR1 of each scene and the corresponding image control information NM are sequentially selected, and the same processing is repeated. The “coordinates” are two-dimensional coordinates in the base image GR1 indicating the position where the head image GR2 of the user HM is superimposed. The angles (θ, φ, ψ) are Euler angles with respect to the head facing straight ahead.

【0053】3次元モデル変形部24は、表情情報NM
4に基づく表情になるように、3次元モデル生成部21
によって生成された3次元形状モデルDSHを変形す
る。例えば、図2において、表情情報NM4に「驚きの
表情」が設定されている場合は、図2(e)に示す「驚
きの表情」の標準モデルDSbと図2(d)に示す「無
表情」の標準モデルDSaとの差分を算出し、係る差分
に基づいて「無表情」の3次元形状モデルDSHaを変
形して「驚きの表情」の3次元形状モデルDSHを生成
する。
The three-dimensional model transforming unit 24 includes the facial expression information NM.
The three-dimensional model generating unit 21
The three-dimensional shape model DSH generated by the above is deformed. For example, in FIG. 2, when “surprise expression” is set in the expression information NM4, the standard model DSb of “surprise expression” shown in FIG. 2E and the “non-expression” shown in FIG. Is calculated from the standard model DSa of “.”, And based on the difference, the three-dimensional shape model DSHa of “expressionless” is transformed to generate the three-dimensional shape model DSH of “surprising expression”.

【0054】すなわち、標準モデルDSbの各制御点か
ら標準モデルDSaの対応する各制御点までの移動量を
算出する。そして、算出された各制御点の移動量に基づ
いて対応する3次元形状モデルDSHaの制御点を動か
して、「驚きの表情」の3次元形状モデルDSHcを生
成する。
That is, the amount of movement from each control point of the standard model DSb to each corresponding control point of the standard model DSa is calculated. Then, based on the calculated movement amount of each control point, the corresponding control point of the three-dimensional shape model DSHa is moved to generate the “surprising expression” three-dimensional shape model DSHc.

【0055】図1に戻って、頭部画像生成部25は、方
向情報NM3が示す方向になるように3次元形状モデル
DSHを回転させ、3次元形状モデルDSHを2次元上
に投影して頭部画像GR2を生成する。
Returning to FIG. 1, the head image generation unit 25 rotates the three-dimensional shape model DSH so as to be in the direction indicated by the direction information NM3, and projects the three-dimensional shape model DSH onto the two-dimensional plane. A partial image GR2 is generated.

【0056】2次元合成部26は、サイズ情報NM2に
基づく大きさに頭部画像GR2を調整し、位置情報NM
1の示すベース画像GR1上の位置に頭部画像GR2を
重ね合わることによって、図6に示す2次元合成画像G
RZを生成する。順次生成される2次元合成画像GRZ
を出力することによって、動画が得られる。
The two-dimensional synthesizing unit 26 adjusts the head image GR2 to a size based on the size information NM2,
By superimposing the head image GR2 on the position on the base image GR1 shown in FIG. 1, the two-dimensional composite image G shown in FIG.
Generate RZ. Two-dimensional composite image GRZ generated sequentially
By outputting, a moving image can be obtained.

【0057】次に、2次元合成画像GRZを生成するま
での処理の流れをフローチャートを参照して説明する。
図11は画像生成装置1の処理の流れを説明するフロー
チャートである。
Next, the flow of processing up to the generation of the two-dimensional composite image GRZ will be described with reference to a flowchart.
FIG. 11 is a flowchart illustrating the flow of the process of the image generation device 1.

【0058】図11において、ユーザHMの無表情の顔
を正面から撮影した3次元計測データKDTを読み込み
(#11)、無表情の標準データDSaを3次元計測デ
ータKDTにフィッティングさせて3次元形状モデルD
SHaを得る(#12)。
In FIG. 11, three-dimensional measurement data KDT obtained by photographing the expressionless face of the user HM from the front is read (# 11). Model D
SHA is obtained (# 12).

【0059】ステップ#11、#12と並行しまたは前
後して、ベース画像GR1に重ね合わせるための位置情
報NM1、サイズ情報NM2、方向情報NM3、および
表情情報NM4を設定する(#13)。
In parallel with or before or after steps # 11 and # 12, position information NM1, size information NM2, direction information NM3, and expression information NM4 to be superimposed on the base image GR1 are set (# 13).

【0060】表情情報NM4に基づいて3次元形状モデ
ルDSHaを変形して表情を合わせ(#14)、方向情
報NM3に基づいて方向情報NM3を回転させて頭部の
方向を合わせる(#15)。
The three-dimensional shape model DSHa is deformed based on the facial expression information NM4 to adjust the facial expression (# 14), and the direction information NM3 is rotated based on the direction information NM3 to adjust the head direction (# 15).

【0061】回転した3次元形状モデルDSHを2次元
上に投影して頭部画像GR2を生成し(#16)、サイ
ズ情報NM2に基づいて頭部画像GR2の大きさを調整
する(#17)。
The head image GR2 is generated by projecting the rotated three-dimensional shape model DSH onto two dimensions (# 16), and the size of the head image GR2 is adjusted based on the size information NM2 (# 17). .

【0062】そして、位置情報NM1の示すベース画像
GR1上の位置に頭部画像GR2を重ね合わせ、2次元
合成画像GRZを得る(#18)。次のシーンがあれば
(#19でYes)、ステップ#11に戻って次のシー
ンの2次元合成画像GRZを繰り返す。
Then, the head image GR2 is superimposed on the position on the base image GR1 indicated by the position information NM1, to obtain a two-dimensional composite image GRZ (# 18). If there is a next scene (Yes in # 19), the process returns to step # 11 to repeat the two-dimensional composite image GRZ of the next scene.

【0063】本実施形態によると、顔の向き、サイズ、
または表情などに応じたユーザHMの頭部画像GR2を
生成し、登場人物MLの2次元合成画像GRZを容易に
生成することができる。顔の向き、サイズ、または表情
などを変えても、新たにユーザHMを撮影する必要がな
いので、複数の2次元合成画像GRZを生成する場合で
あっても、ユーザへの負担を少なくすることができる。
〔第二の実施形態〕図12は第二の実施形態における画
像生成装置3を示すブロック図である。図13は連続す
るシーンのベース画像GR1の例を示す図、図14はあ
る連続するシーンの動画MVの例を示す図である。
According to the present embodiment, the face direction, size,
Alternatively, it is possible to generate the head image GR2 of the user HM according to the facial expression or the like, and easily generate the two-dimensional composite image GRZ of the character ML. Even if the direction, size, expression, etc. of the face are changed, it is not necessary to newly photograph the user HM. Therefore, even when a plurality of two-dimensional composite images GRZ are generated, the burden on the user is reduced. Can be.
[Second Embodiment] FIG. 12 is a block diagram showing an image generating apparatus 3 according to a second embodiment. FIG. 13 is a diagram illustrating an example of a base image GR1 of a continuous scene, and FIG. 14 is a diagram illustrating an example of a moving image MV of a certain continuous scene.

【0064】第一の実施形態では、シーンごとに頭部画
像GR2を生成し、2次元合成画像GRZを生成した。
本実施形態では、前後のシーンの画像制御情報NMを比
較し、必要に応じて頭部画像GR2を生成し、2次元合
成画像GRZを生成する。そして、連続するシーンの動
画を生成する。
In the first embodiment, the head image GR2 is generated for each scene, and the two-dimensional composite image GRZ is generated.
In the present embodiment, the image control information NM of the preceding and following scenes is compared, a head image GR2 is generated as necessary, and a two-dimensional composite image GRZ is generated. Then, a moving image of a continuous scene is generated.

【0065】図12において、画像生成装置3は、処理
装置31、標準モデル記憶部32、ベース画像記憶部3
3、および3次元計測データ記憶部34などを有する。
図12を図1と比較すると、画像生成装置3の構成が画
像生成装置1の構成とほぼ同じであることが分かる。そ
こで、画像生成装置1の機能と異なる個所について、以
下に説明する。
In FIG. 12, the image generating device 3 includes a processing device 31, a standard model storage 32, and a base image storage 3
3 and a three-dimensional measurement data storage unit 34.
Comparing FIG. 12 with FIG. 1, it can be seen that the configuration of the image generation device 3 is almost the same as the configuration of the image generation device 1. Therefore, a portion different from the function of the image generation device 1 will be described below.

【0066】標準モデル記憶部32および3次元計測デ
ータ記憶部34は、それぞれ、標準モデル記憶部12お
よび3次元計測データ記憶部14と同様の機能である。
ベース画像記憶部33は、ベース画像記憶部13と同様
に、各シーンのベース画像GR1および対応する画像制
御情報NMを記憶する。ただし、あるシーンと他のシー
ンとの間にあるシーンに関する位置情報NM1、サイズ
情報NM2、方向情報NM3、または表情情報NM4
は、所定の関数などで表される。
The standard model storage unit 32 and the three-dimensional measurement data storage unit 34 have the same functions as the standard model storage unit 12 and the three-dimensional measurement data storage unit 14, respectively.
The base image storage unit 33 stores the base image GR1 of each scene and the corresponding image control information NM, similarly to the base image storage unit 13. However, position information NM1, size information NM2, direction information NM3, or expression information NM4 relating to a scene between a certain scene and another scene.
Is represented by a predetermined function or the like.

【0067】例えば、図13に示すベース画像GR11
およびベース画像GR1nは、それぞれ、ある連続する
シーンの最初および最後のベース画像GR1である。ベ
ース画像GR11とベース画像GR1nとの間には、1
枚または複数枚のベース画像GR1kが記憶されてい
る。ベース画像GR11に対応する位置情報NM1〜表
情情報NM4として座標「(400,50)」、サイズ
「150ドット×150ドット」、角「(θ,φ,ψ)
=(75°,15°,15°)」、および「あ音を発声
する表情」が記憶され、ベース画像GR1nに対応する
位置情報NM1〜表情情報NM4として座標「(45
0,150)」、サイズ「250ドット×250ドッ
ト」、角「(θ,φ,ψ)=(60°,5°,0
°)」、および「驚きの表情」が記憶されている。そし
て、各ベース画像GR1kに対応する位置情報NM1〜
表情情報NM4として所定の関数が記憶されている。係
る関数は、ベース画像GR11のシーンからベース画像
GR1nのシーンへの変化に対応して、各ベース画像G
R1kに重ね合わされる頭部画像GR2が所望する変化
をするように決められている。
For example, the base image GR11 shown in FIG.
And the base image GR1n are the first and last base images GR1 of a certain continuous scene, respectively. Between the base image GR11 and the base image GR1n, 1
One or a plurality of base images GR1k are stored. Coordinates “(400, 50)”, size “150 dots × 150 dots”, and corners “(θ, φ, ψ) as position information NM1 to expression information NM4 corresponding to base image GR11.
= (75 °, 15 °, 15 °) ”and“ expression expressing a sound ”are stored, and coordinates“ (45) are used as position information NM1 to expression information NM4 corresponding to the base image GR1n.
0, 150) ”, size“ 250 dots × 250 dots ”, corner“ (θ, φ, ψ) = (60 °, 5 °, 0
°) "and" surprising expression ". Then, the position information NM1 to NM1 corresponding to each base image GR1k
A predetermined function is stored as the facial expression information NM4. The function corresponds to each base image G corresponding to a change from the scene of the base image GR11 to the scene of the base image GR1n.
The head image GR2 superimposed on R1k is determined to change as desired.

【0068】図12に戻って、処理装置31は、3次元
モデル生成部41、3次元モデル記憶部42、シーン設
定部43、3次元モデル変形部44、頭部画像生成部4
5、2次元合成部46、シーン比較部47、および動画
生成部48などの機能を実現する。
Returning to FIG. 12, the processing device 31 includes a three-dimensional model generation part 41, a three-dimensional model storage part 42, a scene setting part 43, a three-dimensional model deformation part 44, and a head image generation part 4.
5. The functions of the two-dimensional synthesizing unit 46, the scene comparing unit 47, and the moving image generating unit 48 are realized.

【0069】3次元モデル生成部41および3次元モデ
ル記憶部42は、それぞれ、3次元モデル生成部21お
よび3次元モデル記憶部22と同様の処理を行う。シー
ン設定部43は、各シーンに用いられるベース画像GR
1およびそれに対応する画像制御情報NMをベース画像
記憶部33から選択し、位置情報NM1、サイズ情報N
M2、方向情報NM3、または表情情報NM4を設定す
る。図13に示す例では、ベース画像GR11およびベ
ース画像GR1nは、対応する画像制御情報NMに基づ
いて位置情報NM1〜表情情報NM4が設定される。こ
れらの間にある各ベース画像GR1kについては、前に
述べた所定の関数およびベース画像GR11およびベー
ス画像GR1nに対応する画像制御情報NMに基づいて
設定される。
The three-dimensional model generation unit 41 and the three-dimensional model storage unit 42 perform the same processing as the three-dimensional model generation unit 21 and the three-dimensional model storage unit 22, respectively. The scene setting unit 43 includes a base image GR used for each scene.
1 and the corresponding image control information NM are selected from the base image storage unit 33, and the position information NM1, the size information N
M2, direction information NM3, or expression information NM4 is set. In the example illustrated in FIG. 13, in the base image GR11 and the base image GR1n, position information NM1 to expression information NM4 are set based on the corresponding image control information NM. Each base image GR1k between them is set based on the above-described predetermined function and the image control information NM corresponding to the base image GR11 and the base image GR1n.

【0070】シーン比較部47は、隣り合うベース画像
GR1の位置情報NM1、サイズ情報NM2、方向情報
NM3、または表情情報NM4同士を比較する。3次元
モデル変形部44は、図1に示す3次元モデル変形部2
4と同様の処理を行う。ただし、シーン比較部47によ
る比較の結果、処理対象のシーンの表情情報NM4が前
のシーンの表情情報NM4と同値であると判断される場
合は、3次元形状モデルDSHの変形を行わない。この
場合、後の処理において、前のシーンの3次元形状モデ
ルDSHがそのまま用いられる。
The scene comparison section 47 compares the position information NM1, the size information NM2, the direction information NM3, or the expression information NM4 of the adjacent base images GR1. The three-dimensional model deformation unit 44 shown in FIG.
The same processing as in step 4 is performed. However, when it is determined that the expression information NM4 of the processing target scene has the same value as the expression information NM4 of the previous scene as a result of the comparison by the scene comparison unit 47, the three-dimensional shape model DSH is not modified. In this case, in the subsequent processing, the three-dimensional shape model DSH of the previous scene is used as it is.

【0071】頭部画像生成部45は、図1に示す頭部画
像生成部25と同様の処理を行う。ただし、3次元モデ
ル変形部44から取得した3次元形状モデルDSHが前
のシーンのものと同じで、かつ、方向情報NM3が同値
の場合は、頭部画像GR2の生成を行わない。この場
合、後の処理において、前のシーンの3次元形状モデル
DSHがそのまま用いられる。
The head image generator 45 performs the same processing as the head image generator 25 shown in FIG. However, when the three-dimensional shape model DSH acquired from the three-dimensional model deformation unit 44 is the same as that of the previous scene and the direction information NM3 has the same value, the generation of the head image GR2 is not performed. In this case, in the subsequent processing, the three-dimensional shape model DSH of the previous scene is used as it is.

【0072】2次元合成部46は、2次元合成部26と
同様の処理を行い、各シーンについて2次元合成画像G
RZを生成する。ただし、頭部画像生成部45から取得
した3次元形状モデルDSHが前のシーンのものと同じ
で、かつ、サイズ情報NM2が同値の場合は、前のシー
ンについて生成された頭部画像GR2を用いて2次元合
成画像GRZを生成する。
The two-dimensional synthesis unit 46 performs the same processing as the two-dimensional synthesis unit 26, and performs a two-dimensional synthesis image G for each scene.
Generate RZ. However, when the three-dimensional shape model DSH acquired from the head image generation unit 45 is the same as that of the previous scene and the size information NM2 has the same value, the head image GR2 generated for the previous scene is used. To generate a two-dimensional composite image GRZ.

【0073】動画生成部48は、生成された2次元合成
画像GRZの出力のタイミングを制御し、図14に示す
ように動画MVを生成する。本実施形態によると、1つ
のユーザHMの3次元計測データKDTを用いて、様々
な顔の向き、顔のサイズ、または表情をした登場人物M
Lの動画MVを容易に生成することができる。
The moving image generator 48 controls the output timing of the generated two-dimensional composite image GRZ, and generates a moving image MV as shown in FIG. According to the present embodiment, using the three-dimensional measurement data KDT of one user HM, a character M having various face orientations, face sizes, or facial expressions is used.
The L moving image MV can be easily generated.

【0074】また、所定の場合は、前のシーンと同じ3
次元形状データKDTまたは2次元合成画像GRZを用
いることができるので、一部のシーンについて頭部画像
GR2を生成し記憶する処理を省略することができる。
したがって、全体の処理速度を高め、記憶容量の削減を
図ることができる。
Further, in a predetermined case, the same 3
Since the dimensional shape data KDT or the two-dimensional composite image GRZ can be used, the process of generating and storing the head image GR2 for some scenes can be omitted.
Therefore, the overall processing speed can be increased, and the storage capacity can be reduced.

【0075】上に述べた2つの実施形態では、人間の頭
部について標準モデルを用いて形状などの変形を行い、
2次元画像を生成したが、その他種々の物体について同
様の方法で2次元画像を生成してもよい。
In the two embodiments described above, the shape and the like of the human head are deformed using a standard model.
Although the two-dimensional image has been generated, a two-dimensional image may be generated for other various objects by the same method.

【0076】また、標準モデルを3次元計測データにフ
ィッティングする方法として、全体のフィッティングの
後、さらに、細かな形状の部分のみを局所的にフィッテ
ィングする方法などを用いてもよい。さらに、上に述べ
た方法以外の方法を用いてもよい。
As a method of fitting the standard model to the three-dimensional measurement data, a method of locally fitting only a finely shaped portion after the entire fitting may be used. Further, a method other than the method described above may be used.

【0077】画像生成装置1または画像生成装置3の全
体または各部の構成、処理内容、処理順序などは、本発
明の趣旨に沿って適宜変更することができる。
The configuration, processing contents, processing order, and the like of the entire image generating device 1 or the image generating device 3 can be changed as appropriate in accordance with the gist of the present invention.

【0078】[0078]

【発明の効果】本発明によると、登場人物の顔の向き、
サイズ、または表情などに応じた2次元画像または動画
を容易に生成することができる。
According to the present invention, the orientation of a character's face,
It is possible to easily generate a two-dimensional image or a moving image according to the size or the expression.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る画像生成装置を示すブロック図で
ある。
FIG. 1 is a block diagram showing an image generation device according to the present invention.

【図2】標準モデルおよび3次元形状モデルの例を示す
図である。
FIG. 2 is a diagram illustrating an example of a standard model and a three-dimensional shape model.

【図3】ベース画像の例を示す図である。FIG. 3 is a diagram illustrating an example of a base image.

【図4】3次元形状モデルの生成の処理の流れを説明す
るフローチャートである。
FIG. 4 is a flowchart illustrating a flow of a process of generating a three-dimensional shape model.

【図5】標準モデルの例を示す図である。FIG. 5 is a diagram showing an example of a standard model.

【図6】2次元合成画像の例を示す図である。FIG. 6 is a diagram illustrating an example of a two-dimensional composite image.

【図7】変形処理の流れを説明するフローチャートであ
る。
FIG. 7 is a flowchart illustrating a flow of a deformation process.

【図8】標準モデルの面Sと3次元計測データの点Pと
を模式的に示す図である。
FIG. 8 is a diagram schematically showing a plane S of a standard model and a point P of three-dimensional measurement data.

【図9】標準モデルの異常変形を防ぐための仮想バネを
説明するための図である。
FIG. 9 is a diagram for explaining a virtual spring for preventing abnormal deformation of the standard model.

【図10】点Pに対する面Sの種々のフィッティングの
例を示す図である。
FIG. 10 is a diagram showing examples of various fittings of a surface S to a point P.

【図11】画像生成装置の処理の流れを説明するフロー
チャートである。
FIG. 11 is a flowchart illustrating a flow of a process performed by the image generation apparatus.

【図12】第二の実施形態における動画生成装置を示す
ブロック図である。
FIG. 12 is a block diagram illustrating a moving image generation device according to a second embodiment.

【図13】連続するシーンのベース画像の例を示す図で
ある。
FIG. 13 is a diagram illustrating an example of a base image of a continuous scene.

【図14】ある連続するシーンの動画の例を示す図であ
る。
FIG. 14 is a diagram illustrating an example of a moving image of a certain continuous scene.

【符号の説明】[Explanation of symbols]

1、3 画像生成装置 12 標準モデル記憶部(標準モデル記憶手段) 13、33 ベース画像記憶部(情報記憶手段) 21 3次元モデル生成部(変形手段) 22、42 3次元モデル記憶部(3次元データ記憶手
段) 23、43 シーン設定部(シーン選択手段) 25、45 頭部画像生成部(2次元画像生成手段) 26 2次元合成部(重ね合わせ手段) 46 2次元合成部(合成手段) 47 シーン比較部(比較手段) DS 標準モデル(3次元データ) GR1 ベース画像(第一の2次元画像) GR2 頭部画像(第二の2次元画像) GRZ 2次元合成画像 NM1 位置情報 NM2 サイズ情報(大きさ情報) NM3 方向情報 NM4 表情情報
1, 3 image generation device 12 standard model storage unit (standard model storage unit) 13, 33 base image storage unit (information storage unit) 21 three-dimensional model generation unit (deformation unit) 22, 42 three-dimensional model storage unit (three-dimensional Data storage unit) 23, 43 Scene setting unit (scene selection unit) 25, 45 Head image generation unit (2D image generation unit) 26 2D synthesis unit (overlaying unit) 46 2D synthesis unit (synthesis unit) 47 Scene comparison unit (comparison means) DS standard model (three-dimensional data) GR1 base image (first two-dimensional image) GR2 head image (second two-dimensional image) GRZ two-dimensional composite image NM1 position information NM2 size information ( Size information) NM3 Direction information NM4 Expression information

───────────────────────────────────────────────────── フロントページの続き (72)発明者 栃本 茂昭 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 掃部 幸一 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2C001 BA00 BA06 BC00 BC05 BC10 CB01 CC02 CC08 5B050 AA08 BA08 BA11 BA12 CA07 EA05 EA06 EA12 EA13 EA19 EA24 EA27 FA02 FA10 5B057 AA20 CA12 CA13 CA16 CA17 CB12 CB16 CC03 CD11 CD14 CE08 DA07 DA16 DB03 DC05 DC16 5C082 AA06 CA32 CA42 CA52 CA56 CB05 DA86 MM02 MM08 MM09 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Shigeaki Tochimoto 2-3-13-1 Azuchicho, Chuo-ku, Osaka-shi, Osaka Inside Osaka International Building Minolta Co., Ltd. 2-3-1-3 Osaka International Building Minolta Co., Ltd. F-term (reference) 2C001 BA00 BA06 BC00 BC05 BC10 CB01 CC02 CC08 5B050 AA08 BA08 BA11 BA12 CA07 EA05 EA06 EA12 EA13 EA19 EA24 EA27 FA02 FA10 5B057 AA20 CA12 CB12 CA16 CB CC03 CD11 CD14 CE08 DA07 DA16 DB03 DC05 DC16 5C082 AA06 CA32 CA42 CA52 CA56 CB05 DA86 MM02 MM08 MM09

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】複数の2次元画像を合成して1つの2次元
合成画像を生成する画像生成装置であって、 第一の2次元画像に第二の2次元画像を重ね合わせる重
ね合わせ手段と、 物体の3次元データを記憶する3次元データ記憶手段
と、 前記3次元データから第二の2次元画像を生成する2次
元画像生成手段と、 前記第一の2次元画像に重ね合わされる前記第二の2次
元画像に係る前記物体の位置情報、大きさ情報、および
方向情報を各シーンごとに記憶する情報記憶手段と、 シーンを順次選択するシーン選択手段と、を有し、 前記2次元画像生成手段は、現在選択されているシーン
に対応する前記大きさ情報および前記方向情報に基づい
て前記第二の2次元画像を生成し、 前記重ね合わせ手段は、前記位置情報に基づく位置に前
記第二の2次元画像を重ね合わせる、 ことを特徴とする画像生成装置。
1. An image generating apparatus for generating a two-dimensional composite image by synthesizing a plurality of two-dimensional images, comprising: superimposing means for superimposing a second two-dimensional image on a first two-dimensional image; A three-dimensional data storage unit that stores three-dimensional data of the object; a two-dimensional image generation unit that generates a second two-dimensional image from the three-dimensional data; and the second one that is superimposed on the first two-dimensional image. Information storage means for storing, for each scene, position information, size information, and direction information of the object relating to the two two-dimensional images; and scene selection means for sequentially selecting the scenes. A generating unit that generates the second two-dimensional image based on the size information and the direction information corresponding to a currently selected scene; and the superimposing unit generates the second two-dimensional image at a position based on the position information. Two two An image generating apparatus, comprising: superimposing a two-dimensional image.
【請求項2】前記3次元データ記憶手段は、人間の頭部
の3次元データを記憶し、 前記情報記憶手段は、前記第一の2次元画像に重ね合わ
される前記第二の2次元画像に係る前記人間の顔の表情
情報を各シーンごとに記憶し、 前記2次元画像生成手段は、前記表情情報に基づいた表
情になるように前記人間の頭部の3次元データから第二
の2次元画像を生成する、 請求項1記載の画像生成装置。
2. The three-dimensional data storage means stores three-dimensional data of a human head, and the information storage means stores the second two-dimensional image superimposed on the first two-dimensional image. The facial expression information of the human face is stored for each scene, and the two-dimensional image generating means converts the two-dimensional image from the three-dimensional data of the human head into a facial expression based on the facial expression information. The image generation device according to claim 1, wherein the image generation device generates an image.
【請求項3】人間の頭部の標準モデルを記憶する標準モ
デル記憶手段と、 人間の顔を正面から撮影して取得された3次元計測デー
タに基づいて前記標準モデルを変形する変形手段と、を
有し、 前記3次元データ記憶手段は、前記変形手段によって変
形された前記標準モデルを3次元データとして記憶す
る、 請求項2記載の画像生成装置。
3. A standard model storing means for storing a standard model of a human head; a deforming means for deforming the standard model based on three-dimensional measurement data obtained by photographing a human face from the front; The image generation device according to claim 2, further comprising: the three-dimensional data storage unit stores the standard model deformed by the deformation unit as three-dimensional data.
【請求項4】1つのシーンにおける前記第二の2次元画
像を重ね合わせるための前記大きさ情報および前記方向
情報と、その次のシーンにおける前記第二の2次元画像
を重ね合わせるための前記大きさ情報および前記方向情
報と、をそれぞれ比較する比較手段を有し、 前記比較手段による比較の結果、いずれかに変化がある
と判断される場合は、前記2次元画像生成手段は、次の
シーンの前記第二の2次元画像を生成し、 いずれにも変化がないと判断される場合は、前記2次元
画像生成手段による前記第二の2次元画像の生成を行わ
ず、1つのシーンの前記第二の2次元画像を次のシーン
の前記第二の2次元画像として用いる、 請求項1ないし請求項3のいずれかに記載の画像生成装
置。
4. The size information and the direction information for superimposing the second two-dimensional image in one scene and the size information for superimposing the second two-dimensional image in the next scene. And the direction information is compared with each other. If it is determined that there is a change in any of the results of the comparison by the comparing means, the two-dimensional image generating means The second two-dimensional image is generated. If it is determined that there is no change in any of the two-dimensional images, the second two-dimensional image is not generated by the two-dimensional image generation unit, and the one- The image generation device according to any one of claims 1 to 3, wherein a second two-dimensional image is used as the second two-dimensional image of a next scene.
JP2001012793A 2001-01-22 2001-01-22 Image generator Pending JP2002216161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001012793A JP2002216161A (en) 2001-01-22 2001-01-22 Image generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001012793A JP2002216161A (en) 2001-01-22 2001-01-22 Image generator

Publications (1)

Publication Number Publication Date
JP2002216161A true JP2002216161A (en) 2002-08-02

Family

ID=18879743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001012793A Pending JP2002216161A (en) 2001-01-22 2001-01-22 Image generator

Country Status (1)

Country Link
JP (1) JP2002216161A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005024728A1 (en) * 2003-09-03 2005-03-17 Nec Corporation Form changing device, object action encoding device, and object action decoding device
WO2007032122A1 (en) * 2005-09-15 2007-03-22 Sony Computer Entertainment Inc. Game control program, game machine, and game control method
JP2009273116A (en) * 2008-04-07 2009-11-19 Fujifilm Corp Image processing device, image processing method, and program
CN108537110A (en) * 2017-03-01 2018-09-14 索尼公司 Generate the device and method based on virtual reality of three-dimensional face model

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005024728A1 (en) * 2003-09-03 2005-03-17 Nec Corporation Form changing device, object action encoding device, and object action decoding device
US7668401B2 (en) 2003-09-03 2010-02-23 Nec Corporation Form changing device, object action encoding device, and object action decoding device
WO2007032122A1 (en) * 2005-09-15 2007-03-22 Sony Computer Entertainment Inc. Game control program, game machine, and game control method
JP2007075467A (en) * 2005-09-15 2007-03-29 Sony Computer Entertainment Inc Game control program, game device, and game control method
JP4646001B2 (en) * 2005-09-15 2011-03-09 株式会社ソニー・コンピュータエンタテインメント Game control program
US8231468B2 (en) 2005-09-15 2012-07-31 Sony Computer Entertainment Inc. Game control program, game machine, and game control method
JP2009273116A (en) * 2008-04-07 2009-11-19 Fujifilm Corp Image processing device, image processing method, and program
CN108537110A (en) * 2017-03-01 2018-09-14 索尼公司 Generate the device and method based on virtual reality of three-dimensional face model
JP2018170005A (en) * 2017-03-01 2018-11-01 ソニー株式会社 Virtual reality-based apparatus and method to generate three-dimensional (3d) human face model using image and depth data
US10572720B2 (en) 2017-03-01 2020-02-25 Sony Corporation Virtual reality-based apparatus and method to generate a three dimensional (3D) human face model using image and depth data
CN108537110B (en) * 2017-03-01 2022-06-14 索尼公司 Virtual reality-based device and method for generating three-dimensional face model

Similar Documents

Publication Publication Date Title
US6654018B1 (en) Audio-visual selection process for the synthesis of photo-realistic talking-head animations
US20110115798A1 (en) Methods and systems for creating speech-enabled avatars
JP4473754B2 (en) Virtual fitting device
US7990384B2 (en) Audio-visual selection process for the synthesis of photo-realistic talking-head animations
US6967658B2 (en) Non-linear morphing of faces and their dynamics
JP5344358B2 (en) Face animation created from acting
US7027054B1 (en) Do-it-yourself photo realistic talking head creation system and method
KR101794731B1 (en) Method and device for deforming a template model to create animation of 3D character from a 2D character image
Yang et al. Facial expression editing in video using a temporally-smooth factorization
US20070009180A1 (en) Real-time face synthesis systems
US20020024519A1 (en) System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character
US10467793B2 (en) Computer implemented method and device
US20030085901A1 (en) Method and system for the automatic computerized audio visual dubbing of movies
Kalberer et al. Face animation based on observed 3d speech dynamics
JP2002269580A (en) Animation creating system
JPH09305798A (en) Image display device
KR100317138B1 (en) Three-dimensional face synthesis method using facial texture image from several views
Kalberer et al. Realistic face animation for speech
JP2002216161A (en) Image generator
JP3055666B2 (en) 3D image creation device
JP4077622B2 (en) 3D human moving image generation system
WO2022075152A1 (en) Information processing device, information processing method, and information distribution system
US20040085320A1 (en) Storage medium storing animation image generating program
WO2003049039A1 (en) Performance-driven facial animation techniques
JP2784097B2 (en) Image synthesizer

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704