JP4623320B2 - Three-dimensional shape estimation system and image generation system - Google Patents

Three-dimensional shape estimation system and image generation system Download PDF

Info

Publication number
JP4623320B2
JP4623320B2 JP2007223223A JP2007223223A JP4623320B2 JP 4623320 B2 JP4623320 B2 JP 4623320B2 JP 2007223223 A JP2007223223 A JP 2007223223A JP 2007223223 A JP2007223223 A JP 2007223223A JP 4623320 B2 JP4623320 B2 JP 4623320B2
Authority
JP
Japan
Prior art keywords
illumination
data
shape
dimensional
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007223223A
Other languages
Japanese (ja)
Other versions
JP2008016054A (en
Inventor
敦 丸亀
仁 今岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007223223A priority Critical patent/JP4623320B2/en
Publication of JP2008016054A publication Critical patent/JP2008016054A/en
Application granted granted Critical
Publication of JP4623320B2 publication Critical patent/JP4623320B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ある物体が写っている二次元画像からその物体の三次元形状を推定するシステム、その方法、及びそのプログラムに関する。また、本発明は、ある物体が写っている二次元画像から、照明条件の異なる二次元画像、あるいは照明条件及びその物体の向きが異なる二次元画像を生成するシステム、その方法、及びそのプログラムに関する。   The present invention relates to a system, a method, and a program for estimating a three-dimensional shape of an object from a two-dimensional image showing the object. The present invention also relates to a system, a method, and a program for generating a two-dimensional image with different illumination conditions or a two-dimensional image with different illumination conditions and the direction of the object from a two-dimensional image in which a certain object is captured. .

二次元画像から物体の三次元形状を構成・推定する一般的な技術として、例えば、特開平11−242745号公報(特許文献1)に開示された技術が知られている。この技術によれば、2台以上のカメラで撮影されたステレオ/多眼画像や、可視光や赤外光で照射された既知パタンが撮影されたパタン照射画像などが用いられる。対象の形状が限定されている場合には、その形状による制約を利用することによって、一つの画像からその対象の三次元形状を推定することも可能である。例えば、建物のように鉛直線と水平線が直角に交差する場合や、平面上に繰り返し模様などの特定パタンが描かれている場合、消失点原理や複比などの幾何学情報を用いることによって、対象の三次元形状を計算できることもある。しかしながら、「顔」の場合、すなわち、形状に平面や球体のような定型的な幾何的な制約がなく、色・輝度にも特定パタンがない対象に関しては、上述の一般的なステレオ/多眼画像やパタン照射画像などが用いられている。   As a general technique for constructing and estimating a three-dimensional shape of an object from a two-dimensional image, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 11-242745 (Patent Document 1) is known. According to this technique, a stereo / multi-view image captured by two or more cameras, a pattern irradiation image obtained by capturing a known pattern irradiated with visible light or infrared light, or the like is used. When the shape of the target is limited, it is possible to estimate the three-dimensional shape of the target from one image by using the restriction by the shape. For example, when a vertical line and a horizontal line intersect at right angles like a building, or when a specific pattern such as a repeating pattern is drawn on a plane, by using geometric information such as the vanishing point principle or cross ratio, Sometimes the three-dimensional shape of the object can be calculated. However, in the case of a “face”, that is, an object that does not have a regular geometrical restriction such as a plane or a sphere and does not have a specific pattern in color and brightness, the above-described general stereo / multi-view Images and pattern irradiation images are used.

しかしながら、このような方法によれば、複数台のカメラ(ステレオ/多眼カメラ)やパタン光を照射するパタン照射器、赤外光などの光を検出するためのカメラなど、通常のカメラ撮影とは異なる計測専用の装置が必要となる。このことは、コストの増大や、計測ができる環境が制約されるといった問題を引き起こす。更に、撮影時のカメラの位置やパタン照射器の照射位置といった計測時の情報を保存しておく必要がある。このことは、計測環境が制約されることや、あらかじめ計測を目的にした環境で撮影された画像しか用いることができないといった問題を引き起こす。「顔」は、計測を考慮せずに単一の画像として撮像されることが多い。従って、この従来技術では、このような単一の顔画像から顔の三次元形状を推定することは不可能である。   However, according to such a method, normal camera photography such as a plurality of cameras (stereo / multi-lens cameras), a pattern irradiator that emits pattern light, a camera for detecting light such as infrared light, etc. Requires a different instrument for measurement. This causes problems such as an increase in cost and an environment in which measurement is possible. Furthermore, it is necessary to store information at the time of measurement such as the position of the camera at the time of shooting and the irradiation position of the pattern irradiator. This causes problems that the measurement environment is restricted and that only images that have been previously captured in an environment intended for measurement can be used. The “face” is often captured as a single image without taking measurement into consideration. Therefore, in this prior art, it is impossible to estimate the three-dimensional shape of a face from such a single face image.

上記に関連して、特開2001−84362号公報(特許文献2)に開示された技術によれば、表面反射率が略一定である部分を含む3次元形状を有する物体が、実質的な単一光源下において撮影される。この撮影により得られる画像に基づいて、上記光源の方向と上記物体の3次元形状とが推定される。また、特開平5−266173号公報(特許文献3)に開示された顔分類システムは、顔を3次元フレームの2次元表示内に位置させる第1手段と、該表示内の顔を検出する第2手段と、顔の特徴ベクトルを発生させる第3手段と、今検出された顔の特徴ベクトルを先に検出された顔の特徴ベクトルと比較し今検出された顔が先に検出された顔に一致するかを決定する第4手段とを備える。また、国際公開WO−02/007095−A1(特許文献4)には、時系列的に取り込まれる入力画像から人物の顔の向きを逐次推定する顔の3次元方向追跡装置が開示されている。   In relation to the above, according to the technique disclosed in Japanese Patent Laid-Open No. 2001-84362 (Patent Document 2), an object having a three-dimensional shape including a portion having a substantially constant surface reflectance is substantially single. Photographed under one light source. Based on the image obtained by this photographing, the direction of the light source and the three-dimensional shape of the object are estimated. In addition, a face classification system disclosed in Japanese Patent Laid-Open No. 5-266173 (Patent Document 3) includes first means for positioning a face in a two-dimensional display of a three-dimensional frame, and a first means for detecting a face in the display. 2 means, a third means for generating a face feature vector, and comparing the face feature vector detected now with the face feature vector detected previously, And a fourth means for determining whether or not they match. In addition, International Publication WO-02 / 007095-A1 (Patent Document 4) discloses a face three-dimensional direction tracking device that sequentially estimates the face direction of a person from an input image captured in time series.

顔は平面や球体のような定型的な幾何学形状を有していないが、目や口といった特徴点の概略的な配置やトポロジカルな形状は同じである。標準的な顔からの特徴点の配置のずれの大小によって、個々の異なる顔形状が生成され得る。更に、撮影された顔画像に関しては、圧倒的に正面を向いた画像が多いので、顔画像においてもトポロジカルな形状の制約はある。このような観点から、複数の人物の三次元顔形状から得られる学習型のモデルを用いることによって、単一の顔画像から三次元顔形状の推定が行われている(非特許文献1)。しかしながら、この方法によれば、顔画像と学習モデルを合わせるために、顔画像中の特徴点を手動で指定する必要があった。   The face does not have a regular geometric shape such as a plane or a sphere, but the general arrangement and topological shape of feature points such as eyes and mouth are the same. Individual different face shapes can be generated depending on the amount of deviation of the feature point arrangement from the standard face. Furthermore, as for the captured face image, there are a lot of images facing the front, so the topological shape of the face image is also limited. From such a viewpoint, a 3D face shape is estimated from a single face image by using a learning type model obtained from the 3D face shapes of a plurality of persons (Non-patent Document 1). However, according to this method, it is necessary to manually specify feature points in the face image in order to match the face image with the learning model.

特開平11−242745号公報Japanese Patent Laid-Open No. 11-242745 特開2001−84362号公報JP 2001-84362 A 特開平5−266173号公報JP-A-5-266173 国際公開WO−02/007095−A1International Publication WO-02 / 007095-A1 T. Vetter et al., "A Morphable Model For The Synthesis of 3D Faces", ACM Conf. SIGGRAPH 99, pp. 187-194, 1999.T. Vetter et al., "A Morphable Model For The Synthesis of 3D Faces", ACM Conf. SIGGRAPH 99, pp. 187-194, 1999.

本発明の1つの目的は、特別な計測装置を用いることなく、ある物体が写っている単一の二次元画像からその物体の三次元形状を推定することができる技術を提供することにある。   One object of the present invention is to provide a technique capable of estimating the three-dimensional shape of an object from a single two-dimensional image showing the object without using a special measuring device.

複数の物体に共通の照明基底データと該照明基底データに対応する三次元形状情報を予め準備する。ある物体の二次元画像に最も類似する画像を表す照明基底データと照明基底データの重みと照明ベクトルとの組み合わせを求め、照明基底データと照明基底データの重みから定まるある物体の照明基底を偏微分して相対形状情報を求める。二次元画像と相対形状情報との間の特徴点の位置関係を求める。位置関係を利用して三次元形状情報を補正して上記ある物体の三次元形状情報とする。   Illumination basis data common to a plurality of objects and three-dimensional shape information corresponding to the illumination basis data are prepared in advance. The combination of the illumination base data representing the image most similar to the two-dimensional image of an object, the weight of the illumination base data, and the illumination vector is obtained, and the illumination base of the object determined from the weight of the illumination base data and the illumination base data is partially differentiated Relative shape information is obtained. The positional relationship of feature points between the two-dimensional image and the relative shape information is obtained. The three-dimensional shape information of the certain object is corrected by correcting the three-dimensional shape information using the positional relationship.

本発明によれば、特別な計測装置を用いることなく、ある物体が写っている単一の二次元画像からその物体の三次元形状を推定することが可能となる。よって、コストが低減される。   According to the present invention, it is possible to estimate the three-dimensional shape of an object from a single two-dimensional image in which the object is captured without using a special measurement device. Thus, the cost is reduced.

添付図面を参照して、本発明による三次元形状推定システム、三次元形状推定プログラム、三次元形状推定方法、画像生成システム、画像生成プログラム、及び画像生成方法を説明する。   A three-dimensional shape estimation system, a three-dimensional shape estimation program, a three-dimensional shape estimation method, an image generation system, an image generation program, and an image generation method according to the present invention will be described with reference to the accompanying drawings.

まず、本発明の実施の形態の説明で用いられる概念を説明する。本発明の実施の形態においては、三次元形状が推定される対象物体として、人間の「顔」が例示される。   First, the concept used in the description of the embodiment of the present invention will be described. In the embodiment of the present invention, a human “face” is exemplified as a target object whose three-dimensional shape is estimated.

図1は、ある顔の三次元形状を表現する「形状関数」を説明するための図である。このような物体の三次元形状は、例えば、レンジファインダによって計測することが可能である。レンジファインダは、物体の形状(相対位置情報)や色情報を取得してコンピュータに取り込む装置である。レンジファインダによって、物体表面の正面座標x,y及び奥行きの座標zが得られる。すなわち、顔の三次元形状は、図1に示されるようにxyz座標系で表され、その三次元形状を表現する「形状関数z」は、次の式で与えられる。   FIG. 1 is a diagram for explaining a “shape function” that expresses a three-dimensional shape of a certain face. The three-dimensional shape of such an object can be measured by, for example, a range finder. The range finder is a device that acquires the shape (relative position information) and color information of an object and loads them into a computer. By the range finder, the front surface coordinates x and y and the depth coordinate z of the object surface are obtained. That is, the three-dimensional shape of the face is represented in the xyz coordinate system as shown in FIG. 1, and the “shape function z” representing the three-dimensional shape is given by the following equation.

Figure 0004623320
Figure 0004623320

また、この形状関数zの偏微分形は、次の式で与えられる。   The partial differential form of the shape function z is given by the following equation.

Figure 0004623320
Figure 0004623320

この関数群(f,f)は、形状関数zの微分情報を示し、物体表面の曲率といった物体の相対的な形状を表現するためのパラメータとなる。そのため、この関数群(f,f)は、以下、「相対形状関数」と参照される。 This function group (f x , f y ) indicates differential information of the shape function z and serves as a parameter for expressing the relative shape of the object such as the curvature of the object surface. Therefore, this function group (f x , f y ) is hereinafter referred to as “relative shape function”.

また、図2は、ある顔の二次元画像を示す概略図である。この二次元画像は、xy平面上で表現され、図2においては、顔の横方向がx方向、顔の縦方向がy方向に対応している。また、x、y方向の画素数は、それぞれw,hで与えられる。つまり、この二次元画像の総画素数sは、s=w×hで与えられる。   FIG. 2 is a schematic view showing a two-dimensional image of a certain face. This two-dimensional image is expressed on the xy plane. In FIG. 2, the horizontal direction of the face corresponds to the x direction and the vertical direction of the face corresponds to the y direction. The number of pixels in the x and y directions is given by w and h, respectively. That is, the total number of pixels s of this two-dimensional image is given by s = w × h.

顔の二次元画像は、輝度情報や色情報を含んでいる。この輝度・色情報は、顔の形状の反射によって決まるため、顔の位置、姿勢が同じであれば、複数の照明を宛てて撮影することによって、顔形状を推定することが可能となる。このような考え方の一つに、Peter N. Belhumeur et al., "What Is the Set of Images of an Object Under All Possible Illumination Conditions ?", International Journal of Computer Vision, Vol. No.28, pp. 245-260, 1998、に記載されてる「照明基底(illumination basis)」がある。この照明基底(測地照明基底、GIB:Geodesic Illumination Basis)は、顔表皮各位置における、照明変動の記述子である。   The two-dimensional image of the face includes luminance information and color information. Since this luminance / color information is determined by reflection of the shape of the face, it is possible to estimate the face shape by photographing to a plurality of illuminations if the face position and posture are the same. One such idea is Peter N. Belhumeur et al., "What Is the Set of Images of an Object Under All Possible Illumination Conditions?", International Journal of Computer Vision, Vol. No. 28, pp. 245. -260, 1998, there is an "illumination basis". This illumination base (geodesic illumination basis, GIB) is a descriptor of illumination variation at each position of the face epidermis.

まず、二次元画像のi番目の画素Pにおける、顔表面の拡散反射率(diffuse reflectance)がaで与えられ、法線ベクトルnがn=(ni,x,ni,y,ni,z)で与えられるとする。また、その画素Pでの照明方向を示す照明輝度ベクトルsが、s=(s,s,s)で与えられるとする。この時、その画素Pでの「輝度X」は、次の式で与えられる。 First, the diffuse reflectance of the face surface at the i-th pixel P i of the two-dimensional image is given by a i , and the normal vector n i is n i = (n i, x , n i, y , and it is given by n i, z). Further, it is assumed that an illumination luminance vector s indicating an illumination direction at the pixel P i is given by s = (s x , s y , s z ). At this time, “luminance X i ” at the pixel P i is given by the following equation.

Figure 0004623320
ここで、ベクトルbは、次の式で与えられる。
Figure 0004623320
Here, the vector b i is given by the following equation.

Figure 0004623320
Figure 0004623320

よって、二次元画像に含まれる全ての画素pに対する輝度Xを示す「輝度ベクトルX」は、次の式で与えられる。 Therefore, the “luminance vector X” indicating the luminance X i for all the pixels p i included in the two-dimensional image is given by the following equation.

Figure 0004623320
Figure 0004623320

これらの式において、拡散反射率aと法線ベクトルn、すなわちベクトルbは、物体の形状・性質にだけ依存し、照明の強度・方向には依存しない。照明を変えたときに変動するのは、照明強度ベクトルsである。照明を変えたときに作成される二次元画像の輝度ベクトルXの集合Iは、次のように表される。 In these equations, the diffuse reflectance a i and the normal vector n i , that is, the vector b i depend only on the shape / property of the object and do not depend on the intensity / direction of the illumination. The illumination intensity vector s changes when the illumination is changed. A set I of the luminance vectors X of the two-dimensional image created when the illumination is changed is expressed as follows.

Figure 0004623320
ここで、Bは、次のように表される
Figure 0004623320
Here, B is expressed as follows

Figure 0004623320
Figure 0004623320

つまり、B={bi,x}=(b0,x,・・・,bs,x)であり、B={bi,y}=(b0,y,・・・,bs,y)であり、B={bi,z}=(b0,z,・・・,bs,z)である。そして、このBが「照明基底」と参照される。つまり、照明基底(反射情報)は、照明変動の記述子であり、照明変動に対する輝度の変化を表すことができる。また、上述のように、画像の輝度は、照明と顔形状によって決まる。従って、この照明基底(反射情報)を、顔形状に関連するパラメータであるということもできる。本発明においては、この「照明基底」という概念が用いられる。 That is, B x = {b i, x } = (b 0, x ,..., B s, x ), and B y = {b i, y } = (b 0, y ,. b s, y ), and B z = {b i, z } = (b 0, z ,..., b s, z ). Then, the B is referred to as "illumination basis". That is, the illumination base (reflection information) is a descriptor of illumination variation, and can represent a change in luminance with respect to illumination variation. Further, as described above, the brightness of the image is determined by the illumination and the face shape. Therefore, it can be said that this illumination base (reflection information) is a parameter related to the face shape. In the present invention, this concept of “illumination base” is used.

本発明は、図2に示されたある「二次元画像」から、最終的に、図1に示された「三次元形状(形状関数f(x,y))」を精度良く推定することを目的とする。また、本発明は、図2に示されたある「二次元画像」から、照明条件の異なる二次元画像、あるいは、照明条件及び顔の向きが異なる二次元画像を生成することを目的とする。このような技術は、例えば、顔個人認証技術などのセキュリティ分野、美容・整形の分野、アミューズメントの分野等に適用することが可能である。以下に、本発明の構成及び動作が詳細に記述される。   The present invention finally estimates the “three-dimensional shape (shape function f (x, y))” shown in FIG. 1 from the “two-dimensional image” shown in FIG. 2 with high accuracy. Objective. Another object of the present invention is to generate a two-dimensional image with different illumination conditions or a two-dimensional image with different illumination conditions and face orientations from a “two-dimensional image” shown in FIG. Such a technique can be applied to, for example, a security field such as a face personal authentication technique, a beauty / shaping field, an amusement field, and the like. Hereinafter, the configuration and operation of the present invention will be described in detail.

(第1の実施の形態)
図3は、本発明の第1の実施の形態に係る三次元形状推定システムの構成を示すブロック図である。この三次元形状推定システム1は、相対形状分析装置10、特徴点位置探索装置20、及び絶対形状分析装置30を備えている。相対形状分析装置10は、ある顔の二次元画像を示す顔画像データ50を受け取り、輝度情報及び予め蓄積された学習反射情報に基づいて、その顔の相対形状関数(f,f)を推定する。推定された相対形状関数(f,f)を示す相対形状データ51は、特徴点位置探索装置20及び絶対形状分析装置30に出力される。特徴点位置探索装置20は、顔画像データ50及び相対形状データ51を受け取り、両目、鼻などの顔の「特徴点」を自動的に検出する。その「特徴点」の位置を示す特徴点位置データ52は、絶対形状分析装置30に出力される。絶対形状分析装置30は、相対形状関数(f,f)、特徴点の位置及び予め蓄積された学習形状データに基づいて、その顔の形状関数f(x,y)を推定する。推定された形状関数f(x,y)を示す三次元絶対形状データ53は、絶対形状分析装置30から出力される。このように、本実施の形態に係る三次元形状推定システム1によれば、顔画像データ50(図2参照)から、三次元絶対形状データ53(図1参照)が得られる。
(First embodiment)
FIG. 3 is a block diagram showing the configuration of the three-dimensional shape estimation system according to the first embodiment of the present invention. The three-dimensional shape estimation system 1 includes a relative shape analysis device 10, a feature point position search device 20, and an absolute shape analysis device 30. The relative shape analysis apparatus 10 receives face image data 50 indicating a two-dimensional image of a certain face, and calculates a relative shape function (f x , f y ) of the face based on luminance information and learning reflection information accumulated in advance. presume. Relative shape data 51 indicating the estimated relative shape function (f x , f y ) is output to the feature point position search device 20 and the absolute shape analysis device 30. The feature point position search device 20 receives the face image data 50 and the relative shape data 51, and automatically detects “feature points” of faces such as both eyes and nose. Feature point position data 52 indicating the position of the “feature point” is output to the absolute shape analyzer 30. The absolute shape analysis apparatus 30 estimates the shape function f (x, y) of the face based on the relative shape function (f x , f y ), the position of the feature point, and the learned shape data accumulated in advance. The three-dimensional absolute shape data 53 indicating the estimated shape function f (x, y) is output from the absolute shape analyzer 30. Thus, according to the three-dimensional shape estimation system 1 according to the present embodiment, the three-dimensional absolute shape data 53 (see FIG. 1) is obtained from the face image data 50 (see FIG. 2).

以下、各装置の構成・動作が詳細に説明される。   Hereinafter, the configuration and operation of each device will be described in detail.

図4は、本発明に係る相対形状分析装置10の構成を示すブロック図である。この相対形状分析装置10は、入力部11、学習データ作成部12、記憶部13、相対形状算出部14、及び出力部15を備えている。記憶部13には、相対形状データ51及び一般化照明基底データ61が格納される。この一般化照明基底データ(第1学習データ)61は、複数の人物の顔(複数の同種の物体)に対する一般化された照明基底を示し、あらかじめ学習により蓄積される。学習データ作成部12は、この一般化照明基底データ61を作成するためのユニットであり、CPUとコンピュータプログラムによって実現される。相対形状算出部14は、相対形状データ51を作成するためのユニットであり、CPUとコンピュータプログラムによって実現される。記憶部13としては、ハードディスクドライブやメモリが例示される。   FIG. 4 is a block diagram showing the configuration of the relative shape analyzer 10 according to the present invention. The relative shape analysis apparatus 10 includes an input unit 11, a learning data creation unit 12, a storage unit 13, a relative shape calculation unit 14, and an output unit 15. The storage unit 13 stores relative shape data 51 and generalized illumination base data 61. The generalized illumination base data (first learning data) 61 indicates generalized illumination bases for a plurality of human faces (a plurality of objects of the same type), and is accumulated by learning in advance. The learning data creation unit 12 is a unit for creating the generalized illumination base data 61, and is realized by a CPU and a computer program. The relative shape calculation unit 14 is a unit for creating the relative shape data 51, and is realized by a CPU and a computer program. Examples of the storage unit 13 include a hard disk drive and a memory.

まず、一般化照明基底データ61の作成が行われる。図5は、その一般化照明基底データ61を作成する際の相対形状分析装置10の動作、すなわち学習データ作成部12の動作を示すフローチャートである。   First, the generalized illumination base data 61 is created. FIG. 5 is a flowchart showing the operation of the relative shape analyzer 10 when generating the generalized illumination base data 61, that is, the operation of the learning data generator 12.

ステップS101:
まず、複数の人物の顔に対して様々な方向から照明が照射され、撮影が行われる。これにより、テクスチャ付きの複数の三次元形状データ60が得られる。この複数人の顔の三次元形状データ60が、入力部11を介して学習データ作成部12に入力される。
Step S101:
First, illumination is applied to the faces of a plurality of persons from various directions, and photographing is performed. Thereby, a plurality of three-dimensional shape data 60 with texture is obtained. The three-dimensional shape data 60 of the faces of a plurality of people is input to the learning data creation unit 12 via the input unit 11.

ステップS102:
次に、学習データ作成部12は、上述の式(6)に基づいて、三次元形状データ60から各人の顔の照明基底Bを算出する。
Step S102:
Next, the learning data creation unit 12 calculates the illumination base B of each person's face from the three-dimensional shape data 60 based on the above equation (6).

ステップS103:
次に、学習データ作成部12は、主成分分析などの方法によって、複数の人物の顔の照明基底Bを成分A,A,…Aに分解する。これにより、一般的な顔の照明基底(一般化照明基底)Bを、次のように記述することが可能となる。
Step S103:
Next, the learning data creation section 12, by methods such as principal component analysis, component illumination bases B of the face of the plurality of persons A 1, A 2, decomposes ... A n. As a result, a general facial illumination base (generalized illumination base) B can be described as follows.

Figure 0004623320
ここで、β,β,…βは、個人ごとに異なるパラメータである。
Figure 0004623320
Here, β 1 , β 2 ,... Β m are different parameters for each individual.

ステップS104:
学習データ作成部12は、上記ステップS103で求められた一般化照明基底Bを示す一般化照明基底データ61を、記憶部13に出力し格納する。
Step S104:
The learning data creation unit 12 outputs and stores the generalized illumination base data 61 indicating the generalized illumination base B obtained in step S103 in the storage unit 13.

次に、ある人物の顔の二次元画像を示す顔画像データ50から、その人物の顔の相対形状関数(f,f)を示す相対形状データ51を推定する方法が示される。この人物の顔の向きは既知であるが、この人物の照明基底Bは未知である。図6は、相対形状分析装置10の相対形状算出部14の動作を示すフローチャートである。 Next, a method for estimating relative shape data 51 indicating a relative shape function (f x , f y ) of a person's face from face image data 50 indicating a two-dimensional image of a person's face is shown. The face orientation of this person is known, but the lighting base B of this person is unknown. FIG. 6 is a flowchart showing the operation of the relative shape calculation unit 14 of the relative shape analyzer 10.

ステップS111:
まず、ある人物の顔の二次元画像を示す顔画像データ50(図2参照)が、入力部11を介して相対形状算出部14に入力される。
Step S111:
First, face image data 50 (see FIG. 2) indicating a two-dimensional image of a person's face is input to the relative shape calculation unit 14 via the input unit 11.

ステップS112:
二次元顔画像は、輝度情報と色情報を有している。よって、相対形状算出部14は、顔画像データ50から、上述の式(5)に示される輝度ベクトルX={X}を抽出することができる。
Step S112:
The two-dimensional face image has luminance information and color information. Therefore, the relative shape calculation unit 14 can extract the brightness vector X = {X i } represented by the above-described equation (5) from the face image data 50.

ステップS113:
次に、相対形状算出部14は、記憶部13から一般化照明基底データ61を読み出し、一般化照明基底F(β,β,…β,A,A,…A)を取得する。これら輝度ベクトルX、一般化照明基底F、及び照明強度ベクトルsを用いて、相対形状算出部14は、次式で表される汎関数E1を作成する。
Step S113:
Next, the relative shape calculation unit 14 reads the generalized illumination base data 61 from the storage unit 13 and obtains the generalized illumination base F (β 1 , β 2 ,... Β m , A 1 , A 2 ,... A n ). get. Using the luminance vector X, the generalized illumination base F, and the illumination intensity vector s, the relative shape calculation unit 14 creates a functional E1 represented by the following equation.

Figure 0004623320
Figure 0004623320

ステップS114:
次に、相対形状算出部14は、この汎関数E1が最小となるパラメータβ,β,…βを求める。計算が非線形になる場合、相対形状算出部14は、山登り法など反復計算法を用いてそれらパラメータを計算する。そして、相対形状算出部14は、求められたパラメータβ,β,…βの場合の照明基底F(β,β,…β,A,A,…A)を、この顔の照明基底Bとする。このように、一般化照明基底データ(第1学習データ)61を用いることによって、ある顔の二次元画像からその顔の照明基底Bが算出される。
Step S114:
Next, the relative shape calculation unit 14 obtains parameters β 1 , β 2 ,... Β m that minimize the functional E1. When the calculation becomes nonlinear, the relative shape calculation unit 14 calculates these parameters using an iterative calculation method such as a hill climbing method. The relative shape calculation unit 14, the determined parameter beta 1, beta 2, illumination basis F in the case of ... β m (β 1, β 2, ... β m, A 1, A 2, ... A n) the , and illumination basis B * of the face. In this way, by using the generalized illumination base data (first learning data) 61, the illumination base B * of the face is calculated from the two-dimensional image of the face.

ステップS115:
照明基底Bは、上記式(7)で表されることもできる。本発明によれば、相対形状算出部14は、この照明基底Bに基づき、この顔に関する相対形状関数(f,f)を次の式によって算出する。
Step S115:
The illumination base B * can also be expressed by the above formula (7). According to the present invention, the relative shape calculation unit 14 calculates a relative shape function (f x , f y ) related to the face based on the illumination base B * by the following expression.

Figure 0004623320
Figure 0004623320

このように、ある顔の二次元画像からその顔の相対形状関数(f,f)が算出される。式(2)に示されたように、この相対形状関数(f,f)は、形状関数f(x,y)の偏微分を表す。以上の処理は、照明基底に基づく方法のみならず、画像と相対形状である微分情報を結びつけるあらゆるモデルに対して有効である。 Thus, the relative shape function (f x, f y) of the face from a two-dimensional image of a face is calculated. As shown in Expression (2), this relative shape function (f x , f y ) represents a partial differentiation of the shape function f (x, y). The above processing is effective not only for the method based on the illumination base but also for all models that link the image and differential information that is a relative shape.

ステップS116:
相対形状算出部14は、求められた相対形状関数(f,f)を示す相対形状データ51を、出力部15を介して、特徴点位置探索装置20及び絶対形状分析装置30に出力する。また、相対形状算出部14は、その相対形状データ15を、記憶部13に格納してもよい。
Step S116:
The relative shape calculation unit 14 outputs the relative shape data 51 indicating the obtained relative shape function (f x , f y ) to the feature point position search device 20 and the absolute shape analysis device 30 via the output unit 15. . The relative shape calculation unit 14 may store the relative shape data 15 in the storage unit 13.

以上に示されたように、本発明に係る相対形状分析装置10によれば、ある物体が写っている単一の二次元画像から、その物体の照明基底Bを推定することが可能となる。また、その単一の二次元画像から、その物体の相対形状関数(f,f)を推定することが可能となる。ここで、その物体を、ステレオ/多眼カメラ等の特別な撮影装置で撮影する必要はない。よって、コストが削減される。また、撮影時の情報を保存しておく必要はなく、その二次元画像の撮影環境に対する制約もない。 As described above, according to the relative shape analysis apparatus 10 according to the present invention, the illumination base B of an object can be estimated from a single two-dimensional image in which the object is reflected. Further, from the single two-dimensional image, the relative shape function of the object (f x, f y) it is possible to estimate the. Here, it is not necessary to photograph the object with a special photographing apparatus such as a stereo / multi-lens camera. Therefore, the cost is reduced. In addition, it is not necessary to store information at the time of shooting, and there is no restriction on the shooting environment of the two-dimensional image.

図7は、本発明に係る特徴点位置探索装置20の構成を示すブロック図である。この特徴点位置探索装置20は、入力部21、特徴点抽出部22、記憶部25、及び出力部26を備えている。特徴点抽出部22は、色・輝度特徴点抽出部23と形状特徴点抽出部24を含んでいる。記憶部25には、ある顔における複数の「特徴点」の位置を示す特徴点位置データ52が格納される。特徴点抽出部22は、この特徴点位置データ52を作成するためのユニットであり、CPUとコンピュータプログラムによって実現される。記憶部25としては、ハードディスクドライブやメモリが例示される。   FIG. 7 is a block diagram showing a configuration of the feature point position search apparatus 20 according to the present invention. The feature point position search device 20 includes an input unit 21, a feature point extraction unit 22, a storage unit 25, and an output unit 26. The feature point extraction unit 22 includes a color / luminance feature point extraction unit 23 and a shape feature point extraction unit 24. The storage unit 25 stores feature point position data 52 indicating the positions of a plurality of “feature points” in a certain face. The feature point extraction unit 22 is a unit for creating the feature point position data 52, and is realized by a CPU and a computer program. Examples of the storage unit 25 include a hard disk drive and a memory.

顔の「特徴点」とは、目の中心、鼻の頂点、鼻の下など、顔の特徴的な点のことである。この特徴点は、色や輝度に特徴がある「色・輝度特徴点(第1特徴点)」と、形状に特徴がある「形状特徴点(第2特徴点)」を含む。色・輝度特徴点としては、目や口が例示される。例えば、唇は周囲より強い赤み成分を有しており、東洋人の場合であれば目は黒い。よって、これらは画像に含まれる色・輝度情報から抽出することが可能である。一方、形状特徴点としては、鼻や鼻の下が例示される。これらは形状に特徴があるので、相対形状関数(f,f)を用いて抽出することが可能である。 A “feature point” of a face is a characteristic point of the face such as the center of the eye, the apex of the nose, or under the nose. This feature point includes a “color / luminance feature point (first feature point)” characterized by color and brightness and a “shape feature point (second feature point)” characterized by shape. Examples of the color / luminance feature points include eyes and mouths. For example, lips have a reddish component stronger than the surroundings, and eyes are black in the case of Orientals. Therefore, these can be extracted from the color / luminance information included in the image. On the other hand, examples of the shape feature point include the nose and the bottom of the nose. Since these are characterized by their shapes, they can be extracted using relative shape functions (f x , f y ).

図8は、本発明に係る特徴点位置探索装置20の動作を示すフローチャートである。
ステップS201:
上述の顔画像データ50及び相対形状分析装置10によって得られた相対形状データ51が、入力部21を介して特徴点抽出部22に入力される。
FIG. 8 is a flowchart showing the operation of the feature point position search apparatus 20 according to the present invention.
Step S201:
The face image data 50 and the relative shape data 51 obtained by the relative shape analyzer 10 are input to the feature point extraction unit 22 via the input unit 21.

ステップS202:
まず、色・輝度特徴点抽出部23が、顔画像データ50に含まれる色・輝度情報を用いることによって、「色・輝度特徴点」を抽出する。この色・輝度特徴点の位置に関する情報は、形状特徴点抽出部24に出力される。
Step S202:
First, the color / luminance feature point extraction unit 23 uses the color / luminance information included in the face image data 50 to extract “color / luminance feature points”. Information regarding the position of the color / luminance feature point is output to the shape feature point extraction unit 24.

ステップS203:
次に、鼻などの形状特徴点の抽出が行われる。図9は、側面から見た時のある顔の輪郭、すなわち、あるx座標における形状関数z=f(y)を示している。ここで、そのあるx座標は、両目の中心に対応しているものとする。図9に示されるように、目の位置a1から+y方向にある形状関数z=f(y)で、最初の極小点が鼻の頂点の位置a2に対応すると考えられる。また、最初の極大点が鼻の下の位置a3に対応すると考えられる。更に、次の極小点が、唇の頂点の位置a4に対応すると考えられる。よって、このような極小点・極大点を探索すればよい。ここで、顔の形状関数f(x,y)は、未だ得られていない。従って、形状特徴点抽出部24は、次の式に基づいて、顔表面の曲率Hを計算する。
Step S203:
Next, extraction of the shape feature points such as nose takes place. FIG. 9 shows a contour of a face when viewed from the side, that is, a shape function z = f (y) at a certain x coordinate. Here, it is assumed that the certain x-coordinate corresponds to the center of both eyes. As shown in FIG. 9, with the shape function z = f (y) in the + y direction from the eye position a1, it is considered that the first minimum point corresponds to the position a2 of the nose apex. Also, the first maximum point is considered to correspond to the position a3 under the nose. Further, it is considered that the next minimum point corresponds to the position a4 of the lip apex. Therefore, it is only necessary to search for such a minimum point / maximum point. Here, the face shape function f (x, y) has not yet been obtained. Therefore, the shape feature point extraction unit 24 calculates the curvature H of the face surface based on the following equation.

Figure 0004623320
Figure 0004623320

ここで、(f,f)は、相対形状データ51から知ることができる。また、fxx,fyy,fxyは、形状関数f(x,y)の二階偏微分であり、相対形状データ51が示す相対形状関数(f,f)から知ることができる。つまり、形状特徴点抽出部24は、曲率Hを計算することができる。また、両目の位置a1は、色・輝度特徴点抽出部23によって得られた色・輝度特徴点情報から知ることができる。従って、形状特徴点抽出部24は、両目の中心位置a1から+y方向で、曲率Hの最大点を鼻の頂点の位置a2として決定する。同様に、鼻の下の位置a3や、唇頂点の位置a4も決定される。このようにして、形状特徴点抽出部24は、顔の二次元画像及び相対形状関数(f,f)に基づいて、「形状特徴点」を抽出する。 Here, (f x , f y ) can be known from the relative shape data 51. Further, f xx , f yy , and f xy are second-order partial derivatives of the shape function f (x, y), and can be known from the relative shape function (f x , f y ) indicated by the relative shape data 51. That is, the shape feature point extraction unit 24 can calculate the curvature H. Further, the position a1 of both eyes can be known from the color / luminance feature point information obtained by the color / luminance feature point extraction unit 23. Therefore, the shape feature point extraction unit 24 determines the maximum point of curvature H as the nose apex position a2 in the + y direction from the center position a1 of both eyes. Similarly, the position a3 under the nose and the position a4 of the lip apex are also determined. In this manner, the shape feature point extraction unit 24 extracts “shape feature points” based on the two-dimensional image of the face and the relative shape functions (f x , f y ).

ステップS204:
特徴点抽出部22は、上記ステップS202、S203で得られた色・輝度特徴点と形状特徴点の位置を示す特徴点位置データ52を出力する。この特徴点位置データ52は、出力部26を介して絶対形状分析装置30に出力される。また、この特徴点位置データ52は、記憶部25に格納されてもよい。
Step S204:
The feature point extraction unit 22 outputs feature point position data 52 indicating the positions of the color / luminance feature points and the shape feature points obtained in steps S202 and S203. The feature point position data 52 is output to the absolute shape analyzer 30 via the output unit 26. The feature point position data 52 may be stored in the storage unit 25.

以上に示されたように、本発明に係る特徴点位置装置20によれば、ある物体が写っている単一の二次元画像から、その物体の特徴点を自動的に見つけることが可能となる。それは、相対形状分析装置10によって推定された相対形状関数(f,f)に基づいて、形状特徴点を抽出することができるからである。顔画像中の特徴点を手動で指定する必要はなくなる。 As described above, according to the feature point position device 20 according to the present invention, it is possible to automatically find a feature point of an object from a single two-dimensional image in which the object is reflected. . This is because the shape feature points can be extracted based on the relative shape function (f x , f y ) estimated by the relative shape analyzer 10. There is no need to manually specify feature points in the face image.

図10は、本発明に係る絶対形状分析装置30の構成を示すブロック図である。この絶対形状分析装置30は、入力部31、学習データ作成部32、記憶部33、絶対形状算出部34、及び出力部35を備えている。記憶部33には、三次元絶対形状データ53及び三次元形状学習データ62が格納される。この三次元形状学習データ(第2学習データ)62は、複数の人物の顔(複数の同種の物体)の三次元形状に関する情報を示し、あらかじめ学習により蓄積される。学習データ作成部32は、この三次元形状学習データ62を作成するためのユニットであり、CPUとコンピュータプログラムによって実現される。絶対形状算出部34は、三次元絶対形状データ53を作成するためのユニットであり、CPUとコンピュータプログラムによって実現される。記憶部33としては、ハードディスクドライブやメモリが例示される。   FIG. 10 is a block diagram showing the configuration of the absolute shape analyzer 30 according to the present invention. The absolute shape analysis device 30 includes an input unit 31, a learning data creation unit 32, a storage unit 33, an absolute shape calculation unit 34, and an output unit 35. The storage unit 33 stores 3D absolute shape data 53 and 3D shape learning data 62. The three-dimensional shape learning data (second learning data) 62 indicates information related to the three-dimensional shape of a plurality of human faces (a plurality of objects of the same kind), and is accumulated by learning in advance. The learning data creation unit 32 is a unit for creating the three-dimensional shape learning data 62, and is realized by a CPU and a computer program. The absolute shape calculation unit 34 is a unit for creating the three-dimensional absolute shape data 53, and is realized by a CPU and a computer program. Examples of the storage unit 33 include a hard disk drive and a memory.

まず、三次元形状学習データ62の作成が行われる。図11は、その三次元形状学習データ62を作成する際の絶対形状分析装置30の動作、すなわち学習データ作成部32の動作を示すフローチャートである。   First, the three-dimensional shape learning data 62 is created. FIG. 11 is a flowchart showing the operation of the absolute shape analysis device 30 when creating the three-dimensional shape learning data 62, that is, the operation of the learning data creating unit 32.

ステップS301:
まず、レンジファインダ等の三次元形状計測機器を用いることによって、複数の人物の顔の三次元形状データ(形状関数z=f(x,y))が取得される。取得された三次元形状データにおいて、正面はxy面で表され、奥行きやz方向で表される(図1参照)。この複数人の顔の三次元形状データ60が、入力部31を介して学習データ作成部32に入力される。
Step S301:
First, three-dimensional shape data (shape function z = f (x, y)) of a plurality of human faces is acquired by using a three-dimensional shape measuring device such as a range finder. In the acquired three-dimensional shape data, the front is represented by the xy plane, and is represented by the depth and the z direction (see FIG. 1). The three-dimensional shape data 60 of the faces of a plurality of people is input to the learning data creation unit 32 via the input unit 31.

ステップS302:
次に、学習データ作成部32は、取得した複数の三次元形状データのそれぞれにおいて、特徴点を見つける。具体的には、学習データ作成部32は、上述の特徴点抽出部22と同様の方法で、特徴点の位置を探索する。すなわち、特徴点抽出部22が抽出する部位と同じ部位が抽出される。ここで、各々の顔の形状関数z=f(x,y)がわかっているので、学習データ作成部32は、その形状関数zを用いて特徴点の位置を探索してもよい。あるいは、この学習データの作成は事前に一度だけ行われるものなので、ユーザが手動で行ってもよい。このステップにおいて、一人一人の顔について、複数の特徴点の位置が決定される。
Step S302:
Next, the learning data creation unit 32 finds a feature point in each of the acquired plurality of three-dimensional shape data. Specifically, the learning data creation unit 32 searches for the position of the feature point by the same method as the feature point extraction unit 22 described above. That is, the same part as the part extracted by the feature point extraction unit 22 is extracted. Here, since the shape function z = f (x, y) of each face is known, the learning data creation unit 32 may search for the position of the feature point using the shape function z. Alternatively, since the learning data is created only once in advance, the user may perform it manually. In this step, the positions of a plurality of feature points are determined for each face.

ステップS303:
次に、学習データ作成部32は、抽出された複数の特徴点(部位)のうち一点を「基点O」として設定する。この「基点O」は、全ての三次元顔形状の座標を固定するための基準点(原点)であり、全ての顔で共通に設定される。例えば、この基点Oとして、顔の中心付近に存在する鼻の下が選択される。
Step S303:
Next, the learning data creation unit 32 sets one point as the “base point O” among the extracted feature points (parts). This “base point O” is a reference point (origin) for fixing the coordinates of all three-dimensional face shapes, and is commonly set for all the faces. For example, the base point O is selected below the nose present near the center of the face.

ステップS304:
次に、学習データ作成部32は、基点O以外の複数の特徴点の、基点Oに対する相対位置を計算する。例えば、図12は、ある人物の顔を示している。この顔において、両目の中心(P1,P2)、鼻の下、口の左右両端(P3,P4)の5点が特徴点として抽出されている。また、そのうち鼻の下が、基点Oとして選択されている。この時、基点(原点)Oに対する特徴点P1〜P4のそれぞれの相対位置、すなわち、基点Oを原点とする座標系における特徴点P1〜P4のぞれぞれの座標が計算される。この計算は、全ての三次元形状データ60に対して実行される。その後、学習データ作成部32は、全ての顔に対する相対位置の平均値(平均相対位置)を、各特徴点(P1,P2,P3,P4)に対して計算する。つまり、各特徴点の座標の平均値が計算され、特徴点P1〜P4のそれぞれに対する4つの平均相対位置が算出される。
Step S304:
Next, the learning data creation unit 32 calculates the relative positions of a plurality of feature points other than the base point O with respect to the base point O. For example, FIG. 12 shows a person's face. In this face, five points are extracted as feature points: the center of both eyes (P1, P2), the bottom of the nose, and the left and right ends of the mouth (P3, P4). In addition, the lower part of the nose is selected as the base point O. At this time, the relative positions of the feature points P1 to P4 with respect to the base point (origin point) O, that is, the coordinates of the feature points P1 to P4 in the coordinate system with the base point O as the origin point are calculated. This calculation is executed for all three-dimensional shape data 60. Thereafter, the learning data creation unit 32 calculates an average value (average relative position) of relative positions with respect to all the faces for each feature point (P1, P2, P3, P4). That is, the average value of the coordinates of each feature point is calculated, and four average relative positions with respect to each of the feature points P1 to P4 are calculated.

ステップS305:
次に、学習データ作成部32は、全ての顔に対して、複数の特徴点がそれぞれの平均相対位置と一致するように、形状関数f(x,y)を座標変換する。具体的には、各特徴点の周辺領域の拡大/縮小が行われる。例えば、図12において、基点Oを通る座標軸uvによって、顔が4つの領域R1〜R4に区分けされている。領域R1〜R4のそれぞれは、特徴点P1〜P4のそれぞれを含んでいる。この時、複数の特徴点P1〜P4がそれぞれの平均相対位置と一致するような拡大/縮小率で、領域R1〜R4のそれぞれが拡大/縮小される。例えば、基点Oと特徴点P1との間の距離をOP1、基点Oと領域R1内の任意の点X1との間の距離をOX1とする。また、基点Oから特徴点P1の平均相対位置への距離をOP1’とする。また、領域R1内の任意の点X1が、拡大/縮小操作によって点X1’に移動し、基点Oと点X1’との間の距離がOX1’であるとする。この時、距離OP1、OP1’、OX1、OX1’の間には、以下の関係が成り立つ。
Step S305:
Next, the learning data creation unit 32 performs coordinate conversion of the shape function f (x, y) so that the plurality of feature points coincide with the average relative positions of all the faces. Specifically, the surrounding area of each feature point is enlarged / reduced. For example, in FIG. 12, the face is divided into four regions R1 to R4 by a coordinate axis uv passing through the base point O. Each of the regions R1 to R4 includes the feature points P1 to P4. At this time, each of the regions R1 to R4 is enlarged / reduced at an enlargement / reduction rate such that the plurality of feature points P1 to P4 coincide with the respective average relative positions. For example, the distance between the base point O and the feature point P1 is OP1, and the distance between the base point O and an arbitrary point X1 in the region R1 is OX1. Further, the distance from the base point O to the average relative position of the feature point P1 is OP1 ′. Further, it is assumed that an arbitrary point X1 in the region R1 is moved to the point X1 ′ by the enlargement / reduction operation, and the distance between the base point O and the point X1 ′ is OX1 ′. At this time, the following relationship is established among the distances OP1, OP1 ′, OX1, and OX1 ′.

Figure 0004623320
Figure 0004623320

逆に、式(12)の関係が成り立つように、点X1が点X1’に移動されればよい。このようにして、領域R1〜R4の拡大/縮小が行われる。すなわち、全ての顔の形状関数f(x,y)に対して座標変換処理が行われる。この座標変換によって生成される関数は、以下、「修正形状関数z’」と参照される。修正形状関数z’は、次の式で与えられる。   Conversely, the point X1 may be moved to the point X1 'so that the relationship of the expression (12) is established. In this manner, the areas R1 to R4 are enlarged / reduced. That is, coordinate conversion processing is performed on all face shape functions f (x, y). The function generated by this coordinate transformation is hereinafter referred to as “modified shape function z ′”. The corrected shape function z 'is given by the following equation.

Figure 0004623320
Figure 0004623320

また、修正形状関数z’=g(x,y)の偏微分は、相対形状関数(f,f)に対応して、「修正相対形状関数(g,g)」と参照される。この修正相対形状関数(g,g)は、次の式で与えられる。 The partial derivative of the corrected shape function z ′ = g (x, y) is referred to as “corrected relative shape function (g x , g y )” corresponding to the relative shape function (f x , f y ). The This modified relative shape function (g x , g y ) is given by the following equation.

Figure 0004623320
尚、実際には、画像処理と同じく微分は差分に近似して計算される。
Figure 0004623320
Actually, the derivative is calculated by approximating the difference as in the image processing.

ステップS306:
次に、学習データ作成部32は、全ての顔の修正形状関数g(x,y)を用いて成分分析を行い、成分分析データを作成する。上記ステップS305で得られた全ての修正形状関数g(x,y)においては、基点Oを含めた複数の特徴点が一致している。これらを一致させて主成分分析などの成分分析が行われる。例えば、n個の修正形状関数z’があるとする。このうち第1番目の修正形状関数g(x,y)の、あるデータ(画素)の位置x,yにおける値をz で表す。ここで、kは、二次元上の画素の位置を一次元で表すためのパラメータであり、k=y×w+x(wは、x方向の画素数;図2参照)で表される。また、第n番目の修正形状関数g(x,y)のその位置kでの値は、z で表される。この時、その位置(画素)kに対して、次の式で表されるn次のベクトルZが定義される。
Step S306:
Next, the learning data creation unit 32 performs component analysis using the corrected shape function g (x, y) of all the faces, and creates component analysis data. In all the modified shape functions g (x, y) obtained in step S305, a plurality of feature points including the base point O are coincident. Component analysis such as principal component analysis is performed by matching these. For example, it is assumed that there are n modified shape function z '. Among these, the value of the first corrected shape function g (x, y) at the position x, y of certain data (pixel) is represented by z k 1 . Here, k is a parameter for representing the position of a two-dimensional pixel in one dimension, and is represented by k = y × w + x (w is the number of pixels in the x direction; see FIG. 2). The value at that position k of the n-th corrected shape function g (x, y) is expressed by z k n. At this time, for the position (pixel) k, an n-order vector Z k represented by the following equation is defined.

Figure 0004623320
Figure 0004623320

このベクトルZを画素数s(s=w×h;図2参照)だけ並べることによって、次の式で表されるs×n行列Zが得られる。 By arranging this vector Zk by the number of pixels s (s = w × h; see FIG. 2), an s × n matrix Z expressed by the following equation is obtained.

Figure 0004623320
Figure 0004623320

この行列Zを特異値分解することによって、次の式が得られる。   By performing singular value decomposition on this matrix Z, the following equation is obtained.

Figure 0004623320
Figure 0004623320

ここで、Uはs×n行列であり、V はn×n行列であり、Sはn×n対角行列である。こうして得られた行列Uの列ベクトルをして主成分を得ることができる。 Here, U z is an s × n matrix, V z t is an n × n matrix, and S z is an n × n diagonal matrix. The principal component can be obtained by using the column vector of the matrix U z thus obtained.

ステップS307:
同様に、学習データ作成部32は、全ての顔の修正相対形状関数(g,g)を用いて成分分析を行い、成分分析データを作成する。第1番目の修正相対形状関数gのある位置(画素)kにおける値をd で表す。また、第n番目の修正相対形状関数gのその位置kにおける値をd で表す。また、第1番目の修正相対形状関数gのその位置kにおける値をe で表す。また、第n番目の修正相対形状関数gのその位置kにおける値をe で表す。この時、その位置kに対して、次の式で表されるn次のベクトルD,Eが定義される。
Step S307:
Similarly, the learning data creation unit 32 performs component analysis using the corrected relative shape functions (g x , g y ) of all the faces, and creates component analysis data. A value at a certain position (pixel) k of the first modified relative shape function g x is represented by d k 1 . Also, it represents the value at the position k of the n-th modified relative shape function g x with d k n. Further, the value of the first corrected relative shape function gy at the position k is represented by e k 1 . Also, it represents the value at the position k of the n-th modified relative shape function g y in e k n. At this time, n-order vectors D k and E k represented by the following equations are defined for the position k.

Figure 0004623320
Figure 0004623320

これらベクトルD,Eを画素数s(s=w×h)だけ並べることによって、次の式で表されるs×n行列D及びs×n行列Eが得られる。 By arranging these vectors D k and E k by the number of pixels s (s = w × h), an s × n matrix D and an s × n matrix E expressed by the following equations are obtained.

Figure 0004623320
Figure 0004623320

これら行列D,Eを特異値分解することによって、次の式が得られる。   By performing singular value decomposition on these matrices D and E, the following equation is obtained.

Figure 0004623320
Figure 0004623320

Figure 0004623320
Figure 0004623320

ここで、U,Uはs×n行列であり、V ,V はn×n行列であり、S,Sはn×n対角行列である。こうして得られた行列U,Uの列ベクトルをして主成分を得ることができる。 Here, U d, U e is the s × n matrix, V d t, V e t is the n × n matrix is a S d, S e is n × n diagonal matrix. The principal components can be obtained by using column vectors of the matrices U d and U e thus obtained.

ステップS308:
学習データ作成部32は、このようにして得られた修正形状関数g(x,y)に関する情報Uz、修正相対形状関数(gx,gy)に関する情報U,U、及び各特徴点の平均相対位置を示すデータを、三次元形状学習データ62として記憶部33に格納する。
Step S308:
The learning data creation unit 32 obtains information Uz related to the corrected shape function g (x, y), information U d and U e related to the corrected relative shape function (gx, gy), and the average of each feature point thus obtained. Data indicating the relative position is stored in the storage unit 33 as the three-dimensional shape learning data 62.

次に、上述のある人物に関する相対形状データ51及び特徴点位置データ52から、その人物の顔の形状関数f(x,y)を示す三次元絶対形状データ53を推定する方法が示される。図13は、絶対形状分析装置30の絶対形状算出部34の動作を示すフローチャートである。   Next, a method for estimating the three-dimensional absolute shape data 53 indicating the shape function f (x, y) of the person's face from the relative shape data 51 and the feature point position data 52 relating to the certain person described above is shown. FIG. 13 is a flowchart showing the operation of the absolute shape calculation unit 34 of the absolute shape analysis apparatus 30.

ステップS311:
まず、相対形状分析装置10によって作成された相対形状データ51及び特徴点位置探索装置20によって作成された特徴点位置データ52が、入力部31を介して絶対形状算出部34に入力される。
Step S311:
First, the relative shape data 51 created by the relative shape analysis device 10 and the feature point position data 52 created by the feature point position search device 20 are input to the absolute shape calculation unit 34 via the input unit 31.

ステップS312:
次に、絶対形状算出部34は、特徴点位置データ52に示される複数の特徴点の位置に基づいて、相対形状データ51に示される相対形状関数(f,f)中に特徴点を設定する。また、絶対形状算出部34は、それら複数の特徴点の中から1つを「基点」として設定する。この基点は、上述のステップS303で設定された基点と同じ場所を示す。更に、絶対形状算出部34は、基点O以外の複数の特徴点の、基点Oに対する相対位置を計算する。これにより、処理中の人物の顔における複数の特徴点のそれぞれについて相対位置が得られる。
Step S312:
Next, the absolute shape calculation unit 34 calculates feature points in the relative shape function (f x , f y ) indicated in the relative shape data 51 based on the positions of the plurality of feature points indicated in the feature point position data 52. Set. Further, the absolute shape calculation unit 34 sets one of the plurality of feature points as a “base point”. This base point indicates the same location as the base point set in step S303 described above. Furthermore, the absolute shape calculation unit 34 calculates the relative positions of a plurality of feature points other than the base point O with respect to the base point O. Thereby, a relative position is obtained for each of a plurality of feature points on the face of the person being processed.

ステップS313:
次に、絶対形状算出部34は、記憶部33に格納された三次元学習データ62を読み込み、各特徴点の「平均相対位置」を取得する。そして、絶対形状算出部34は、複数の特徴点がそれぞれの平均相対位置と一致するように、相対形状関数(f,f)を座標変換する。具体的には、上述のステップS305と同様の方法で、各特徴点の周辺領域の拡大/縮小が行われる。この座標変換処理によって、相対形状データ51に示される相対形状関数(f,f)から、処理中の顔に関する修正相対形状関数z’=(g,g)が算出される(式(14)参照)。
Step S313:
Next, the absolute shape calculation unit 34 reads the three-dimensional learning data 62 stored in the storage unit 33 and acquires the “average relative position” of each feature point. Then, the absolute shape calculation unit 34 performs coordinate conversion of the relative shape function (f x , f y ) so that the plurality of feature points coincide with the respective average relative positions. Specifically, the enlargement / reduction of the peripheral area of each feature point is performed by the same method as in step S305 described above. By this coordinate conversion processing, a corrected relative shape function z ′ = (g x , g y ) relating to the face being processed is calculated from the relative shape function (f x , f y ) indicated in the relative shape data 51 (formula (14) see).

ステップS314:
次に、絶対形状算出部34は、三次元学習データ62から、複数人の修正形状関数g(x,y)に関する情報U、修正相対形状関数(g,g)に関する情報U,Uを取得する。これら学習データと上記ステップS313で算出された修正相対形状関数(g,g)に基づいて、絶対形状算出部34は、処理中の顔に関する修正形状関数g(x,y)を算出する。具体的には、ある位置k(k=y×w+x)における修正相対形状関数(g,g)の値をそれぞれg(k)及びg(k)とする時、絶対形状算出部34は、次の式で与えられる列ベクトルG及びn次の列ベクトルcを作成する。
Step S314:
Next, the absolute shape calculation unit 34 obtains, from the three-dimensional learning data 62, information U z regarding the corrected shape function g (x, y) of a plurality of persons, information U d regarding the corrected relative shape function (g x , g y ) to get the U e. Based on these learning data and the corrected relative shape function (g x , g y ) calculated in step S313, the absolute shape calculation unit 34 calculates a corrected shape function g (x, y) related to the face being processed. . Specifically, when the values of the modified relative shape functions (g x , g y ) at a certain position k (k = y × w + x) are g x (k) and g y (k), respectively, the absolute shape calculation unit 34 creates a column vector G and an n-th column vector c given by the following equations.

Figure 0004623320
Figure 0004623320

Figure 0004623320
Figure 0004623320

これら列ベクトルG、列ベクトルc及び上記三次元形状学習データ62が示す情報U,Uを用いることによって、次の式で与えられる汎関数E2が定義される。 By using the column vector G, the column vector c, and the information U d and U e indicated by the three-dimensional shape learning data 62, a functional E2 given by the following equation is defined.

Figure 0004623320
Figure 0004623320

そして、絶対形状算出部34は、この汎関数E2が最小になるn次の列ベクトルcを計算する。更に、その算出された列ベクトルcと上記三次元形状学習データ62が示す情報Uとを用いて、次の式で与えられるs次の列ベクトルG2が得られる。 Then, the absolute shape calculation unit 34 calculates an nth-order column vector c that minimizes the functional E2. Further, using the calculated column vector c and the information U z indicated by the three-dimensional shape learning data 62, an s-th column vector G2 given by the following equation is obtained.

Figure 0004623320
Figure 0004623320

ここでs(s=w×h)は画素数であり、g(k)は上記位置k(k=y×w+x)における修正形状関数g(x,y)の値である。すなわち、上記式(25)によって、処理中の顔の修正形状関数g(x,y)が算出される。   Here, s (s = w × h) is the number of pixels, and g (k) is a value of the corrected shape function g (x, y) at the position k (k = y × w + x). That is, the corrected shape function g (x, y) of the face being processed is calculated by the above equation (25).

ステップS315:
次に、絶対形状算出部34は、得られた修正形状関数g(x,y)における複数の特徴点の位置が、特徴点位置データ52が示す元の位置に戻るように、その修正形状関数g(x,y)を座標変換する。具体的には、上述のステップS305と逆の処理で、各特徴点の周辺領域の拡大/縮小が行われる。この座標変換処理によって、修正形状関数g(x,y)から、処理中の顔に関する形状関数f(x,y)が算出される。すなわち、処理中の顔の三次元形状が推定される。
Step S315:
Next, the absolute shape calculation unit 34 returns the corrected shape function so that the positions of the plurality of feature points in the obtained corrected shape function g (x, y) return to the original positions indicated by the feature point position data 52. g a (x, y) coordinate transformation. More specifically, the surrounding area of each feature point is enlarged / reduced by the reverse process of step S305 described above. By this coordinate conversion processing, a shape function f (x, y) relating to the face being processed is calculated from the corrected shape function g (x, y). That is, the three-dimensional shape of the face being processed is estimated.

ステップS316:
絶対形状算出部34は、このようにして得られた形状関数f(x,y)を示す三次元絶対形状データ53を、出力部35を介して出力する。また、絶対形状算出部34は、その三次元絶対形状データ53を、記憶部33に格納してもよい。このように、絶対形状分析装置30は、三次元形状学習データ62と特徴点位置データ52を参照することによって、相対形状データ51に示されたある顔の相対形状関数(f,f)を、その顔の形状関数f(x,y)に変換する。
Step S316:
The absolute shape calculation unit 34 outputs the three-dimensional absolute shape data 53 indicating the shape function f (x, y) thus obtained via the output unit 35. The absolute shape calculation unit 34 may store the three-dimensional absolute shape data 53 in the storage unit 33. As described above, the absolute shape analysis apparatus 30 refers to the three-dimensional shape learning data 62 and the feature point position data 52, so that the relative shape function (f x , f y ) of a certain face indicated in the relative shape data 51 is obtained. Is converted into the shape function f (x, y) of the face.

以上に説明されたように、本発明に係る三次元形状推定システム1及び三次元形状推定方法によれば、ある顔画像データ50から三次元絶対形状データ53を得ることが可能となる。すなわち、ある物体が写っている単一の二次元画像から、その物体の三次元形状を推定することが可能となる。ここで、その物体を、ステレオ/多眼カメラ等の特別な撮影装置で撮影しておく必要はない。よって、コストが削減される。また、撮影時の情報を保存しておく必要はなく、その二次元画像の撮影環境に対する制約もなくなる。その処理途中においては、その二次元画像から、その物体の照明基底Bや相対形状関数(f,f)が推定される。また、手動で指定することなく、その物体の特徴点を自動的に見つけることが可能となる。 As described above, according to the three-dimensional shape estimation system 1 and the three-dimensional shape estimation method according to the present invention, the three-dimensional absolute shape data 53 can be obtained from certain face image data 50. That is, it is possible to estimate the three-dimensional shape of an object from a single two-dimensional image in which the object is reflected. Here, it is not necessary to photograph the object with a special photographing apparatus such as a stereo / multi-lens camera. Therefore, the cost is reduced. Further, it is not necessary to store information at the time of shooting, and there are no restrictions on the shooting environment of the two-dimensional image. In the process course, from the two-dimensional image, illumination basis B and the relative shape function (f x, f y) of the object is estimated. Further, it is possible to automatically find the feature point of the object without manually specifying it.

(第2の実施の形態)
第1の実施の形態による機能は、コンピュータシステム及びコンピュータプログラムによって実現することも可能である。図14は、本発明の第2の実施の形態に係る三次元形状推定システムの構成を示すブロック図である。この三次元形状推定システム1’は、記憶装置70、演算処理装置71、入力装置72、表示装置73、データ入出力インターフェース74、及び三次元形状推定プログラム80を備えている。
(Second Embodiment)
The functions according to the first embodiment can also be realized by a computer system and a computer program. FIG. 14 is a block diagram showing a configuration of a three-dimensional shape estimation system according to the second embodiment of the present invention. The three-dimensional shape estimation system 1 ′ includes a storage device 70, an arithmetic processing device 71, an input device 72, a display device 73, a data input / output interface 74, and a three-dimensional shape estimation program 80.

記憶装置70は、ハードディスクドライブ(HDD)やRAM等のメモリである。この記憶装置70には、上述の顔画像データ50、相対形状データ51、特徴点位置データ52、三次元絶対形状データ53、一般化照明基底データ61、及び三次元形状学習データ62が格納される。演算処理装置71は、各装置に接続され、データのやりとりや各種演算を実行する。   The storage device 70 is a memory such as a hard disk drive (HDD) or a RAM. The storage device 70 stores the face image data 50, the relative shape data 51, the feature point position data 52, the three-dimensional absolute shape data 53, the generalized illumination base data 61, and the three-dimensional shape learning data 62. . The arithmetic processing device 71 is connected to each device, and exchanges data and performs various operations.

入力装置72としては、キーボードやマウスが例示される。ユーザは、この入力装置72を用いることによって、データを入力したり各種コマンドを指定することができる。また、表示装置73はディスプレイであり、この表示装置73によって各種情報がユーザに通知される。ユーザは、通知された情報に基づいて、新たなコマンドを入力したりデータを入力したりできる。データ入出力インターフェース74は、顔画像データ50や三次元形状データ60の入力に用いられる。そのため、データ入出力インターフェース74は、レンジファインダやデジタルカメラ等の撮像装置、CD/DVDドライブ、他の端末などに接続される。   Examples of the input device 72 include a keyboard and a mouse. By using the input device 72, the user can input data and specify various commands. The display device 73 is a display, and various information is notified to the user by the display device 73. The user can input a new command or data based on the notified information. The data input / output interface 74 is used for inputting the face image data 50 and the three-dimensional shape data 60. Therefore, the data input / output interface 74 is connected to an imaging device such as a range finder or a digital camera, a CD / DVD drive, another terminal, and the like.

三次元形状推定プログラム80は、演算処理装置71によって実行されるソフトウェアプログラムである。この三次元形状推定プログラム80は、相対形状分析部81、特徴点位置探索部82、絶対形状分析部83、及び学習データ作成部84を含んでいる。これらプログラム群は、記憶装置70に格納されていてもよい。これらプログラムが演算処理装置71によって実行されることにより、第1の実施の形態において提供された機能と同じ機能が実現される。   The three-dimensional shape estimation program 80 is a software program executed by the arithmetic processing device 71. The three-dimensional shape estimation program 80 includes a relative shape analysis unit 81, a feature point position search unit 82, an absolute shape analysis unit 83, and a learning data creation unit 84. These program groups may be stored in the storage device 70. By executing these programs by the arithmetic processing unit 71, the same functions as the functions provided in the first embodiment are realized.

具体的には、三次元形状推定プログラム80の相対形状分析部81の命令に従い、演算処理装置71は、顔画像データ50から相対形状データ51を作成する。これは、図4における相対形状算出部14の機能と同じである(図6参照)。また、三次元形状推定プログラム80の特徴点位置探索部82の命令に従い、演算処理装置71は、顔画像データ50及び相対形状データ51から特徴点位置データ52を作成する。これは、図7における特徴点抽出部22の機能と同じである(図8参照)。また、三次元形状推定プログラム80の絶対形状分析部83の命令に従い、演算処理装置71は、相対形状データ51及び特徴点位置データ52から三次元絶対形状データ53を作成する。これは、図10における絶対形状算出部34の機能と同じである(図13参照)。また、三次元形状推定プログラム80の学習データ作成部84の命令に従い、演算処理装置71は、一般化照明基底データ61や三次元形状学習データ62を作成する。これは、図4や図10における学習データ作成部12、32の機能と同じである(図5、図11参照)。   Specifically, the arithmetic processing unit 71 creates the relative shape data 51 from the face image data 50 in accordance with the instruction of the relative shape analysis unit 81 of the three-dimensional shape estimation program 80. This is the same as the function of the relative shape calculation unit 14 in FIG. 4 (see FIG. 6). In addition, the arithmetic processing unit 71 creates feature point position data 52 from the face image data 50 and the relative shape data 51 in accordance with an instruction from the feature point position search unit 82 of the three-dimensional shape estimation program 80. This is the same as the function of the feature point extraction unit 22 in FIG. 7 (see FIG. 8). Further, the arithmetic processing unit 71 creates the three-dimensional absolute shape data 53 from the relative shape data 51 and the feature point position data 52 in accordance with the instruction of the absolute shape analysis unit 83 of the three-dimensional shape estimation program 80. This is the same as the function of the absolute shape calculation unit 34 in FIG. 10 (see FIG. 13). Further, the arithmetic processing unit 71 creates the generalized illumination base data 61 and the three-dimensional shape learning data 62 according to the instruction of the learning data creation unit 84 of the three-dimensional shape estimation program 80. This is the same as the function of the learning data creation units 12 and 32 in FIGS. 4 and 10 (see FIGS. 5 and 11).

以上に示された三次元形状推定システム1’及び三次元形状推定プログラム80によれば、ある物体が写っている単一の二次元画像からその物体の三次元形状を推定することが可能となる。ここで、特別な計測装置を用いる必要はないので、コストが低減される。また、その単一の二次元画像から、その物体の照明基底Bや相対形状関数f,fを推定することが可能となる。更に、その単一の二次元画像から、その物体の特徴点を自動的に見つけることが可能となる。 According to the three-dimensional shape estimation system 1 ′ and the three-dimensional shape estimation program 80 described above, it is possible to estimate the three-dimensional shape of an object from a single two-dimensional image in which a certain object is reflected. . Here, since it is not necessary to use a special measuring apparatus, cost is reduced. Further, from the single two-dimensional image, illumination basis B and the relative shape function f x of that object, it is possible to estimate the f y. Furthermore, the feature point of the object can be automatically found from the single two-dimensional image.

(第3の実施の形態)
図15は、本発明の第3の実施の形態に係る画像生成システムの構成を示すブロック図である。この画像生成システム100は、相対形状分析装置110、特徴点位置探索装置120、絶対形状分析装置130、及び画像生成装置140を備えている。この画像生成システム100は、ある顔の二次元画像を示す顔画像データ50(図2参照)から、異なる照明条件を有する二次元画像(照明変換画像)、あるいは異なる照明条件と異なる顔の向きを有する二次元画像(回転変換画像)を示す変換画像データ55を作成する。
(Third embodiment)
FIG. 15 is a block diagram showing a configuration of an image generation system according to the third embodiment of the present invention. The image generation system 100 includes a relative shape analysis device 110, a feature point position search device 120, an absolute shape analysis device 130, and an image generation device 140. This image generation system 100 uses a two-dimensional image (illumination conversion image) having different illumination conditions from a face image data 50 (see FIG. 2) indicating a two-dimensional image of a certain face, or a different face orientation with different illumination conditions. The conversion image data 55 indicating the two-dimensional image (rotation conversion image) is created.

本実施の形態における相対形状分析装置110は、第1の実施の形態における相対形状分析装置10と同様の構成を有する。つまり、この相対形状分析装置110は、顔画像データ50から相対形状データ51を作成し、その相対形状データ51を特頂点位置探索装置120及び絶対形状分析装置130に出力する。また、本実施の形態において、相対形状分析装置110は、上記ステップS114で算出される照明基底Bを示す照明基底データ54を、画像生成装置140に出力する。   The relative shape analyzer 110 in the present embodiment has the same configuration as the relative shape analyzer 10 in the first embodiment. That is, the relative shape analysis device 110 creates the relative shape data 51 from the face image data 50 and outputs the relative shape data 51 to the special vertex position search device 120 and the absolute shape analysis device 130. In the present embodiment, the relative shape analysis apparatus 110 outputs the illumination base data 54 indicating the illumination base B calculated in step S114 to the image generation apparatus 140.

本実施の形態における特徴点位置探索装置120は、第1の実施の形態における特徴点位置探索装置20と同様の構成を有する。つまり、この特徴点位置探索装置120は、顔画像データ50と相対形状データ51から特徴点位置データ52を作成し、その特徴点位置データ52を絶対形状分析装置130に出力する。   The feature point position search device 120 in the present embodiment has the same configuration as the feature point position search device 20 in the first embodiment. That is, the feature point position search device 120 creates feature point position data 52 from the face image data 50 and the relative shape data 51, and outputs the feature point position data 52 to the absolute shape analysis device 130.

本実施の形態における絶対形状分析装置130は、第1の実施の形態における絶対形状分析装置30と同様の構成を有する。つまり、この絶対形状分析装置130は、相対形状データ51と特徴点位置データ52から三次元絶対形状データ53を作成する。本実施の形態において、その三次元絶対形状データ53は、画像生成装置140に出力される。   The absolute shape analyzer 130 in the present embodiment has the same configuration as the absolute shape analyzer 30 in the first embodiment. In other words, the absolute shape analyzer 130 creates the three-dimensional absolute shape data 53 from the relative shape data 51 and the feature point position data 52. In the present embodiment, the three-dimensional absolute shape data 53 is output to the image generation device 140.

画像生成装置140は、三次元絶対形状データ53及び照明基底データ54を受け取り、変換画像データ55を作成する。図16は、本実施の形態における画像生成装置140の構成を示すブロック図である。この画像生成装置140は、入力部141、画像生成部142、記憶部145、及び出力部146を備えている。画像生成部142は、二次元画像変換部143と三次元画像変換部144を含んでいる。記憶部145には、変換画像データ55が格納される。画像生成部142は、この変換画像データ55を作成するためのユニットであり、CPUとコンピュータプログラムによって実現される。記憶部145としては、ハードディスクドライブやメモリが例示される。   The image generation device 140 receives the three-dimensional absolute shape data 53 and the illumination base data 54 and creates converted image data 55. FIG. 16 is a block diagram illustrating a configuration of the image generation device 140 according to the present embodiment. The image generation apparatus 140 includes an input unit 141, an image generation unit 142, a storage unit 145, and an output unit 146. The image generation unit 142 includes a two-dimensional image conversion unit 143 and a three-dimensional image conversion unit 144. The storage unit 145 stores converted image data 55. The image generation unit 142 is a unit for creating the converted image data 55, and is realized by a CPU and a computer program. Examples of the storage unit 145 include a hard disk drive and a memory.

図17は、本発明に係る画像生成装置140の動作を示すフローチャートである。
ステップS401:
まず、相対形状分析装置110から照明基底データ54が、また、絶対形状分析装置130から三次元絶対形状データ53が、入力部141を介して画像生成部142に入力される。
FIG. 17 is a flowchart showing the operation of the image generation apparatus 140 according to the present invention.
Step S401:
First, the illumination base data 54 from the relative shape analyzer 110 and the three-dimensional absolute shape data 53 from the absolute shape analyzer 130 are input to the image generation unit 142 via the input unit 141.

ステップS402:
二次元画像変換部143は、上記式(6)のように、照明基底データ54が示すある人物の照明基底Bに、任意の照明強度ベクトルsを掛け合わせる。これによって、顔画像データ50が示す二次元顔画像とは異なる照明条件の下での二次元顔画像(照明変換画像)が得られる。二次元画像変換部143は、この照明変換画像を示す照明変換画像データ56を出力する。
Step S402:
The two-dimensional image conversion unit 143 multiplies an arbitrary illumination intensity vector s by a certain person's illumination base B indicated by the illumination base data 54 as in the above equation (6). As a result, a two-dimensional face image (illumination conversion image) under an illumination condition different from that of the two-dimensional face image indicated by the face image data 50 is obtained. The two-dimensional image conversion unit 143 outputs illumination conversion image data 56 indicating the illumination conversion image.

回転変換画像が必要でない場合(ステップS403;No)、作成された照明変換画像データ56は、変換画像データ55として、出力部146を介して出力される(ステップS406)。また、その照明変換画像データ56は、変換画像データ55として、記憶部145に格納されてもよい。このように、本実施の形態によれば、相対形状分析装置110と画像生成装置140だけで、照明条件の異なる照明変換画像を作成することが可能となる。   When the rotation conversion image is not necessary (step S403; No), the created illumination conversion image data 56 is output as the conversion image data 55 via the output unit 146 (step S406). The illumination converted image data 56 may be stored in the storage unit 145 as converted image data 55. As described above, according to the present embodiment, it is possible to create illumination conversion images with different illumination conditions using only the relative shape analysis device 110 and the image generation device 140.

ステップS404:
回転変換画像が必要な場合(ステップS403;Yes)、三次元画像変換部144は、三次元絶対形状データ53に加えて、上記ステップS402で作成された照明変換画像データ56を受け取る。つまり、三次元画像変換部144は、処理中の顔に関する、「推定された三次元形状(形状関数f(x,y))」と「照明条件の異なる照明変換画像」を取得する。そして、三次元画像変換部144は、その照明変換画像とその三次元形状を組み合わせる、すなわち、その照明変換画像をその三次元形状に張り合わせる。これによって、「照明条件の異なる新たな三次元形状」が作成される。
Step S404:
When a rotation conversion image is necessary (step S403; Yes), the 3D image conversion unit 144 receives the illumination conversion image data 56 created in step S402 in addition to the 3D absolute shape data 53. That is, the three-dimensional image conversion unit 144 acquires “estimated three-dimensional shape (shape function f (x, y))” and “illumination conversion image with different illumination conditions” regarding the face being processed. Then, the three-dimensional image conversion unit 144 combines the illumination conversion image and the three-dimensional shape, that is, attaches the illumination conversion image to the three-dimensional shape. As a result, a “new three-dimensional shape with different illumination conditions” is created.

ステップS405:
次に、三次元画像変換部144は、その新たな三次元形状を三次元的に回転させ、顔の向きを所望の向きに設定する。これによって、元の二次元画像と異なる照明条件・顔の向きを有する二次元画像(回転変換画像)が得られる。三次元画像変換部144は、この回転変換画像を示す回転変換データ57を出力する。
Step S405:
Next, the three-dimensional image conversion unit 144 rotates the new three-dimensional shape three-dimensionally and sets the face direction to a desired direction. As a result, a two-dimensional image (rotation-converted image) having illumination conditions and face orientation different from those of the original two-dimensional image is obtained. The three-dimensional image conversion unit 144 outputs rotation conversion data 57 indicating the rotation conversion image.

ステップS406:
画像生成部142は、このようにして作成された照明変換画像データ56及び回転変換画像データ57の少なくとも1つを、変換画像データ55として出力する。その変換画像データ55は、出力部146を介して外部に出力される、あるいは記憶部145に格納される。
Step S406:
The image generation unit 142 outputs at least one of the illumination conversion image data 56 and the rotation conversion image data 57 created as described above as the conversion image data 55. The converted image data 55 is output to the outside via the output unit 146 or stored in the storage unit 145.

以上に説明されたように、本発明に係る画像生成システム100及び画像生成方法によれば、ある物体が写っている単一の二次元画像から、その物体の向きや照明条件が異なる画像を生成することが可能となる。   As described above, according to the image generation system 100 and the image generation method according to the present invention, an image having a different orientation and illumination condition of an object is generated from a single two-dimensional image in which the object is reflected. It becomes possible to do.

(第4の実施の形態)
第3の実施の形態による機能は、コンピュータシステム及びコンピュータプログラムによって実現することも可能である。図18は、本発明の第4の実施の形態に係る画像生成システムの構成を示すブロック図である。この画像生成システム100’は、記憶装置170、演算処理装置171、入力装置172、表示装置173、データ入出力インターフェース174、及び画像生成プログラム180を備えている。
(Fourth embodiment)
The function according to the third embodiment can also be realized by a computer system and a computer program. FIG. 18 is a block diagram showing a configuration of an image generation system according to the fourth embodiment of the present invention. The image generation system 100 ′ includes a storage device 170, an arithmetic processing device 171, an input device 172, a display device 173, a data input / output interface 174, and an image generation program 180.

記憶装置170は、ハードディスクドライブ(HDD)やRAM等のメモリである。この記憶装置170には、上述の顔画像データ50、相対形状データ51、特徴点位置データ52、三次元絶対形状データ53、照明基底データ54、変換画像データ55、一般化照明基底データ61、及び三次元形状学習データ62が格納される。演算処理装置71は、各装置に接続され、データのやりとりや各種演算を実行する。   The storage device 170 is a memory such as a hard disk drive (HDD) or a RAM. In the storage device 170, the face image data 50, the relative shape data 51, the feature point position data 52, the three-dimensional absolute shape data 53, the illumination base data 54, the converted image data 55, the generalized illumination base data 61, and Three-dimensional shape learning data 62 is stored. The arithmetic processing device 71 is connected to each device, and exchanges data and performs various operations.

入力装置172としては、キーボードやマウスが例示される。ユーザは、この入力装置172を用いることによって、データを入力したり各種コマンドを指定することができる。また、表示装置173はディスプレイであり、この表示装置173によって各種情報がユーザに通知される。ユーザは、通知された情報に基づいて、新たなコマンドを入力したりデータを入力したりできる。データ入出力インターフェース174は、顔画像データ50や三次元形状データ60の入力に用いられる。そのため、データ入出力インターフェース174は、レンジファインダやデジタルカメラ等の撮像装置、CD/DVDドライブ、他の端末などに接続される。   Examples of the input device 172 include a keyboard and a mouse. The user can input data and specify various commands by using the input device 172. The display device 173 is a display, and the display device 173 notifies the user of various types of information. The user can input a new command or data based on the notified information. The data input / output interface 174 is used to input the face image data 50 and the three-dimensional shape data 60. Therefore, the data input / output interface 174 is connected to an imaging device such as a range finder or a digital camera, a CD / DVD drive, another terminal, and the like.

画像生成プログラム180は、演算処理装置171によって実行されるソフトウェアプログラムである。この画像生成プログラム180は、相対形状分析部181、特徴点位置探索部182、絶対形状分析部183、画像生成部184、及び学習データ作成部185を含んでいる。これらプログラム群は、記憶装置170に格納されていてもよい。これらプログラムが演算処理装置171によって実行されることにより、第3の実施の形態において提供された機能と同じ機能が実現される。   The image generation program 180 is a software program executed by the arithmetic processing device 171. The image generation program 180 includes a relative shape analysis unit 181, a feature point position search unit 182, an absolute shape analysis unit 183, an image generation unit 184, and a learning data creation unit 185. These program groups may be stored in the storage device 170. By executing these programs by the arithmetic processing unit 171, the same function as the function provided in the third embodiment is realized.

具体的には、画像生成プログラム180の相対形状分析部181の命令に従い、演算処理装置171は、顔画像データ50から相対形状データ51及び照明基底データ54を作成する。これは、図15における相対形状分析装置110の機能と同じである。また、画像生成プログラム180の特徴点位置探索部182の命令に従い、演算処理装置171は、顔画像データ50及び相対形状データ51から特徴点位置データ52を作成する。これは、図15における特徴点位置探索装置120の機能と同じである。また、画像生成プログラム180の絶対形状分析部183の命令に従い、演算処理装置171は、相対形状データ51及び特徴点位置データ52から三次元絶対形状データ53を作成する。これは、図15における絶対形状分析装置130の機能と同じである。また、画像生成プログラム180の画像生成部184の命令に従い、演算処理装置171は、照明基底データ54及び三次元絶対形状データ53から変換画像データ55を作成する。これは、図15における画像生成装置140の機能と同じである。また、画像生成プログラム180の学習データ作成部185の命令に従い、演算処理装置171は、一般化照明基底データ61や三次元形状学習データ62を作成する。これは、図4や図10における学習データ作成部12、32と同じ機能である。   Specifically, the arithmetic processing unit 171 creates the relative shape data 51 and the illumination base data 54 from the face image data 50 in accordance with an instruction of the relative shape analysis unit 181 of the image generation program 180. This is the same as the function of the relative shape analyzer 110 in FIG. Further, the arithmetic processing unit 171 creates the feature point position data 52 from the face image data 50 and the relative shape data 51 in accordance with the command of the feature point position search unit 182 of the image generation program 180. This is the same as the function of the feature point position search device 120 in FIG. Further, the arithmetic processing unit 171 creates the three-dimensional absolute shape data 53 from the relative shape data 51 and the feature point position data 52 in accordance with the instruction of the absolute shape analysis unit 183 of the image generation program 180. This is the same as the function of the absolute shape analyzer 130 in FIG. Further, the arithmetic processing unit 171 creates the converted image data 55 from the illumination base data 54 and the three-dimensional absolute shape data 53 in accordance with an instruction of the image generation unit 184 of the image generation program 180. This is the same as the function of the image generation apparatus 140 in FIG. Further, the arithmetic processing unit 171 creates the generalized illumination base data 61 and the three-dimensional shape learning data 62 according to the instruction of the learning data creation unit 185 of the image generation program 180. This is the same function as the learning data creation units 12 and 32 in FIGS.

以上に説明されたように、本発明に係る画像生成システム100’及び画像生成プログラム180によれば、ある物体が写っている単一の二次元画像から、その物体の向きや照明条件が異なる画像を生成することが可能となる。   As described above, according to the image generation system 100 ′ and the image generation program 180 according to the present invention, from a single two-dimensional image in which a certain object is reflected, an image in which the direction and lighting conditions of the object are different. Can be generated.

以上に説明された本発明は、特に、顔個人認証技術などのセキュリティ分野、美容・整形の分野、アミューズメントの分野等において利用されることが期待される。   The present invention described above is expected to be used particularly in the security field such as face personal authentication technology, the field of beauty / shaping, the field of amusement, and the like.

図1は、ある顔の三次元形状を表現する形状関数を説明するための図である。FIG. 1 is a diagram for explaining a shape function that expresses a three-dimensional shape of a certain face. 図2は、ある顔の二次元画像を示す概略図である。FIG. 2 is a schematic diagram showing a two-dimensional image of a certain face. 図3は、本発明の第1の実施の形態に係る三次元形状推定システムの構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of the three-dimensional shape estimation system according to the first embodiment of the present invention. 図4は、本発明に係る相対形状分析装置の構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of the relative shape analyzer according to the present invention. 図5は、本発明に係る相対形状分析装置の動作を示すフローチャートである。FIG. 5 is a flowchart showing the operation of the relative shape analyzer according to the present invention. 図6は、本発明に係る相対形状分析装置の動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the relative shape analyzer according to the present invention. 図7は、本発明に係る特徴点位置探索装置の構成を示すブロック図である。FIG. 7 is a block diagram showing the configuration of the feature point position search apparatus according to the present invention. 図8は、本発明に係る特徴点位置探索装置の動作を示すフローチャートである。FIG. 8 is a flowchart showing the operation of the feature point position search apparatus according to the present invention. 図9は、本発明に係る特徴点位置探索装置の動作を説明するための図である。FIG. 9 is a diagram for explaining the operation of the feature point position search apparatus according to the present invention. 図10は、本発明に係る絶対形状分析装置の構成を示すブロック図である。FIG. 10 is a block diagram showing the configuration of the absolute shape analyzer according to the present invention. 図11は、本発明に係る絶対形状分析装置の動作を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the absolute shape analyzer according to the present invention. 図12は、本発明に係る絶対形状分析装置の動作を説明するための図である。FIG. 12 is a diagram for explaining the operation of the absolute shape analyzer according to the present invention. 図13は、本発明に係る絶対形状分析装置の動作を示すフローチャートである。FIG. 13 is a flowchart showing the operation of the absolute shape analyzer according to the present invention. 図14は、本発明の第2の実施の形態に係る三次元形状推定システムの構成を示すブロック図である。FIG. 14 is a block diagram showing a configuration of a three-dimensional shape estimation system according to the second embodiment of the present invention. 図15は、本発明の第3の実施の形態に係る画像生成システムの構成を示すブロック図である。FIG. 15 is a block diagram showing a configuration of an image generation system according to the third embodiment of the present invention. 図16は、本発明に係る画像生成装置の構成を示すブロック図である。FIG. 16 is a block diagram showing a configuration of an image generation apparatus according to the present invention. 図17は、本発明に係る画像生成装置の動作を示すフローチャートである。FIG. 17 is a flowchart showing the operation of the image generating apparatus according to the present invention. 図18は、本発明の第4の実施の形態に係る画像生成システムの構成を示すブロック図である。FIG. 18 is a block diagram showing a configuration of an image generation system according to the fourth embodiment of the present invention.

符号の説明Explanation of symbols

1 三次元形状推定システム
10 相対形状分析装置
12 学習データ作成部
13 記憶部
14 相対形状算出部
20 特徴点位置探索装置
22 特徴点抽出部
23 色・輝度特徴点抽出部
24 形状特徴点抽出部
25 記憶部
30 絶対形状分析装置
32 学習データ作成部
33 記憶部
34 絶対形状算出部
50 顔画像データ
51 相対形状データ
52 特徴点位置データ
53 三次元絶対形状データ
54 照明基底データ
55 変換画像データ
56 照明変換画像データ
57 回転変換画像データ
60 三次元形状データ
61 一般化照明基底データ
62 三次元形状学習データ
70 記憶装置
71 演算処理装置
72 入力装置
73 表示装置
74 データ入出力インターフェース
80 三次元形状推定プログラム
81 相対形状分析部
82 特徴点位置探索部
83 絶対形状分析部
84 学習データ作成部
100 画像生成システム
110 相対形状分析装置
120 特徴点位置探索装置
130 絶対形状分析装置
140 画像生成装置
142 画像生成部
143 二次元画像変換部
144 三次元画像変換部
145 記憶部
170 記憶装置
171 演算処理装置
172 入力装置
173 表示装置
174 データ入出力インターフェース
180 画像生成プログラム
181 相対形状分析部
182 特徴点位置探索部
183 絶対形状分析部
184 画像生成部
185 学習データ作成部
DESCRIPTION OF SYMBOLS 1 3D shape estimation system 10 Relative shape analysis apparatus 12 Learning data creation part 13 Storage part 14 Relative shape calculation part 20 Feature point position search apparatus 22 Feature point extraction part 23 Color / luminance feature point extraction part 24 Shape feature point extraction part 25 Storage unit 30 Absolute shape analysis device 32 Learning data creation unit 33 Storage unit 34 Absolute shape calculation unit 50 Face image data 51 Relative shape data 52 Feature point position data 53 Three-dimensional absolute shape data 54 Illumination base data 55 Conversion image data 56 Illumination conversion Image data 57 Rotational transformation image data 60 Three-dimensional shape data 61 Generalized illumination base data 62 Three-dimensional shape learning data 70 Storage device 71 Arithmetic processing device 72 Input device 73 Display device 74 Data input / output interface 80 Three-dimensional shape estimation program 81 Relative shape analysis unit 82 the feature point position Search unit 83 Absolute shape analysis unit 84 Learning data creation unit 100 Image generation system 110 Relative shape analysis device 120 Feature point position search device 130 Absolute shape analysis device 140 Image generation device 142 Image generation unit 143 Two-dimensional image conversion unit 144 Three-dimensional image Conversion unit 145 Storage unit 170 Storage device 171 Arithmetic processing device 172 Input device 173 Display device 174 Data input / output interface 180 Image generation program 181 Relative shape analysis unit 182 Feature point position search unit 183 Absolute shape analysis unit 184 Image generation unit 185 Learning data Creation department

Claims (12)

複数の物体に共通の照明基底データと該照明基底データに対応する三次元形状情報を予め準備し、
ある物体の二次元画像に最も類似する画像を表す前記照明基底データと前記照明基底データの重みと照明ベクトルとの組み合わせを求め、
前記照明基底データと前記照明基底データの重みから定まる前記ある物体の照明基底を偏微分して相対形状情報を求め、
前記二次元画像と前記相対形状情報との間の特徴点の位置関係を求め、
前記位置関係を利用して前記三次元形状情報を補正して前記ある物体の三次元形状情報とすることを特徴とする三次元形状推定方法。
Prepare in advance illumination basis data common to a plurality of objects and three-dimensional shape information corresponding to the illumination basis data,
Obtaining a combination of the illumination base data representing the image most similar to a two-dimensional image of an object, the weight of the illumination base data, and an illumination vector;
Relative differentiation of the illumination base of the certain object determined from the weight of the illumination base data and the illumination base data to obtain relative shape information,
Obtaining a positional relationship of feature points between the two-dimensional image and the relative shape information;
A three-dimensional shape estimation method, wherein the three-dimensional shape information of the certain object is corrected by correcting the three-dimensional shape information using the positional relationship.
前記複数の物体に共通の照明基底データは、前記複数の物体に共通の三次元形状情報から生成されることを特徴とする請求項1に記載の三次元形状推定方法。   The three-dimensional shape estimation method according to claim 1, wherein the illumination base data common to the plurality of objects is generated from three-dimensional shape information common to the plurality of objects. 前記物体は人間の顔であることを特徴とする請求項1に記載の三次元形状推定方法。   The three-dimensional shape estimation method according to claim 1, wherein the object is a human face. 複数の物体に共通の照明基底データと該照明基底データに対応する三次元形状情報を予め準備し、
ある物体の二次元画像に最も類似する画像を表す前記照明基底データと前記照明基底データの重みと照明ベクトルとの組み合わせを求め、
前記照明基底データと前記照明基底データの重みから定まる前記ある物体の照明基底を偏微分して相対形状情報を求め、
前記二次元画像と前記相対形状情報との間の特徴点の位置関係を求め、
前記位置関係を利用して前記三次元形状情報を補正して前記ある物体の三次元形状情報とすることをコンピュータに実行させる三次元形状推定プログラム。
Prepare in advance illumination basis data common to a plurality of objects and three-dimensional shape information corresponding to the illumination basis data,
Obtaining a combination of the illumination base data representing the image most similar to a two-dimensional image of an object, the weight of the illumination base data, and an illumination vector;
Relative differentiation of the illumination base of the certain object determined from the weight of the illumination base data and the illumination base data to obtain relative shape information,
Obtaining a positional relationship of feature points between the two-dimensional image and the relative shape information;
A three-dimensional shape estimation program that causes a computer to execute correction of the three-dimensional shape information using the positional relationship to obtain three-dimensional shape information of the certain object.
前記複数の物体に共通の照明基底データは、前記複数の物体に共通の三次元形状情報から生成されることを特徴とする請求項4に記載の三次元形状推定プログラム。   The three-dimensional shape estimation program according to claim 4, wherein the illumination base data common to the plurality of objects is generated from three-dimensional shape information common to the plurality of objects. 前記物体は人間の顔であることを特徴とする請求項4に記載の三次元形状推定プログラム。   The three-dimensional shape estimation program according to claim 4, wherein the object is a human face. 複数の物体に共通の照明基底データと該照明基底データに対応する三次元形状情報が格納された記憶装置と、
ある物体の二次元画像に最も類似する画像を表す前記照明基底データと前記照明基底データの重みと照明ベクトルとの組み合わせを求め、前記照明基底データと前記照明基底データの重みから定まる前記ある物体の照明基底を偏微分して相対形状情報を求める相対形状分析装置と、
前記二次元画像と前記相対形状情報との間の特徴点の位置関係を求める特徴点位置探索装置と、
前記位置関係を利用して前記三次元形状情報を補正して前記ある物体の三次元形状情報とする絶対形状分析装置と
を備えることを特徴とする三次元形状推定システム。
A storage device storing illumination basis data common to a plurality of objects and three-dimensional shape information corresponding to the illumination basis data;
A combination of the illumination base data that represents an image most similar to a two-dimensional image of an object, a weight of the illumination base data, and an illumination vector is obtained, and the object is determined from the weight of the illumination base data and the illumination base data. A relative shape analyzer that obtains relative shape information by partial differentiation of the illumination base;
A feature point position search device for obtaining a positional relationship of feature points between the two-dimensional image and the relative shape information;
A three-dimensional shape estimation system, comprising: an absolute shape analyzer that corrects the three-dimensional shape information using the positional relationship to obtain the three-dimensional shape information of the certain object.
前記複数の物体に共通の照明基底データは、前記複数の物体に共通の三次元形状情報から生成されることを特徴とする請求項7に記載の三次元形状推定システム。   The three-dimensional shape estimation system according to claim 7, wherein the illumination base data common to the plurality of objects is generated from three-dimensional shape information common to the plurality of objects. 前記物体は人間の顔であることを特徴とする請求項7に記載の三次元形状推定システム。   The three-dimensional shape estimation system according to claim 7, wherein the object is a human face. 複数の物体に共通の照明基底データと該照明基底データに対応する三次元形状情報が格納された記憶手段と、
ある物体の二次元画像に最も類似する画像を表す前記照明基底データと前記照明基底データの重みと照明ベクトルとの組み合わせを求め、前記照明基底データと前記照明基底データの重みから定まる前記ある物体の照明基底を偏微分して相対形状情報を求める相対形状分析手段と、
前記二次元画像と前記相対形状情報との間の特徴点の位置関係を求める特徴点位置探索手段と、
前記位置関係を利用して前記三次元形状情報を補正して前記ある物体の三次元形状情報とする絶対形状分析手段と
を備えることを特徴とする三次元形状推定装置。
Storage means storing illumination basis data common to a plurality of objects and three-dimensional shape information corresponding to the illumination basis data;
A combination of the illumination base data that represents an image most similar to a two-dimensional image of an object, a weight of the illumination base data, and an illumination vector is obtained, and the object is determined from the weight of the illumination base data and the illumination base data. Relative shape analysis means for partial differentiation of the illumination base to obtain relative shape information;
Feature point position searching means for obtaining a positional relationship of feature points between the two-dimensional image and the relative shape information;
A three-dimensional shape estimation apparatus comprising: an absolute shape analysis unit that corrects the three-dimensional shape information using the positional relationship to obtain three-dimensional shape information of the certain object.
前記複数の物体に共通の照明基底データは、前記複数の物体に共通の三次元形状情報から生成されることを特徴とする請求項10に記載の三次元形状推定装置。   The three-dimensional shape estimation apparatus according to claim 10, wherein the illumination base data common to the plurality of objects is generated from three-dimensional shape information common to the plurality of objects. 前記物体は人間の顔であることを特徴とする請求項10に記載の三次元形状推定装置。   The three-dimensional shape estimation apparatus according to claim 10, wherein the object is a human face.
JP2007223223A 2004-11-04 2007-08-29 Three-dimensional shape estimation system and image generation system Active JP4623320B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007223223A JP4623320B2 (en) 2004-11-04 2007-08-29 Three-dimensional shape estimation system and image generation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004321159 2004-11-04
JP2007223223A JP4623320B2 (en) 2004-11-04 2007-08-29 Three-dimensional shape estimation system and image generation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006542385A Division JP4284664B2 (en) 2004-11-04 2005-11-01 Three-dimensional shape estimation system and image generation system

Publications (2)

Publication Number Publication Date
JP2008016054A JP2008016054A (en) 2008-01-24
JP4623320B2 true JP4623320B2 (en) 2011-02-02

Family

ID=39072941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007223223A Active JP4623320B2 (en) 2004-11-04 2007-08-29 Three-dimensional shape estimation system and image generation system

Country Status (1)

Country Link
JP (1) JP4623320B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084362A (en) * 1999-07-12 2001-03-30 Fuji Photo Film Co Ltd Method and device for estimating light source direction and three-dimensional shape and recording medium
JP2003228702A (en) * 2002-02-04 2003-08-15 Minolta Co Ltd Imaging condition detecting device and image condition detecting program
JP2004005509A (en) * 2002-03-25 2004-01-08 Toshiba Corp Image processor and its method
JP2004054947A (en) * 2002-07-16 2004-02-19 Nec Corp Object collation system, object collation method and object collation program
JP2004086929A (en) * 2003-12-08 2004-03-18 Nec Corp Image collation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084362A (en) * 1999-07-12 2001-03-30 Fuji Photo Film Co Ltd Method and device for estimating light source direction and three-dimensional shape and recording medium
JP2003228702A (en) * 2002-02-04 2003-08-15 Minolta Co Ltd Imaging condition detecting device and image condition detecting program
JP2004005509A (en) * 2002-03-25 2004-01-08 Toshiba Corp Image processor and its method
JP2004054947A (en) * 2002-07-16 2004-02-19 Nec Corp Object collation system, object collation method and object collation program
JP2004086929A (en) * 2003-12-08 2004-03-18 Nec Corp Image collation device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US12087130B2 (en) 2018-07-25 2024-09-10 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US12106630B2 (en) 2018-07-25 2024-10-01 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2008016054A (en) 2008-01-24

Similar Documents

Publication Publication Date Title
JP4284664B2 (en) Three-dimensional shape estimation system and image generation system
US9779512B2 (en) Automatic generation of virtual materials from real-world materials
US6072903A (en) Image processing apparatus and image processing method
US9317973B2 (en) Augmented reality method applied to the integration of a pair of spectacles into an image of a face
JP4473754B2 (en) Virtual fitting device
JP4950787B2 (en) Image processing apparatus and method
WO2019035155A1 (en) Image processing system, image processing method, and program
JP6207210B2 (en) Information processing apparatus and method
WO2012077286A1 (en) Object detection device and object detection method
JP2006520055A (en) Invariant viewpoint detection and identification of 3D objects from 2D images
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
CN104123749A (en) Picture processing method and system
JP6073858B2 (en) Face position detection
JP2004094491A (en) Face orientation estimation device and method and its program
JP2007257324A (en) Face model creating system
EP3506149A1 (en) Method, system and computer program product for eye gaze direction estimation
US10789784B2 (en) Image display method, electronic device, and non-transitory computer readable recording medium for quickly providing simulated two-dimensional head portrait as reference after plastic operation
JP5503510B2 (en) Posture estimation apparatus and posture estimation program
KR102655987B1 (en) Apparatus and method for generating 3d avatar
US20190362547A1 (en) Three-dimensional head portrait generating method and electronic device
JP2011186816A (en) Face image synthesis apparatus
JP5419777B2 (en) Face image synthesizer
JP4623320B2 (en) Three-dimensional shape estimation system and image generation system
JP2017122993A (en) Image processor, image processing method and program
JP2006227739A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101019

R150 Certificate of patent or registration of utility model

Ref document number: 4623320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3