JP5419777B2 - Face image synthesizer - Google Patents

Face image synthesizer Download PDF

Info

Publication number
JP5419777B2
JP5419777B2 JP2010078878A JP2010078878A JP5419777B2 JP 5419777 B2 JP5419777 B2 JP 5419777B2 JP 2010078878 A JP2010078878 A JP 2010078878A JP 2010078878 A JP2010078878 A JP 2010078878A JP 5419777 B2 JP5419777 B2 JP 5419777B2
Authority
JP
Japan
Prior art keywords
face
face image
developed
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010078878A
Other languages
Japanese (ja)
Other versions
JP2011210118A (en
Inventor
健 糸賀
直幸 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010078878A priority Critical patent/JP5419777B2/en
Publication of JP2011210118A publication Critical patent/JP2011210118A/en
Application granted granted Critical
Publication of JP5419777B2 publication Critical patent/JP5419777B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物の顔を撮影した画像から、照合に適した顔画像を作成する顔画像合成装置に関する。   The present invention relates to a face image synthesizing apparatus that creates a face image suitable for collation from an image obtained by photographing a person's face.

従来より、対象者の顔を撮影して取得した顔画像を登録された顔画像と照合することにより、その対象者を認証する顔認証装置が提案されている。このような顔認証装置は、事前に対象者本人の顔画像を登録しておき、利用時に取得した顔画像と比較した結果に基づいて、認証の可否を決定する。そのため、登録用の顔画像の撮影時における顔の向きなどにより、登録された顔画像上に欠落した顔の部分が存在すると、顔認証装置は、その欠落部分についての照合ができないため、認証精度が低下してしまうおそれがある。そこで、同一人物の顔を異なる方向から撮影した複数の画像を用いて、照合用の顔画像を作成する技術が提案されている(例えば、特許文献1を参照)。   Conventionally, there has been proposed a face authentication device that authenticates a target person by collating a face image acquired by photographing the face of the target person with a registered face image. Such a face authentication apparatus registers the face image of the subject person in advance, and determines whether or not to authenticate based on the result of comparison with the face image acquired at the time of use. Therefore, if there is a missing face part on the registered face image due to the orientation of the face at the time of shooting the registration face image, the face authentication device cannot verify the missing part. May decrease. Therefore, a technique for creating a face image for collation using a plurality of images obtained by photographing the same person's face from different directions has been proposed (for example, see Patent Document 1).

例えば、特許文献1に開示された顔画像照合装置は、3次元顔モデルの一部または全てに対し、オクルージョンなどによる顔の一部のテクスチャの欠落部分を補う向きの顔画像をマッピングすることにより、テクスチャの欠損がない3次元顔モデルを作成する。その際、この顔画像照合装置は、合成に用いられた2枚の顔画像の撮影条件の違いなどにより、合成された部分の境界で画素値の差が生じることを防ぐため、3次元顔モデルに既にマッピングされている顔画像と追加でマッピングする別の顔画像とを2次元上で顔特徴点を用いて位置合わせをして平均化し、この平均化された顔画像を、顔の3次元形状を表す3次元顔形状データにマッピングする。   For example, the face image matching device disclosed in Patent Document 1 maps a face image in a direction that compensates for a missing part of the texture of a part of the face due to occlusion or the like to a part or all of a three-dimensional face model. Create a 3D face model without any texture loss. At this time, this face image collation device prevents a difference in pixel values from occurring at the boundary between the combined parts due to a difference in shooting conditions of the two face images used for the combination. A face image that has already been mapped to and another face image to be additionally mapped are aligned and averaged using face feature points in two dimensions, and the averaged face image is then converted into a three-dimensional face image. Mapping to 3D face shape data representing the shape.

特開2009−245338号公報JP 2009-245338 A

特許文献1に開示された技術を用いることにより、テクスチャの欠損がない顔画像を作成することが可能となる。
しかしながら、顔画像に写っている対象者の顔の領域全体が、照合処理に適しているとは限らない。特に、対象者の表情が顔画像の合成に用いる複数の顔画像ごとに異なっていることがある。このような場合において、一方の顔画像上でテクスチャが欠落している領域の境界上に目、鼻、口といった顔の特徴的な部位が位置していると、他方の顔画像からその欠落部分に相当している部分をマッピングすることにより、例えば、顔の右半分では口を開け、顔の左半分では口を閉じているような不自然な表情となることがある。また、特許文献1に開示されているように、二つの顔画像を平均化すると、その特徴的な部分がぼやけてしまう。そのため、合成された顔画像が照合に適したものとならない場合があった。 そのため、このような写っている人物の表情が異なる顔画像を用いても、照合処理に適した顔画像を合成可能な技術が求められている。
By using the technique disclosed in Patent Document 1, it is possible to create a face image without a texture defect.
However, the entire area of the subject's face shown in the face image is not necessarily suitable for the matching process. In particular, the facial expression of the subject may differ for each of a plurality of face images used for synthesizing face images. In such a case, if a characteristic part of the face such as eyes, nose, or mouth is located on the boundary of the region where the texture is missing on one face image, the missing part is found from the other face image. By mapping the portion corresponding to, for example, an unnatural expression may appear such that the right half of the face opens its mouth and the left half of the face closes its mouth. Further, as disclosed in Patent Document 1, when two face images are averaged, a characteristic portion thereof is blurred. For this reason, the synthesized face image may not be suitable for collation. For this reason, there is a need for a technique that can synthesize a face image suitable for collation processing even when using a face image with different facial expressions.

そこで、本発明は、登録対象者が異なる表情をしている複数の顔画像から、照合に適した顔画像を合成可能な顔画像合成装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a face image synthesizing apparatus capable of synthesizing a face image suitable for collation from a plurality of face images in which registered persons have different facial expressions.

本発明の一つの形態として、複数の顔画像を合成して合成顔画像を生成する顔画像合成装置が提供される。この顔画像合成装置は、同一の対象者を撮影した複数の顔画像と人物の顔の形状を表す3次元顔形状データとその3次元顔形状の顔の所定部位を参照して設定された境界線候補とを記憶する記憶部と、複数の顔画像のそれぞれを、3次元顔形状データと位置合わせして、その3次元顔形状データにマッピングすることにより、複数の顔画像のそれぞれに対応する3次元顔モデルを作成するマッピング部と、複数の3次元顔モデルのそれぞれを2次元に展開した展開顔画像を生成する展開顔画像生成部と、複数の展開顔画像から少なくとも第1の展開顔画像と第2の展開顔画像を選択するとともに、上記の顔の所定部位を回避するように境界線候補を選択して合成境界に設定する顔画像選定部と、第1の展開顔画像において顔のテクスチャ情報を有する第1の領域と第2の展開顔画像において顔のテクスチャ情報を有する第2の領域とを合成境界に基づいて合成し、合成顔画像を作成する顔画像合成部とを有する。   As one aspect of the present invention, there is provided a face image composition device that generates a composite face image by combining a plurality of face images. The face image composition device includes a plurality of face images obtained by photographing the same subject, 3D face shape data representing the shape of a person's face, and a boundary set with reference to a predetermined part of the face of the 3D face shape. A storage unit that stores line candidates and each of the plurality of face images are aligned with the three-dimensional face shape data and mapped to the three-dimensional face shape data, thereby corresponding to each of the plurality of face images. A mapping unit that creates a three-dimensional face model, a developed face image generation unit that generates a developed face image obtained by two-dimensionally developing each of the plurality of three-dimensional face models, and at least a first developed face from the plurality of developed face images A face image selection unit that selects an image and a second developed face image, selects a boundary line candidate so as to avoid the predetermined part of the face, and sets the combined boundary as a face, and a face in the first developed face image Texture information A second region having a texture information of the face in the first region and the second expansion face image synthesized on the basis of the synthesis boundary having, and a face image synthesizing unit for creating a synthesized face image.

なお顔の所定部位は、対象者の表情に応じて形状が変わる口、目、眉のうちの一つまたは複数の部位であることが好ましい。   The predetermined part of the face is preferably one or a plurality of parts among the mouth, eyes, and eyebrows whose shape changes according to the facial expression of the subject.

また顔画像選定部は、記憶部に記憶されている境界線候補のうち、第1の展開顔画像において顔のテクスチャ情報を有する第1の領域と第2の展開顔画像において顔のテクスチャ情報を有する第2の領域とが重なる共通領域に含まれる境界線候補を合成境界とすることが好ましい。   In addition, the face image selection unit includes the first region having facial texture information in the first developed face image and the facial texture information in the second developed face image among the boundary line candidates stored in the storage unit. It is preferable that the boundary line candidate included in the common area overlapping with the second area to be included is the synthesis boundary.

また顔画像選定部は、複数の展開顔画像から選択された二つの展開顔画像を含む組み合わせであって、その組み合わせに含まれる二つの展開顔画像において顔のテクスチャ情報を有する領域をそれぞれ一つの画像上にマッピングすることにより作成される合成顔画像において顔のテクスチャ情報の欠けがない組み合わせを少なくとも一つ求め、その組み合わせにおける共通領域に含まれる境界線候補上の二つの展開顔画像の対応する画素の値の差の統計量を輝度相違度として算出し、輝度相違度が最小または所定の閾値以下となる組み合わせに含まれる二つの展開顔画像をそれぞれ第1の展開顔画像及び第2の展開顔画像とするとともに、所定の閾値以下または最小となる輝度相違度に対応する境界線候補を合成境界とすることが好ましい。   The face image selection unit is a combination including two expanded face images selected from a plurality of expanded face images, and each of the two expanded face images included in the combination has one area having facial texture information. Find at least one combination that does not lack face texture information in the synthesized face image created by mapping on the image, and correspond to the two developed face images on the boundary line candidates included in the common area in the combination The statistic of the difference between the pixel values is calculated as the luminance difference, and the two developed face images included in the combination with the luminance difference being the minimum or less than or equal to the predetermined threshold are respectively developed as the first and second developed face images. It is preferable that a boundary line candidate corresponding to a luminance difference degree which is a face image and is equal to or less than a predetermined threshold value is set as a synthesis boundary.

本発明に係る顔画像合成装置は、登録対象者が異なる表情をしている複数の顔画像から、照合に適した顔画像を合成できるという効果を奏する。   The face image composition device according to the present invention produces an effect that a face image suitable for collation can be composed from a plurality of face images in which a registration target person has different expressions.

本発明の一つの実施形態に係る顔画像合成装置の概略構成図である。1 is a schematic configuration diagram of a face image composition device according to an embodiment of the present invention. 展開顔画像を生成するために3次元顔モデルに対して設定される座標系の一例を示す図である。It is a figure which shows an example of the coordinate system set with respect to a three-dimensional face model in order to produce | generate an expansion | deployment face image. (a)は、3次元顔モデルの一例の概略図であり、(b)は、(a)に示された3次元顔モデルから作成される展開顔画像の概略図である。(A) is a schematic diagram of an example of a three-dimensional face model, and (b) is a schematic diagram of a developed face image created from the three-dimensional face model shown in (a). (a)は、展開顔画像の一例を示す図であり、(b)は、(a)に示した展開顔画像に写っている登録対象者の表情と異なる表情の展開顔画像の他の一例を示す図である。(A) is a figure which shows an example of an expansion | deployment face image, (b) is another example of the expansion | deployment face image of an expression different from the facial expression of the registration subject reflected in the expansion | deployment face image shown to (a). FIG. (a)は、境界線候補情報の一例を示す図であり、(b)は、設定された合成境界と共通領域の関係を示す図である。(A) is a figure which shows an example of boundary line candidate information, (b) is a figure which shows the relationship between the set synthetic | combination boundary and a common area | region. (a)は、展開顔画像の一例を示す図であり、(b)は、(a)に示された展開顔画像の着目画素と合成境界間の距離と、着目画素に適用される重み係数との関係を示すグラフである。(A) is a figure which shows an example of an expansion | deployment face image, (b) is the distance between the attention pixel and synthetic | combination boundary of the expansion | deployment face image shown to (a), and the weighting coefficient applied to an attention pixel. It is a graph which shows the relationship. 顔画像合成処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a face image composition process. 顔画像合成処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a face image composition process.

以下、本発明の一つの実施形態による顔画像合成装置を、図を参照しつつ説明する。この顔画像合成装置は、人間の顔の3次元的な形状を表す3次元顔形状データ上に、登録対象者の顔を撮影した顔画像をマッピングすることで、その登録対象者の3次元顔モデルを作成する。この顔画像合成装置は、マッピングに用いる顔画像に欠落部分が存在する場合、その欠落部分に、その欠落部分に相当する情報を持つ他の顔画像の対応する部分をマッピングして合成顔画像を作成する。その際、この顔画像合成装置は、合成に用いられる二つの顔画像のどちらにも写っている共通領域内において、表情に応じて形状などが変化する、目、口、眉などの特徴的な部位を避けるように、二つの顔画像のそれぞれからテクスチャ情報がマッピングされる領域の境界を設定する。これにより、この顔画像合成装置は、顔のテクスチャ情報が合成される境界を挟んで顔の特徴的な部位の形状が変わることを避けるように合成顔画像を作成する。   Hereinafter, a face image synthesizing apparatus according to an embodiment of the present invention will be described with reference to the drawings. This face image synthesizing device maps a face image obtained by photographing a face of a registration target person onto 3D face shape data representing a three-dimensional shape of a human face, thereby obtaining the 3D face of the registration target person. Create a model. When there is a missing part in the face image used for mapping, this face image composition device maps a corresponding part of another face image having information corresponding to the missing part to the missing part, create. At that time, this face image synthesizing device has characteristic features such as eyes, mouth, eyebrows, etc. whose shape changes according to the expression in the common area shown in both of the two face images used for synthesis. In order to avoid the part, the boundary of the area where the texture information is mapped from each of the two face images is set. Thus, the face image composition device creates a composite face image so as to avoid a change in the shape of a characteristic part of the face across the boundary where the facial texture information is synthesized.

図1は、一つの実施形態に係る顔画像合成装置1の概略構成を示す図である。図1に示すように、顔画像合成装置1は、撮像部2と、インターフェース部3と、記憶部4と、画像処理部5とを有する。   FIG. 1 is a diagram illustrating a schematic configuration of a face image synthesis device 1 according to an embodiment. As illustrated in FIG. 1, the face image composition device 1 includes an imaging unit 2, an interface unit 3, a storage unit 4, and an image processing unit 5.

撮像部2は、例えば、カメラを有し、監視領域内に進入した登録対象者の顔を撮影した2次元の入力顔画像を作成する。そのために、撮像部2は、監視領域を撮影可能な位置に設置される。例えば、監視領域が店舗、廊下などの屋内に設定されている場合、撮像部2は、監視領域内の天井近傍あるいは監視領域の境界を形成する壁面に、人の身長よりも高い位置に設置される。また撮像部2は、監視領域の通用口近傍を撮影するように設置されてもよい。さらに撮像部2は一つに限られず、複数存在してもよい。
なお、撮像部2が有するカメラは、入力顔画像上の肌色部分を抽出することが容易となるように、可視光域に感度を有し、カラーの多階調画像を作成するものとすることが好ましい。しかし、撮像部2が有するカメラは、近赤外域に感度を有し、グレー画像を作成するカメラであってもよい。また撮像部2は、入力顔画像上に写っている顔の目、鼻、口などの顔特徴が区別できる程度の画素数を有することが好ましい。
撮像部2は、入力顔画像を作成する度に、その入力顔画像をインターフェース部3へ出力する。
The imaging unit 2 includes, for example, a camera, and creates a two-dimensional input face image obtained by capturing the face of a registration target person who has entered the monitoring area. For this purpose, the imaging unit 2 is installed at a position where the monitoring area can be imaged. For example, when the monitoring area is set indoors, such as in a store or a hallway, the imaging unit 2 is installed at a position higher than the height of the person on the wall near the ceiling in the monitoring area or on the boundary of the monitoring area. The Moreover, the imaging part 2 may be installed so that the vicinity of the common entrance of a monitoring area may be image | photographed. Further, the imaging unit 2 is not limited to one, and a plurality of imaging units 2 may exist.
Note that the camera included in the imaging unit 2 has a sensitivity in the visible light range and creates a color multi-tone image so that it is easy to extract the skin color portion on the input face image. Is preferred. However, the camera included in the imaging unit 2 may be a camera having sensitivity in the near infrared region and creating a gray image. Moreover, it is preferable that the imaging unit 2 has a number of pixels that can distinguish facial features such as the eyes, nose, and mouth of the face shown on the input face image.
The imaging unit 2 outputs the input face image to the interface unit 3 every time an input face image is created.

インターフェース部3は、撮像部2と接続されるインターフェース回路であり、撮像部2から受け取った入力顔画像を画像処理部5に渡す。
記憶部4は、半導体メモリ、磁気記録媒体及びそのアクセス装置及び光記録媒体及びそのアクセス装置のうちの少なくとも一つを有する。そして記憶部4は、顔画像合成装置1を制御するためのコンピュータプログラム、各種パラメータ及びデータなどを記憶する。また記憶部4は、3次元顔形状データ及び3次元顔形状データに対応する3D顔特徴点の3次元位置情報を記憶する。3次元顔形状データは複数存在してもよく、また一つであってもよい。3次元顔形状データは、人物の顔の3次元形状を表すフレームモデルであって、ワイヤーフレームモデルあるいはサーフェイスモデル等が用いられる。なお3次元顔形状データは、例えば、複数の人物の顔形状からそれぞれ作成されたり、多数の人物の顔形状を模した顔形状モデルを平均化して作成される。さらに、3次元顔形状データとして、他の方法によって作成された3次元顔形状データの一部を変形させたもの、例えば、顔の中心から上側部分の長さと下側部分の長さの比を変化させたものを用いてもよい。
The interface unit 3 is an interface circuit connected to the imaging unit 2, and passes the input face image received from the imaging unit 2 to the image processing unit 5.
The storage unit 4 includes at least one of a semiconductor memory, a magnetic recording medium, its access device, an optical recording medium, and its access device. The storage unit 4 stores a computer program, various parameters, data, and the like for controlling the face image synthesis device 1. The storage unit 4 also stores 3D face shape data and 3D position information of 3D face feature points corresponding to the 3D face shape data. There may be a plurality of three-dimensional face shape data, or one. The three-dimensional face shape data is a frame model representing the three-dimensional shape of a person's face, and a wire frame model or a surface model is used. Note that the 3D face shape data is created, for example, from the face shapes of a plurality of persons, or by averaging face shape models simulating the face shapes of many persons. Further, as 3D face shape data, a part of 3D face shape data created by another method is deformed, for example, the ratio of the length of the upper part to the length of the lower part from the center of the face. You may use what was changed.

また、3D顔特徴点は、目、鼻、口など、形状若しくは色成分について他と異なる特徴的な部位の何れかの点、例えばそれらの部位の中心点若しくは端点を表す。例えば、3D顔特徴点には、眉頭、眉尻、黒目中心、目領域中心、目頭、目尻、鼻尖点、鼻孔中心、口中心、口端などが含まれる。なお、記憶する3D顔特徴点の種類及び数に制限はないが、少なくとも2D顔特徴点抽出部51において抽出可能な顔特徴点と同じ部位の特徴点を全て含むことが好ましい。本実施形態では、3D顔特徴点として、左右それぞれの目領域中心、目頭及び目尻と、鼻尖点、口中心、及び左右の口端、耳珠点、顎角点及びオトガイ点の15箇所を記憶するものとした。
さらに記憶部4は、入力顔画像、展開顔画像、重み参照テーブルの形で合成用重み係数、及び別個の展開顔画像からそれぞれマッピングされる領域の境界の候補である境界線候補情報などを記憶する。なお、展開顔画像、合成用重み係数及び境界線候補情報の詳細については、画像処理部5の関連する構成要素とともに説明する。
In addition, the 3D face feature point represents any point of a characteristic part such as an eye, a nose, or a mouth that is different from the other in terms of shape or color component, for example, a center point or an end point of those parts. For example, the 3D face feature points include an eyebrow head, an eyebrow butt, a black eye center, an eye region center, an eye head, an eye corner, a nasal apex, a nostril center, a mouth center, and a mouth edge. The type and number of 3D face feature points to be stored are not limited, but it is preferable that at least all the feature points of the same part as the face feature points that can be extracted by the 2D face feature point extraction unit 51 are included. In this embodiment, as the 3D face feature points, the left and right eye area centers, the eyes and corners of the eyes, the nose apex point, the mouth center, and the left and right mouth ends, tragus points, jaw angle points, and mental points are stored. To do.
Further, the storage unit 4 stores the input face image, the developed face image, the weighting factor for synthesis in the form of a weight reference table, and boundary line candidate information that is a candidate for the boundary of the region mapped from each separate developed face image. To do. Details of the developed face image, the synthesis weight coefficient, and the boundary line candidate information will be described together with related components of the image processing unit 5.

画像処理部5は、1個または複数個のプロセッサ及びその周辺回路を有する。そして画像処理部5は、撮像部2から入力顔画像を受け取る度に、その入力顔画像を登録対象者の識別コードと関連付けて記憶部4に記憶する。なお、登録対象者の識別コードは、たとえば、図示しないユーザインターフェースを介して、画像処理部5に入力される。あるいは、画像処理部5は、入力顔画像に写っている登録対象者の顔が、記憶部4に既に登録されている登録者の何れの3次元顔モデルとも一致しない場合、既に設定されている何れの識別コードとも異なる識別コードを新たに生成してもよい。この場合、画像処理部5は、公知の顔画像照合方法の何れかを利用して、入力顔画像に写っている登録対象者の顔が、記憶部4に登録されている登録者の3次元顔モデルと一致するか否かを判定できる。   The image processing unit 5 includes one or a plurality of processors and their peripheral circuits. Each time the input face image is received from the imaging unit 2, the image processing unit 5 stores the input face image in the storage unit 4 in association with the identification code of the person to be registered. The identification code of the person to be registered is input to the image processing unit 5 via a user interface (not shown), for example. Alternatively, the image processing unit 5 is already set when the face of the person to be registered in the input face image does not match any 3D face model of the registrant already registered in the storage unit 4. An identification code different from any of the identification codes may be newly generated. In this case, the image processing unit 5 uses any one of known face image matching methods, and the registration target person's face reflected in the input face image is the 3D of the registered person registered in the storage unit 4. It can be determined whether or not it matches the face model.

画像処理部5は、登録対象者について複数の入力顔画像を用いて、その登録対象者の3次元顔モデルを作成する。そのために、画像処理部5は、そのプロセッサ上で動作するソフトウェアにより実装される機能モジュールとして、2D顔特徴点抽出部51、位置合わせ情報算出部52、入力顔画像マッピング部53、展開顔画像生成部54、合成元画像選定部55、合成重み算出部56、顔画像合成部57及び展開顔画像マッピング部58を有する。
なお、画像処理部5が有するこれらの各部は、独立した集積回路、ファームウェア、マイクロプロセッサなどで構成されてもよい。
以下、画像処理部5の各部について詳細に説明する。
The image processing unit 5 creates a three-dimensional face model of the registration target person using a plurality of input face images for the registration target person. For this purpose, the image processing unit 5 includes a 2D face feature point extraction unit 51, an alignment information calculation unit 52, an input face image mapping unit 53, and a developed face image generation as functional modules implemented by software operating on the processor. A unit 54, a synthesis source image selection unit 55, a synthesis weight calculation unit 56, a face image synthesis unit 57, and a developed face image mapping unit 58.
Note that these units included in the image processing unit 5 may be configured by independent integrated circuits, firmware, a microprocessor, and the like.
Hereinafter, each part of the image processing unit 5 will be described in detail.

2D顔特徴点抽出部51は、画像処理部5が登録対象者についての入力顔画像を取得する度に、その入力顔画像から顔特徴点を抽出する。そして2D顔特徴点抽出部51は、抽出した顔特徴点の種別と入力顔画像上の位置情報(例えば、入力顔画像の左上端部を原点とする2次元座標値)を、位置合わせ情報算出部52へ出力する。
本実施形態において、2D顔特徴点抽出部51は、記憶部4に記憶されている各3D顔特徴点(目領域中心、鼻尖点、口端などの15箇所)に対応する顔特徴点を抽出する。2D顔特徴点抽出部51は、入力顔画像から顔特徴点を抽出するための公知の様々な手法を用いることができる。例えば、2D顔特徴点抽出部51は、入力顔画像に対してエッジ抽出処理を行って周辺画素との画素値の差が大きいエッジ画素を抽出する。そして2D顔特徴点抽出部51は、エッジ画素の位置、パターンなどに基づいて求めた特徴量が、目、鼻、口などの部位について予め定められた条件を満たすか否かを調べて各部位の位置を特定することにより、各顔特徴点を抽出することができる。また2D顔特徴点抽出部51は、エッジ抽出処理を行ってエッジ画素を抽出する代わりに、ガボール変換処理あるいはウェーブレット変換処理を行って、異なる複数の空間周波数帯域で局所的に変化の大きい画素を抽出してもよい。さらに2D顔特徴点抽出部51は、顔の各部位に相当するテンプレートと入力顔画像とのテンプレートマッチングを行って顔の各部位の位置を特定することにより、顔特徴点を抽出してもよい。さらにまた、2D顔特徴点抽出部51は、キーボード、マウス及びディスプレイなどで構成されるユーザインターフェース(図示せず)を介してユーザに各顔特徴点の位置を指定させることにより、各顔特徴点を取得してもよい。
The 2D face feature point extraction unit 51 extracts face feature points from the input face image every time the image processing unit 5 acquires the input face image for the person to be registered. Then, the 2D face feature point extraction unit 51 calculates alignment information based on the type of the extracted face feature points and position information on the input face image (for example, a two-dimensional coordinate value with the upper left corner of the input face image as the origin). To the unit 52.
In the present embodiment, the 2D face feature point extraction unit 51 extracts face feature points corresponding to each 3D face feature point (15 locations such as the center of the eye region, the nose tip, and the mouth end) stored in the storage unit 4. To do. The 2D face feature point extraction unit 51 can use various known methods for extracting face feature points from the input face image. For example, the 2D face feature point extraction unit 51 performs edge extraction processing on the input face image and extracts edge pixels having a large difference in pixel value from surrounding pixels. Then, the 2D face feature point extraction unit 51 checks whether or not the feature amount obtained based on the position and pattern of the edge pixel satisfies a predetermined condition for the part such as eyes, nose, and mouth. Each facial feature point can be extracted by specifying the position of. In addition, instead of performing edge extraction processing to extract edge pixels by performing edge extraction processing, the 2D face feature point extraction unit 51 performs Gabor conversion processing or wavelet conversion processing to detect pixels that have a large local change in different spatial frequency bands. It may be extracted. Further, the 2D face feature point extraction unit 51 may extract the face feature points by performing template matching between the template corresponding to each part of the face and the input face image and specifying the position of each part of the face. . Furthermore, the 2D face feature point extraction unit 51 allows the user to designate the position of each face feature point via a user interface (not shown) configured by a keyboard, a mouse, a display, and the like, thereby May be obtained.

位置合わせ情報算出部52は、入力顔画像について2D顔特徴点抽出部51により抽出された各顔特徴点と、3次元顔形状データに関連する3D顔特徴点とを用いて、3次元顔形状データに回転、拡大/縮小などの処理を行い、入力顔画像と3次元顔形状データの位置合わせを行う。そして位置合わせ情報算出部52は、その位置合わせの結果として得られる位置合わせ情報を、3次元顔形状データに関連付けて、入力顔画像マッピング部53及び合成元画像選定部55へ出力する。位置合わせ情報は、例えば、3次元顔形状データの3次元の正規直交座標系(X,Y,Z)の各軸に沿った回転角、並進量、及び拡大/縮小率を含む。この正規直交座標系(X,Y,Z)では、例えば、3次元顔形状データ上の複数の3D顔特徴点の重心を原点とし、顔に対して水平かつ右目から左目へ向かう方向に(3次元顔モデルの正面に向かって左から右に)X軸、X軸及びZ軸と直交し、喉付近から頭頂部へ向かう方向、すなわち下から上へ向かう方向にY軸、X軸及びY軸と直交し、鼻尖点から後頭部へ向かう方向にZ軸が設定される。   The alignment information calculation unit 52 uses the face feature points extracted by the 2D face feature point extraction unit 51 for the input face image and the 3D face feature points related to the 3D face shape data to generate a 3D face shape. Processing such as rotation and enlargement / reduction is performed on the data, and the input face image and the 3D face shape data are aligned. Then, the alignment information calculation unit 52 outputs the alignment information obtained as a result of the alignment to the input face image mapping unit 53 and the composition source image selection unit 55 in association with the three-dimensional face shape data. The alignment information includes, for example, a rotation angle along each axis of the three-dimensional orthonormal coordinate system (X, Y, Z) of the three-dimensional face shape data, a translation amount, and an enlargement / reduction ratio. In this orthonormal coordinate system (X, Y, Z), for example, the center of gravity of a plurality of 3D face feature points on the 3D face shape data is set as the origin, and the horizontal direction is 3 (3 (From left to right in front of the three-dimensional face model) The X, X, and Z axes are orthogonal to the X-axis, X-axis, and Z-axis. The Z axis is set in the direction from the apex of the nose to the back of the head.

位置合わせ情報算出部52は、例えば、以下のように位置合わせ情報を算出する。まず、3次元顔形状データ上の3D顔特徴点を、2次元画像である入力顔画像上に投影する。そして位置合わせ情報算出部52は、投影された各3D顔特徴点の位置と、2D顔特徴点抽出部51により抽出された、対応する各顔特徴点の位置との差の二乗和を位置ずれ量として求める。位置合わせ情報算出部52は、この位置ずれ量が最小となるように、3次元顔形状データを、3次元の正規直交座標系の各軸に沿って回転または並進させたり、拡大または縮小させる。位置合わせ情報算出部52は、位置ずれ量が最小となったときの3次元顔形状データの回転角、並進量、及び拡大/縮小率を位置合わせ情報とする。   The alignment information calculation unit 52 calculates the alignment information as follows, for example. First, a 3D face feature point on the 3D face shape data is projected onto an input face image which is a 2D image. The alignment information calculation unit 52 shifts the square sum of the difference between the position of each projected 3D face feature point and the position of each corresponding face feature point extracted by the 2D face feature point extraction unit 51. Calculate as a quantity. The alignment information calculation unit 52 rotates, translates, or enlarges or reduces the three-dimensional face shape data along each axis of the three-dimensional orthonormal coordinate system so that the amount of displacement is minimized. The alignment information calculation unit 52 uses the rotation angle, the translation amount, and the enlargement / reduction ratio of the three-dimensional face shape data when the displacement amount is minimized as the alignment information.

また、記憶部4に複数の3次元顔形状データが記憶されている場合、位置合わせ情報算出部52は、各3次元顔形状データについて、同一人物に対する複数の入力顔画像のそれぞれに対する上記の位置ずれ量の最小値を求める。そして位置合わせ情報算出部52は、複数の入力顔画像に対する位置ずれ量の最小値の総和が最も小さくなる3次元顔形状データを、それら入力顔画像に写っている登録対象者に適用する3次元顔形状データとして選択する。位置合わせ情報算出部52は、選択された3次元顔形状データに対する各入力顔画像の位置ずれ量が最小となったときの位置合わせ情報を入力顔画像マッピング部53及び合成元画像選定部55へ出力する。   When a plurality of 3D face shape data is stored in the storage unit 4, the alignment information calculation unit 52 performs the above-described position for each of a plurality of input face images for the same person for each 3D face shape data. Find the minimum deviation. Then, the registration information calculation unit 52 applies the three-dimensional face shape data in which the sum of the minimum values of the positional deviation amounts with respect to the plurality of input face images is the smallest to the registration target person reflected in the input face images. Select as face shape data. The registration information calculation unit 52 sends the registration information when the amount of positional deviation of each input face image with respect to the selected three-dimensional face shape data is minimized to the input face image mapping unit 53 and the composition source image selection unit 55. Output.

なお、位置合わせ情報算出部52は、入力顔画像について抽出された各顔特徴点を3次元空間内へ投影した後、3次元顔形状データ上の3D顔特徴点との位置ずれ量が最小となるように3次元顔形状データに回転、拡大/縮小などの処理を行い、位置合わせ情報を算出してもよい。   The alignment information calculation unit 52 projects each facial feature point extracted from the input face image into the three-dimensional space, and then minimizes the amount of positional deviation from the 3D facial feature point on the three-dimensional face shape data. The alignment information may be calculated by performing processing such as rotation and enlargement / reduction on the three-dimensional face shape data.

入力顔画像マッピング部53は、記憶手段4に記憶されている3次元顔形状データのうち、位置合わせ情報算出部52により選択された3次元顔形状データの顔の向きを、入力顔画像に写った顔の向きと同じ顔の向きとなるように調整する。そのために、入力顔画像マッピング部53は、選択された3次元顔形状データを、対応する位置合わせ情報にしたがって、3次元の正規直交座標系の各軸に沿って回転または並進させたり、拡大または縮小させて向き調整済み形状モデルを作成する。   The input face image mapping unit 53 reflects the face orientation of the 3D face shape data selected by the alignment information calculation unit 52 among the 3D face shape data stored in the storage unit 4 in the input face image. Make sure that the face direction is the same as the face direction. Therefore, the input face image mapping unit 53 rotates or translates the selected three-dimensional face shape data along each axis of the three-dimensional orthonormal coordinate system according to the corresponding alignment information, Reduce the size and create an orientation-adjusted shape model.

入力顔画像マッピング部53は、向き調整済み形状モデルに、入力顔画像をテクスチャ画像としてマッピングすることにより、入力顔画像に写っている登録対象者の3次元顔モデルを作成する。すなわち、入力顔画像について抽出されている各顔特徴点と、向き調整済み形状モデルとして選択された3次元顔形状データについての3D顔特徴点との位置が合うように、位置合わせ情報を用いて入力顔画像をテクスチャ画像として向き調整済み形状モデルにマッピングする。なお、マッピングは、入力顔画像の各画素の値を、3次元顔形状データの対応する位置の画素値とする処理である。
入力顔画像マッピング部53は、画像処理部5が登録対象者についての入力顔画像を取得する度に、その入力顔画像に対する3次元顔モデルを作成する。ただし、記憶部4に複数の3次元顔形状データが記憶されている場合は、登録対象者の複数の入力顔画像に対して最適な3次元顔形状データが選択された後、入力顔画像マッピング部53は、各入力顔画像について3次元顔モデルを作成する。そして入力顔画像マッピング部53は、作成した3次元顔モデルを登録対象者の識別コードと関連付けて記憶部4に記憶するとともに、展開顔画像生成部54へ出力する。
The input face image mapping unit 53 creates a three-dimensional face model of the person to be registered in the input face image by mapping the input face image as a texture image on the orientation-adjusted shape model. That is, the registration information is used so that each face feature point extracted for the input face image and the 3D face feature point for the 3D face shape data selected as the orientation-adjusted shape model are aligned. The input face image is mapped as a texture image to the orientation-adjusted shape model. Note that the mapping is a process in which the value of each pixel of the input face image is set to a pixel value at a corresponding position in the three-dimensional face shape data.
The input face image mapping unit 53 creates a three-dimensional face model for the input face image every time the image processing unit 5 acquires the input face image for the person to be registered. However, when a plurality of three-dimensional face shape data is stored in the storage unit 4, input face image mapping is performed after optimal three-dimensional face shape data is selected for a plurality of input face images of the person to be registered. The unit 53 creates a three-dimensional face model for each input face image. The input face image mapping unit 53 stores the created three-dimensional face model in the storage unit 4 in association with the identification code of the person to be registered, and outputs it to the developed face image generation unit 54.

展開顔画像生成部54は、入力顔画像マッピング部53から登録対象者の3次元顔モデルを受け取る度に、その3次元顔モデル上にマッピングされたテクスチャ情報を2次元に展開した展開顔画像を生成する。
図2は、展開顔画像を生成するために3次元顔モデルに対して設定される座標系を示す。
図2おいて、X軸は、3次元顔モデル200に対して、右目から左目へ向かうように(3次元顔モデルの正面に向かって左から右に)、水平方向の軸として定義される。Y軸は、X軸及びZ軸と直交し、喉付近から頭頂部へ向かうように、すなわち下から上へ向かう軸として定義される。Z軸は、X軸及びY軸と直交し、鼻尖点から後頭部へ向かう方向の軸として定義される。X軸、Y軸及びZ軸の交点である原点Oは、3次元顔モデル200の重心に設定される。
Each time the developed face image generation unit 54 receives the registration target person's three-dimensional face model from the input face image mapping unit 53, the developed face image generation unit 54 develops the developed face image obtained by two-dimensionally developing the texture information mapped on the three-dimensional face model. Generate.
FIG. 2 shows a coordinate system set for the three-dimensional face model in order to generate a developed face image.
In FIG. 2, the X axis is defined as a horizontal axis with respect to the three-dimensional face model 200 from the right eye to the left eye (from the left to the right when facing the front of the three-dimensional face model). The Y-axis is defined as an axis that is orthogonal to the X-axis and the Z-axis and goes from the vicinity of the throat toward the crown, that is, from the bottom to the top. The Z-axis is defined as an axis that is orthogonal to the X-axis and the Y-axis and extends from the tip of the nose to the occipital region. The origin O that is the intersection of the X axis, the Y axis, and the Z axis is set to the center of gravity of the three-dimensional face model 200.

本実施形態において、Z座標が負の値となる象限における、すなわち、3次元顔モデルにおける顔の正面側における、X=0であるYZ平面220と3次元顔モデル200の表面との交線210をテクスチャスキャンラインと呼ぶ。
展開顔画像生成部54は、Y軸を回転中心として3次元顔モデルを回転させ、それぞれの回転角度における、テクスチャスキャンライン210上の画素値を読み取って、横軸を回転角、縦軸をY座標とする2次元上にマッピングすることにより、展開顔画像を作成する。なお、入力顔画像がカラー画像である場合、画素値は、例えばRGB各色の輝度値となる。また、入力顔画像がグレー画像である場合、画素値は輝度値となる。例えば、鼻尖点がYZ平面220上に位置するときの回転角を0°とし、3次元顔モデル200を矢印230に示されるように時計回りに回転させたときの回転角の値を正、3次元顔モデル200を矢印240に示されるように反時計回りに回転させたときの回転角の値を負とする。
In the present embodiment, the intersection line 210 between the YZ plane 220 where X = 0 and the surface of the three-dimensional face model 200 in the quadrant where the Z coordinate is a negative value, that is, on the front side of the face in the three-dimensional face model. Is called a texture scan line.
The developed face image generation unit 54 rotates the three-dimensional face model around the Y axis as a rotation center, reads pixel values on the texture scan line 210 at each rotation angle, the horizontal axis indicates the rotation angle, and the vertical axis indicates Y. A developed face image is created by mapping two-dimensionally as coordinates. When the input face image is a color image, the pixel value is, for example, a luminance value for each color of RGB. When the input face image is a gray image, the pixel value is a luminance value. For example, the rotation angle when the nose tip is located on the YZ plane 220 is 0 °, and the rotation angle value when the three-dimensional face model 200 is rotated clockwise as indicated by the arrow 230 is positive, 3 The rotation angle value when the dimension face model 200 is rotated counterclockwise as indicated by the arrow 240 is negative.

展開顔画像生成部54は、例えば、3次元顔モデル200を−180°〜+180°まで所定の単位(例えば、1°)ずつ回転させ、その度にテクスチャスキャンライン210上の画素値を読み取る。なお、回転角が−180°または+180°近傍のテクスチャ情報、すなわち後頭部近傍のテクスチャ情報は、顔の認証処理に利用するには適さない。そこで展開顔画像生成部54は、3次元顔モデル200を回転させる範囲を、少なくとも顔の一部がテクスチャラインとなる範囲、例えば、−150°〜+150°の範囲としてもよい。
なお、展開顔画像生成部54は、X軸を回転軸としてもよい。この場合には、例えば、Y=0のXZ平面と、3次元顔モデルの表面との交点をテクスチャスキャンラインとする。
For example, the developed face image generation unit 54 rotates the three-dimensional face model 200 by a predetermined unit (for example, 1 °) from −180 ° to + 180 °, and reads the pixel value on the texture scan line 210 each time. Note that texture information with a rotation angle near −180 ° or + 180 °, that is, texture information near the back of the head is not suitable for use in face authentication processing. Therefore, the developed face image generation unit 54 may set the range in which the three-dimensional face model 200 is rotated to a range where at least a part of the face is a texture line, for example, a range of −150 ° to + 150 °.
The developed face image generation unit 54 may use the X axis as a rotation axis. In this case, for example, the intersection of the XZ plane with Y = 0 and the surface of the three-dimensional face model is set as a texture scan line.

また、展開顔画像生成部54は、3次元顔モデルの肌色に相当する部分及び肌色に囲まれた部分だけを展開顔画像上にマッピングすることが好ましい。これは、髪の毛のように、顔の周囲に位置し、肌色と異なる色を持つ部分は個人識別のための情報をあまり有していないためである。なお、肌色に相当する部分は、例えば、入力顔画像がRGBのカラー画像である場合、3次元顔モデルの各部の値をHSV表色系に変換したときに、色相Hの成分の色情報が、肌色に相当値の範囲(例えば、色相Hの成分の色情報が0から359で表される場合に0〜30)に含まれる部分とする。   Further, it is preferable that the developed face image generation unit 54 maps only a part corresponding to the skin color of the three-dimensional face model and a part surrounded by the skin color on the developed face image. This is because a portion that is located around the face and has a color different from the skin color like hair does not have much information for personal identification. For example, when the input face image is an RGB color image, the color information of the component of hue H is converted into the portion corresponding to the skin color when the value of each part of the three-dimensional face model is converted into the HSV color system. A portion included in a range corresponding to the skin color (for example, 0 to 30 when the color information of the component of hue H is represented by 0 to 359).

展開顔画像生成部54は、作成した展開顔画像を元の3次元顔モデル、入力顔画像及び登録対象者の識別コードと関連付けて記憶部4に記憶する。また展開顔画像生成部54は、3次元顔モデルから展開顔画像を作成する際に、展開顔画像の各画素が3次元顔モデルの何れの位置に存在したのかを表す展開情報も、展開顔画像とともに記憶部4に記憶する。この展開情報は、後述する合成処理が終了した後の展開顔画像から3次元顔モデルを再現する際に利用される。   The developed face image generation unit 54 stores the created developed face image in the storage unit 4 in association with the original three-dimensional face model, the input face image, and the identification code of the person to be registered. In addition, when the developed face image generation unit 54 creates a developed face image from the three-dimensional face model, the development information indicating where each pixel of the developed face image exists in the three-dimensional face model is also displayed as the developed face image. The image is stored in the storage unit 4 together with the image. This development information is used when a three-dimensional face model is reproduced from the developed face image after the synthesis process described later is completed.

図3(a)は、3次元顔モデルの一例の概略図であり、図3(b)は、図3(a)に示された3次元顔モデル300から作成される展開顔画像の概略図である。
図3(a)に示された3次元顔モデル300は、やや右側(向かって左側)を向いている入力顔画像から作成された3次元顔モデルである。このとき、上記のように、3次元顔モデル300をY軸を回転中心として1°ずつ回転させつつ、3次元顔モデル300の表面とYZ平面との交点の画素値情報を読み取ることにより、図3(b)に示されるような展開顔画像310が作成される。展開顔画像310の輪郭315は、3次元顔モデル300にマッピングされた入力顔画像の肌部分の輪郭に対応する。
FIG. 3A is a schematic diagram of an example of a three-dimensional face model, and FIG. 3B is a schematic diagram of a developed face image created from the three-dimensional face model 300 shown in FIG. It is.
The 3D face model 300 shown in FIG. 3A is a 3D face model created from an input face image facing slightly to the right (left side). At this time, as described above, the pixel value information at the intersection of the surface of the 3D face model 300 and the YZ plane is read while rotating the 3D face model 300 by 1 ° about the Y axis as a rotation center. A developed face image 310 as shown in 3 (b) is created. The contour 315 of the developed face image 310 corresponds to the contour of the skin portion of the input face image mapped to the three-dimensional face model 300.

この例では、3次元顔モデル300が右側を向いているために、鼻の右側部分320、及び、右耳、右頬から顎にかけての顔の右側部分330が入力顔画像上で隠れているために、それらの部分のテクスチャ情報が存在しない。そのため、展開顔画像310においても、鼻の右側部分320、及び顔の右側部分330のテクスチャ情報は欠落している。このような、テクスチャ情報が欠落した領域を以下ではテクスチャ欠落領域と呼ぶ。また、テクスチャ情報が存在する領域と、テクスチャ欠落領域との境界を、以下ではテクスチャ欠落境界と呼ぶ。図3(b)では、テクスチャ欠落領域320のテクスチャ欠落境界325及びテクスチャ欠落領域330のテクスチャ欠落境界335は、それぞれ点線で示されている。
なお、輪郭315のうち、テクスチャ欠落領域330と重なる部分は、本来輪郭として写ってはいないが、ここでは、理解を容易にするために、顔の左側の輪郭を、顔の中心を通る線で左右反転した線を、欠落している部分の輪郭として図示した。またテクスチャ欠落領域内の画素の値は、例えば、テクスチャ情報が欠落していることを表す特定の値(例えば、通常取り得る画素値の範囲外の値である-1)に設定される。
In this example, since the three-dimensional face model 300 faces the right side, the right side portion 320 of the nose and the right side portion 330 of the face from the right ear and the right cheek to the chin are hidden on the input face image. However, there is no texture information for those parts. Therefore, also in the developed face image 310, the texture information of the right nose portion 320 of the nose and the right portion 330 of the face is missing. Such an area lacking texture information is hereinafter referred to as a texture missing area. In addition, the boundary between the area where the texture information exists and the texture missing area is hereinafter referred to as a texture missing boundary. In FIG. 3B, the texture missing boundary 325 of the texture missing area 320 and the texture missing boundary 335 of the texture missing area 330 are indicated by dotted lines, respectively.
Note that the portion of the contour 315 that overlaps with the texture missing region 330 is not originally captured as a contour, but here, in order to facilitate understanding, the contour on the left side of the face is a line that passes through the center of the face. The line reversed left and right is shown as the outline of the missing part. The value of the pixel in the texture missing area is set to a specific value (for example, -1 which is a value outside the range of pixel values that can be normally taken) indicating that texture information is missing.

一般に、入力顔画像上で、登録対象者が正面を向いていると、テクスチャ情報が欠落する部分は少なくなる。しかし、登録対象者が少しでも横方向を向いていると、オクルージョンが生じるので、図3(a)及び(b)に示されるように、展開顔画像において、顔の一部のテクスチャ情報が欠落する。また、登録対象者が正面を向いた状態で撮影された入力顔画像が得られた場合でも、両耳から顎にかけての領域のテクスチャ情報は欠落する。
このように、展開顔画像上でテクスチャ情報が欠落していると、照合時において、特にその欠落している部分の方から撮影した顔画像が照合用の画像として得られたときに、その展開顔画像に対応する3次元顔モデルを用いた照合処理の精度が低下する。そこで顔画像合成装置1は、登録対象者について作成された複数の展開顔画像を用いて、テクスチャ情報の欠落のない合成展開顔画像を作成する。
In general, when the person to be registered is facing the front on the input face image, the portion where the texture information is missing decreases. However, since the occlusion occurs when the person to be registered is even in the horizontal direction, as shown in FIGS. 3A and 3B, the texture information of a part of the face is missing in the developed face image. To do. Further, even when an input face image taken with the person to be registered facing forward is obtained, the texture information of the region from both ears to the chin is lost.
As described above, if texture information is missing on the developed face image, when the face image photographed from the missing portion is obtained as an image for matching, the development is performed. The accuracy of the matching process using the three-dimensional face model corresponding to the face image is lowered. Therefore, the face image synthesizing device 1 creates a composite developed face image without missing texture information using a plurality of developed face images created for the person to be registered.

合成元画像選定部55は、顔画像選定部の一例であり、登録対象者の複数の展開顔画像の中から、合成展開顔画像を作成するために利用される複数の展開顔画像の組み合わせを決定する。
合成展開顔画像に写った登録対象者の顔が不自然にならないようにするためには、合成に用いられる二つの展開顔画像からマッピングされる領域の境界上に、登録対象者の表情に応じて形状の変わる、目、口、眉などの個人の特徴を豊富に含む特徴的な部位が存在せず、かつ、その境界付近において二つの展開顔画像の対応する画素間の輝度差ができるだけ小さいことが好ましい。
例えば、登録対象者が所定の領域、例えば、建物内の廊下を歩行している様子を撮像部2で撮影することにより入力顔画像が得られる場合、登録対象者の位置、顔の向き、または照明の設置位置などにより顔に対する照明条件は変化する。その結果、複数の入力顔画像のそれぞれに写っている登録対象者の顔の輝度は、入力顔画像ごとに異なる可能性がある。特に、顔画像合成装置1が複数の撮像部2を有し、それぞれの撮像部2によって撮影された画像を一人の登録対象者の入力顔画像として用いる場合に、そのような入力顔画像ごとの顔の輝度の違いが生じる傾向が強くなる。そして入力顔画像ごとの顔の輝度の違いがあまりに大きいと、そのような入力顔画像から作成された展開顔画像を用いた合成展開顔画像では、異なる展開顔画像がマッピングされた二つの領域の境界がエッジ状になってしまう。さらに、合成に利用される展開顔画像の枚数が増えると、それだけ異なる展開顔画像からマッピングされた領域の境界の数も増えるので、顔全体の輝度を合わせることが困難になる。
The composition source image selection unit 55 is an example of a face image selection unit, and a combination of a plurality of developed face images used to create a composite developed face image from a plurality of developed face images of the person to be registered. decide.
In order to prevent the face of the registered person appearing in the combined developed face image from becoming unnatural, the facial expression of the registered person must be set on the boundary of the area mapped from the two expanded face images used for composition. There is no characteristic part that contains abundant personal features such as eyes, mouth, and eyebrows, and the difference in brightness between the corresponding pixels of the two developed face images is as small as possible near the boundary. It is preferable.
For example, when an input face image is obtained by capturing an image of the registration target person walking in a predetermined area, for example, a corridor in a building, with the imaging unit 2, the position of the registration target person, the orientation of the face, The lighting conditions for the face vary depending on the position of the lighting. As a result, the brightness of the face of the person to be registered that appears in each of the plurality of input face images may be different for each input face image. In particular, when the face image synthesizing apparatus 1 includes a plurality of image capturing units 2 and an image captured by each image capturing unit 2 is used as an input face image of one person to be registered, such an input face image There is a strong tendency for differences in facial brightness. If the difference in the brightness of the face for each input face image is too large, the composite developed face image using the developed face image created from such an input face image has two regions to which different developed face images are mapped. The boundary becomes an edge shape. Furthermore, as the number of developed face images used for synthesis increases, the number of boundaries between regions mapped from different developed face images also increases, so it becomes difficult to match the brightness of the entire face.

さらに、合成展開顔画像の作成に用いられる複数の展開顔画像の撮影時刻に時間差が有れば、その時間差のうちに登録対象者の表情が変わることもある。
そのため、本実施形態では、合成元画像選定部55は、合成展開顔画像の作成に用いられる展開顔画像の数はできるだけ少なくする。さらに合成元画像選定部55は、合成に用いられる一方の展開顔画像からマッピングされる領域と他方の展開顔画像からマッピングされる領域の境界上に、登録対象者の表情に応じて形状の変わる、目、口、眉などの個人の特徴を豊富に含む特徴的な部位が存在しないようにその境界を設定可能で、かつ、その境界付近の合成する展開顔画像に写っている顔の輝度差ができるだけ小さくなるように、展開顔画像を選択する。なお、以下では、この境界を合成境界と呼ぶ。
Furthermore, if there is a time difference between the shooting times of the plurality of developed face images used for creating the composite developed face image, the facial expression of the person to be registered may change within the time difference.
Therefore, in this embodiment, the composition source image selection unit 55 reduces the number of developed face images used for creating a composite developed face image as much as possible. Further, the composition source image selection unit 55 changes the shape according to the facial expression of the person to be registered on the boundary between the region mapped from one developed face image and the region mapped from the other developed face image used for composition. The boundary can be set so that there is no characteristic part that contains abundant personal features such as eyes, mouth, and eyebrows, and the brightness difference of the face reflected in the developed facial image synthesized near the boundary The expanded face image is selected so that is as small as possible. Hereinafter, this boundary is referred to as a composite boundary.

登録対象者の顔の向きが、撮像部2に対して正面を向いている状態から左へ45°回転した展開顔画像と、右へ45°回転した展開顔画像の2枚あれば、顔画像合成装置1は、殆どの場合、その登録対象者についてテクスチャ欠落領域の無い合成展開顔画像を作成できる。そこで本実施形態では、合成元画像選定部55は、記憶部4に記憶されている登録対象者の複数の展開顔画像の中から、2枚の展開顔画像を用いる組み合わせを全て求める。例えば、記憶部4にN枚の展開顔画像が記憶されている場合、この組み合わせの総数は、(NC2)通りとなる。ただしNは、2以上の整数である。なお、合成元画像選定部55は、2枚の展開顔画像を用いてテクスチャ欠落領域の無い合成展開顔画像を作成できない場合には、3枚以上の展開顔画像を選択してもよい。 If the face of the person to be registered is two images, a developed face image rotated 45 ° to the left and a developed face image rotated 45 ° to the right from the state of facing the imaging unit 2, the face image In most cases, the synthesizing device 1 can create a combined developed face image without a texture missing region for the person to be registered. Therefore, in this embodiment, the composition source image selection unit 55 obtains all combinations using two developed face images from among a plurality of developed face images of the registration target person stored in the storage unit 4. For example, when N developed face images are stored in the storage unit 4, the total number of combinations is ( N C 2 ). N is an integer of 2 or more. Note that the composite source image selection unit 55 may select three or more developed face images when the two developed face images cannot be used to create a composite developed face image without a texture missing region.

次に、合成元画像選定部55は、求めた組み合わせのそれぞれについて、その組み合わせに含まれる展開顔画像のみを用いて、テクスチャ欠落領域のない合成展開顔画像を作成できるか否かを判定する。例えば、合成元画像選定部55は、その組み合わせに含まれた展開顔画像の顔が写っている領域全てを、何のテクスチャ情報も持たない一つのマッピング用展開顔画像上にマッピングした場合において、顔に相当する画素に囲まれた欠落部分が存在せず、かつ、展開顔画像作成時における3次元顔モデルの回転角が所定の角度範囲内に相当する合成展開顔画像上の領域に欠落部分が存在しない場合、テクスチャ情報の欠落部分が存在しないと判定する。なお、所定の角度範囲は、顔が撮像部2に対して正面を向いた状態を回転角0°としたときに、±80°とすることができる。
逆に、合成展開顔画像上に、顔に相当する画素に囲まれた欠落部分が存在する場合、または上記の3次元顔モデルの回転角が所定の角度範囲内に相当する合成展開顔画像上の領域に欠落部分が存在する場合、合成元画像選定部55はテクスチャ情報の欠落部分が存在すると判定する。
Next, for each of the obtained combinations, the composition source image selection unit 55 determines whether it is possible to create a composite developed face image without a texture missing region using only the developed face images included in the combination. For example, when the composition source image selection unit 55 maps all the areas in which the faces of the expanded face images included in the combination are reflected on one mapping expanded face image having no texture information, There is no missing part surrounded by pixels corresponding to the face, and the missing part is in the area on the composite developed face image in which the rotation angle of the three-dimensional face model is within a predetermined angle range when creating the developed face image Is not present, it is determined that there is no missing part of the texture information. The predetermined angle range can be set to ± 80 ° when the rotation angle is 0 ° when the face is facing the front with respect to the imaging unit 2.
Conversely, when there is a missing part surrounded by pixels corresponding to the face on the composite developed face image, or on the composite developed face image in which the rotation angle of the three-dimensional face model is within a predetermined angle range. If there is a missing part in the area, the composition source image selecting unit 55 determines that there is a missing part of the texture information.

図4(a)は、展開顔画像の一例を示す図であり、図4(b)は、図4(a)に示した展開顔画像に写っている登録対象者の表情と異なる表情の展開顔画像の他の一例を示す図である。図4(a)において、展開顔画像400の顔の右側部分401及び鼻の右側部分402はテクスチャ欠落領域となっている。また図4(b)では、展開顔画像410の顔の左側部分411がテクスチャ欠落領域となっている。
ここで、展開顔画像410は、展開顔画像400のテクスチャ欠落領域401、402に対応する部分のテクスチャ情報を含んでいる。そのため、顔画像合成装置1は、この二つ展開顔画像400及び410を合成することにより、テクスチャ欠落領域のない合成展開顔画像を作成できる。
しかし、図4(a)及び(b)から明らかなように、展開顔画像400に写っている登録対象者の表情は、展開顔画像410に写っている登録対象者の表情と異なっている。具体的には、展開顔画像400では、登録対象者は口を閉じているのに対して、展開顔画像410では、登録対象者は口を開いている。そのため、口の上に合成境界が設定されると、合成展開顔画像上では、顔の右半分と左半分とで口の開き方が異なる、不自然な表情の顔の像が作成されることになる。
FIG. 4A is a diagram showing an example of a developed face image, and FIG. 4B is a development of a facial expression different from the facial expression of the person to be registered shown in the developed face image shown in FIG. It is a figure which shows another example of a face image. In FIG. 4A, the right side portion 401 of the face and the right side portion 402 of the nose of the developed face image 400 are texture missing regions. In FIG. 4B, the left side portion 411 of the face of the developed face image 410 is a texture missing region.
Here, the developed face image 410 includes texture information of portions corresponding to the texture missing regions 401 and 402 of the developed face image 400. Therefore, the face image composition device 1 can create a composite developed face image without a texture missing region by combining the two developed face images 400 and 410.
However, as is clear from FIGS. 4A and 4B, the facial expression of the person to be registered shown in the developed face image 400 is different from the facial expression of the person to be registered shown in the developed face image 410. Specifically, in the developed face image 400, the person to be registered has the mouth closed, whereas in the developed face image 410, the person to be registered has the mouth open. Therefore, when a composite boundary is set on the mouth, an unnatural expression of the face is created on the composite unfolded face image, with the mouth open differently on the right and left halves of the face. become.

そこで合成元画像選定部55は、テクスチャ欠落領域の無い合成展開顔画像が作成可能と判定した展開顔画像の組み合わせについて、顔の特徴的な部位を避けた合成境界を設定可能か否か判定する。
そのために、合成元画像選定部55は、記憶部4から、登録対象者の展開顔画像の作成に利用された3次元顔形状データに対応する境界線候補情報を読み込む。
Therefore, the composition source image selection unit 55 determines whether or not a combination boundary that avoids a characteristic part of the face can be set for a combination of the expanded face images determined to be able to create a combined expanded face image without a texture missing region. .
For this purpose, the compositing source image selection unit 55 reads boundary line candidate information corresponding to the three-dimensional face shape data used to create the developed face image of the person to be registered from the storage unit 4.

図5(a)は、3次元顔形状データを展開顔画像の作成手順に従って2次元に展開した展開顔画像500上に設定された境界線候補情報の一例を示す図である。境界線候補情報には、展開顔画像上に設定された複数のノード501と、ノード501同士を接続するリンク502とを含む。そして、合成境界となり得る境界線候補は、展開顔画像500の顔に相当する領域である顔領域510の上端に設定されたノードの何れかから顔領域510の下端に設定されたノードの何れかまで、1以上のノードを経由するリンク502を結んで設定される。例えば、図5(a)では、一つの境界線候補503が示されている。この境界線候補503は、ノード501aからノード501iまでの9個のノードと、それらノードを経由する8本のリンク502a〜502hにより構成される。このような境界線候補は複数設定される。そして境界線候補情報には、境界線候補ごとに、その境界線候補上の各ノードの個数及び座標が含まれる。   FIG. 5A is a diagram showing an example of boundary line candidate information set on a developed face image 500 obtained by two-dimensionally developing three-dimensional face shape data in accordance with a developed face image creation procedure. The boundary line candidate information includes a plurality of nodes 501 set on the developed face image and a link 502 connecting the nodes 501 to each other. A boundary candidate that can be a composite boundary is one of nodes set at the lower end of the face area 510 from one of nodes set at the upper end of the face area 510, which is an area corresponding to the face of the developed face image 500. Up to this point, the link 502 is set via one or more nodes. For example, in FIG. 5A, one boundary line candidate 503 is shown. The boundary line candidate 503 includes nine nodes from the node 501a to the node 501i and eight links 502a to 502h passing through the nodes. A plurality of such boundary line candidates are set. The boundary line candidate information includes the number and coordinates of each node on the boundary line candidate for each boundary line candidate.

各ノード及び各リンクは、それぞれ、表情に応じて形状の変わる顔の特徴的な部位と重ならないように設定される。例えば、図5(a)では、各ノード501及び各リンク502は、3次元顔形状データについて設定された目、鼻、口、眉を含む領域(以下では、これらの領域を特徴領域と呼ぶ)と重ならないように設定されている。そのため、各境界線候補も、特徴領域と重ならないように設定される。特に、本実施形態では、境界線候補から何れかの特徴領域までの距離が、後述する合成重み算出部56により算出される、後からマッピングされる展開顔画像に対する重み係数が略0となる合成境界からの距離よりも長くなるように、各ノード及び各リンクは設定される。
これら複数のノードは、展開顔画像上で格子状に設定されてもよく、あるいはハニカム状に設定されてもよい。さらに、これら複数のノードは、略等間隔に設定されてもよく、あるいは場所によって異なる密度で設定されてもよい。例えば、ノードは、特徴領域の周囲では、その他の領域よりも密に設定されてもよい。
Each node and each link is set so as not to overlap the characteristic part of the face whose shape changes according to the facial expression. For example, in FIG. 5A, each node 501 and each link 502 is an area including eyes, nose, mouth, and eyebrows set for the three-dimensional face shape data (hereinafter, these areas are referred to as feature areas). It is set not to overlap. Therefore, each boundary line candidate is also set so as not to overlap the feature region. In particular, in the present embodiment, the distance from the boundary line candidate to any one of the feature regions is calculated by the combination weight calculation unit 56 described later, and the weight coefficient for the developed face image to be mapped later is approximately zero. Each node and each link is set to be longer than the distance from the boundary.
The plurality of nodes may be set in a lattice shape on the developed face image, or may be set in a honeycomb shape. Further, the plurality of nodes may be set at substantially equal intervals, or may be set at different densities depending on locations. For example, the nodes may be set more densely around the feature area than other areas.

また、ノードが多数設定されている場合、設定可能な境界線候補の数は非常に多い。また多数のノードを経由する境界線候補は、境界線の形状が複雑になり、境界線自体も長くなる。そこで、各境界線候補は、例えば、経由するノードの数が10個以下となるように設定されることが好ましい。さらに、各境界線候補に含まれるリンクは、直線に限らず、例えば、複数のノードを滑らかな曲線で接続する、例えばスプライン関数によって表される曲線であってもよい。
または、境界線の長さが不必要に長くならないように、各境界線候補に含まれるリンクの長さの合計が顔領域の高さの1.5倍以下となるように、各境界線候補は設定されることが好ましい。
When a large number of nodes are set, the number of boundary line candidates that can be set is very large. In addition, the boundary line candidates that pass through a large number of nodes have a complicated boundary line shape, and the boundary line itself becomes longer. Therefore, it is preferable that each boundary line candidate is set so that, for example, the number of nodes through which it passes is 10 or less. Furthermore, the link included in each boundary line candidate is not limited to a straight line, and may be, for example, a curve connecting a plurality of nodes with a smooth curve, for example, represented by a spline function.
Alternatively, each boundary candidate is set so that the total length of the links included in each boundary line candidate is 1.5 times or less the height of the face area so that the boundary line length is not unnecessarily long. It is preferred that

合成元画像選定部55は、合成境界を決定するために、選択された組み合わせに含まれる、二つの展開顔画像の何れにおいても顔のテクスチャ情報が含まれている、すなわち、二つの展開顔画像の何れにおいてもテクスチャ欠落領域でなく、かつ、顔に相当する領域に含まれている領域を共通領域として抽出する。そして合成元画像選定部55は、境界線候補情報に含まれる複数の境界線候補のうち、共通領域内に完全に含まれる境界線候補を抽出する。なお、境界線候補上に位置する各ノードの座標は既知であるため、境界線候補が共通領域に含まれるか否かは、点及び線が所定の領域内に含まれるか否かを調べる公知の方法により判定できる。   The composition source image selection unit 55 includes face texture information in any of the two developed face images included in the selected combination in order to determine the composition boundary, that is, two developed face images. In any of the above, a region that is not a texture missing region and is included in a region corresponding to a face is extracted as a common region. Then, the composition source image selection unit 55 extracts boundary line candidates that are completely included in the common region from among a plurality of boundary line candidates included in the boundary line candidate information. In addition, since the coordinates of each node located on the boundary line candidate are known, whether or not the boundary line candidate is included in the common area is known to check whether the point and the line are included in the predetermined area. It can be determined by this method.

合成元画像選定部55は、抽出された境界線候補ごとに、その境界線候補上の二つの展開顔画像の対応する画素の値の差の平均値の総和を次式に従って算出し、その値を輝度相違度Pとする。

Figure 0005419777
ここでnは、着目する組み合わせに含まれる展開顔画像の総数を表す。またAvgi,i+1は、着目する組み合わせにおけるi番目の展開顔画像の境界線候補上の画素の値と、(i+1)番目の展開顔画像の対応する画素の値との差の平均値を表す。
なお、合成元画像選定部55は、平均値Avgi,i+1の総和の代わりに、i番目の展開顔画像の境界線候補上の画素の値と、(i+1)番目の展開顔画像の対応する画素の値との差の中央値の総和を輝度相違度Pとしてもよい。 For each extracted boundary line candidate, the compositing source image selection unit 55 calculates the sum of the average values of the differences between the values of the corresponding pixels of the two developed face images on the boundary line candidate according to the following formula: Is the brightness difference P.
Figure 0005419777
Here, n represents the total number of developed face images included in the focused combination. Avg i, i + 1 is the difference between the value of the pixel on the boundary line candidate of the i-th expanded face image and the value of the corresponding pixel of the (i + 1) -th expanded face image in the combination of interest. Represents an average value.
Note that the composition source image selection unit 55 replaces the sum of the average values Avg i, i + 1 with the pixel value on the boundary line candidate of the i-th expanded face image and the (i + 1) -th expanded face. The sum of the median differences between the values of the corresponding pixels in the image may be used as the luminance difference P.

合成元画像選定部55は、選択された展開顔画像の組み合わせのそれぞれについて設定可能な全ての境界線候補の組み合わせについて輝度相違度Pを算出し、その輝度相違度Pが最小となる展開顔画像の組み合わせ及び境界線候補を求める。そして合成元画像選定部55は、輝度相違度Pが最小となった組み合わせに含まれる展開顔画像を、合成展開顔画像の作成に利用するものとして選択し、その輝度相違度Pの最小値に対応する境界線候補を合成境界とする。
あるいは、合成元画像選定部55は、選択された展開顔画像の組み合わせの中から、一つずつ輝度相違度Pを算出し、その輝度相違度Pが最初に所定の閾値以下となったときの組み合わせに含まれる展開顔画像を、合成展開顔画像の作成に利用するものとして選択し、所定の閾値以下となった輝度相違度Pに対応する境界線候補を合成境界としてもよい。なお、所定の閾値は、例えば、15に設定される。
The composition source image selection unit 55 calculates the luminance difference degree P for all combinations of boundary line candidates that can be set for each of the selected combinations of developed face images, and the developed face image that minimizes the luminance difference degree P. And a boundary line candidate are obtained. Then, the compositing source image selection unit 55 selects the developed face image included in the combination having the smallest brightness difference degree P as the one used for the creation of the composite developed face image, and sets the brightness difference degree P to the minimum value. The corresponding boundary line candidate is set as a composite boundary.
Alternatively, the composition source image selection unit 55 calculates the brightness difference P one by one from the selected combination of developed face images, and when the brightness difference P first becomes a predetermined threshold value or less. A developed face image included in the combination may be selected as one used to create a combined developed face image, and a boundary line candidate corresponding to the luminance difference P that is equal to or less than a predetermined threshold may be used as a synthesized boundary. The predetermined threshold is set to 15, for example.

図5(b)は、図4(a)及び(b)に示された二つの展開顔画像についての共通領域と設定された合成境界との関係を示す図である。図5(b)に示された展開顔画像500において、テクスチャ欠落境界501よりも顔の右側部分511及びテクスチャ欠落境界502で囲まれた鼻の右側部分512は、図4(a)に示された展開顔画像400におけるテクスチャ欠落領域になっている。また、展開顔画像500において、テクスチャ欠落境界503よりも顔の左側部分513は、図4(b)に示された展開顔画像410におけるテクスチャ欠落領域になっている。そのため、展開顔画像500の中央部分がこの二つの展開顔画像400、410に対する共通領域514となる。そのため、合成境界520は、共通領域514内に含まれるように、顔の中央部分に設定される。   FIG. 5B is a diagram showing the relationship between the common area and the set synthesis boundary for the two developed face images shown in FIGS. 4A and 4B. In the developed face image 500 shown in FIG. 5B, the right side portion 511 of the face and the right side portion 512 of the nose surrounded by the texture missing boundary 502 are shown in FIG. The developed face image 400 is a texture missing region. Further, in the developed face image 500, the left side portion 513 of the face from the texture missing boundary 503 is a texture missing region in the developed face image 410 shown in FIG. Therefore, the central portion of the developed face image 500 is a common area 514 for the two developed face images 400 and 410. Therefore, the composite boundary 520 is set at the center portion of the face so as to be included in the common region 514.

さらに、合成元画像選定部55は、選択された展開顔画像について合成する順序を設定する。その際、合成元画像選定部55は、マッピング用展開顔画像に対して最初にマッピングされる展開顔画像について、合成境界とテクスチャ欠落境界に挟まれた領域を非合成領域として設定する。この非合成領域は、テクスチャ情報が欠落していないものの、合成展開顔画像の作成に利用されない領域である。非合成領域に関しては、次にマッピングされる展開顔画像の対応する領域のテクスチャ情報が合成展開顔画像の作成に利用される。また、合成元画像選定部55は、顔のテクスチャ情報を持つ領域から非合成領域を除いた領域を、合成展開顔画像の作成に利用する合成領域とする。
また、合成元画像選定部55は、後からマッピングされる展開顔画像において顔のテクスチャ情報を持つ領域を合成領域として設定する。なお、マッピング用展開顔画像は、登録対象者の入力顔画像に基づいて選択された3次元顔形状データを展開することにより得られる、テクスチャ情報を持たない画像である。
Furthermore, the compositing source image selection unit 55 sets the order of compositing the selected developed face images. At that time, the composition source image selection unit 55 sets a region sandwiched between the composition boundary and the texture missing boundary as a non-composition region for the developed face image that is first mapped to the mapping developed face image. This non-synthesized area is an area that is not used for creating a composite developed face image, although texture information is not lost. For the non-composite area, the texture information of the corresponding area of the developed face image to be mapped next is used to create the composite developed face image. In addition, the composition source image selection unit 55 sets a region obtained by removing the non-composition region from the region having the facial texture information as a composition region used for creating the composite developed face image.
Further, the composition source image selection unit 55 sets an area having facial texture information as a composition area in the developed face image to be mapped later. Note that the mapping developed face image is an image having no texture information obtained by developing three-dimensional face shape data selected based on the input face image of the person to be registered.

例えば、図4(a)に示された展開顔画像400が先にマッピング用展開顔画像にマッピングされ、その後に図4(b)に示された展開顔画像410がマッピング用展開顔画像にマッピングされる場合、図5(b)においてテクスチャ欠落境界501と合成境界520に挟まれた領域が展開顔画像400についての非合成領域530となる。一方、合成境界520よりも顔の左側部分が、展開顔画像400についての合成領域となる。
また、展開顔画像410に関しては、図5(b)に示されたテクスチャ欠落境界503よりも顔の右側部分が合成領域となる。
For example, the developed face image 400 shown in FIG. 4A is first mapped to the mapping developed face image, and then the developed face image 410 shown in FIG. 4B is mapped to the mapping developed face image. In this case, a region sandwiched between the texture missing boundary 501 and the composite boundary 520 in FIG. 5B is a non-composite region 530 for the developed face image 400. On the other hand, the left part of the face from the synthesis boundary 520 is a synthesis area for the developed face image 400.
Further, with respect to the developed face image 410, the right side portion of the face is a composite region from the texture missing boundary 503 shown in FIG.

合成元画像選定部55は、合成展開顔画像の作成に利用されることを示すフラグ及び合成順序を選択された展開顔画像のそれぞれと関連付けて記憶部4に記憶する。また合成元画像選定部55は、設定された合成境界上の各ノードの座標及び各ノード間を結ぶリンクを表す式を記憶部4に記憶する。   The composition source image selection unit 55 stores in the storage unit 4 a flag indicating that it is used to create a composite developed face image and the composition order in association with each of the selected developed face images. Further, the composition source image selection unit 55 stores, in the storage unit 4, the coordinates of each node on the set composition boundary and an expression representing a link connecting the nodes.

画像処理部5は、合成展開顔画像においてその合成境界がエッジとならず、合成境界近傍で画素の値が滑らかに変化するように、合成元画像選定部55により選択された展開顔画像を合成する。そのために、画像処理部5は、合成境界近傍で、且つマッピング用展開顔画像上に先にマッピングされた展開顔画像の合成領域では、その先にマッピングされた展開顔画像の画素の値と対応する次にマッピングされる展開顔画像の画素の値とを所定の重み係数を用いて加重平均する。
なお、以下では、先にマッピングされた展開顔画像を基準展開顔画像と呼び、後からマッピングされる展開顔画像を補完用展開顔画像と呼ぶ。
The image processing unit 5 synthesizes the developed face image selected by the composition source image selection unit 55 so that the synthesis boundary does not become an edge in the synthesized development face image and the pixel value smoothly changes in the vicinity of the synthesis boundary. To do. For this reason, the image processing unit 5 corresponds to the pixel value of the expanded face image mapped earlier in the combined area of the expanded face image mapped in the vicinity of the combined boundary and on the mapped expanded face image. Then, the pixel value of the developed face image to be mapped next is weighted and averaged using a predetermined weight coefficient.
In the following, the expanded face image mapped first is referred to as a reference expanded face image, and the expanded face image mapped later is referred to as a complementary expanded face image.

合成重み算出部56は、基準展開顔画像の各画素の値に乗じる重み係数B(dist)を次式に従って決定する。

Figure 0005419777
ここでdistは、合成境界から、重み係数B(dist)が用いられる画素までの距離、例えば、合成境界からの画素数を表す。またWは、合成比率の変化率を調整するパラメータであり、1よりも大きい値に設定される。パラメータWを小さい値に設定するほど、重み係数B(dist)は、合成境界からの距離の変化に応じて緩やかに変化する。例えば、パラメータWは1.05に設定される。なお、合成境界からの距離distに位置する、補完用展開顔画像の画素値に乗じる重み係数は、1からB(dist)を引いた値となる。 The composite weight calculation unit 56 determines a weight coefficient B (dist) to be multiplied by the value of each pixel of the reference developed face image according to the following equation.
Figure 0005419777
Here, dist represents the distance from the synthesis boundary to the pixel where the weight coefficient B (dist) is used, for example, the number of pixels from the synthesis boundary. W is a parameter for adjusting the rate of change of the composition ratio, and is set to a value larger than 1. As the parameter W is set to a smaller value, the weighting coefficient B (dist) changes more gradually according to the change in the distance from the synthesis boundary. For example, the parameter W is set to 1.05. Note that the weighting coefficient to be multiplied by the pixel value of the complementary expanded face image located at the distance dist from the synthesis boundary is a value obtained by subtracting B (dist) from 1.

図6(a)は、基準展開顔画像の一例を示す図であり、図6(b)は、図6(a)に示された基準展開顔画像600の画素620と合成境界610間の距離と、画素620に適用される重み係数との関係を示すグラフである。
図6(a)において、基準展開顔画像600において、顔の右側部分及び鼻に相当する領域601は、テクスチャ欠落領域と非合成領域とを組み合わせた領域となっている。そのため、この領域601には、補完用展開顔画像の合成領域のテクスチャ情報がマッピングされる。また、基準展開顔画像600における合成領域602についても、合成境界610から所定距離内の画素については、合成処理において、基準展開顔画像の画素の値と補完用展開顔画像の対応する画素の値とが加重平均される。
FIG. 6A is a diagram illustrating an example of the reference developed face image, and FIG. 6B is a distance between the pixel 620 and the synthesis boundary 610 of the reference developed face image 600 illustrated in FIG. And a weighting coefficient applied to the pixel 620.
In FIG. 6A, in the reference developed face image 600, a region 601 corresponding to the right part of the face and the nose is a region combining a texture missing region and a non-synthesized region. For this reason, the texture information of the synthesis region of the complementary expanded face image is mapped to this region 601. Also, with respect to the synthesis region 602 in the reference developed face image 600, for pixels within a predetermined distance from the composition boundary 610, the pixel value of the reference developed face image and the corresponding pixel value of the complement developed face image are used in the synthesis process. And are weighted averaged.

図6(b)において、横軸は、合成境界610から画素620までの距離を表し、縦軸は、(2)式によって求められる重み係数B(dist)の値を表す。またグラフ631及び632は、それぞれ、パラメータWをw1、w2に設定したときの重み係数B(dist)の値を表すグラフである。ただし、w1<w2である。
図6(b)に示されるように、画素620が合成境界上に位置するとき(すなわち、dist=0)、重み係数B(dist)は0となり、合成境界から画素620までの距離が大きくなるほど、重み係数B(dist)は1に近づく。
すなわち、合成処理において、合成境界の近くでは基準展開顔画像の情報は重視されず、補完用展開顔画像の情報が重視される。このように重み係数を設定する理由は、合成境界近傍では、基準展開顔画像に写っている登録対象者の顔の部分よりも補完用展開顔画像に写っている登録対象者の顔の部分の方が撮像部2に対して正面方向を向いており、従って、補完用展開顔画像の方がテクスチャ情報の信頼性が高いことによる。
一方、合成境界から離れるにつれ、逆に基準展開顔画像に写っている登録対象者の顔の部分の方が、補完用展開顔画像に写っている、対応する登録対象者の顔の部分よりも撮像部2に対して正面方向を向いており、テクスチャ情報の方が信頼性が高くなる。そのため、重み係数B(dist)は、合成境界からの距離が離れるほど大きな値となる。
In FIG. 6B, the horizontal axis represents the distance from the composite boundary 610 to the pixel 620, and the vertical axis represents the value of the weighting coefficient B (dist) obtained by equation (2). Graphs 631 and 632 are graphs showing the values of the weighting coefficient B (dist) when the parameter W is set to w 1 and w 2 , respectively. However, w 1 <w 2 .
As shown in FIG. 6B, when the pixel 620 is located on the synthesis boundary (that is, dist = 0), the weight coefficient B (dist) is 0, and the distance from the synthesis boundary to the pixel 620 increases. , The weight coefficient B (dist) approaches 1.
In other words, in the synthesis process, information on the reference developed face image is not emphasized near the synthesis boundary, but information on the complement developed face image is emphasized. The reason for setting the weighting factor in this way is that, in the vicinity of the synthesis boundary, the portion of the face of the registration subject shown in the complementary development face image is more than the portion of the face of the registration subject shown in the reference development face image. This is because the direction of the image is directed in the front direction with respect to the imaging unit 2, and therefore, the expanded face image for complementation is more reliable in texture information.
On the other hand, as the distance from the composite boundary increases, the face part of the person to be registered that is reflected in the reference expanded face image is opposite to the face part of the corresponding person that is registered in the expanded expanded face image. Since it faces the imaging unit 2 in the front direction, the texture information is more reliable. For this reason, the weighting coefficient B (dist) increases as the distance from the synthesis boundary increases.

合成重み算出部56は、基準展開顔画像の画素ごとに、(2)式に従って重み係数B(dist)を算出する。なお、基準展開顔画像の合成境界(すなわち、dist<0となる画素)では、合成重み算出部56は、B(dist)=0とする。また、(2)式に従って算出されたB(dist)の値が、1に近い所定値(例えば、0.99)以上となったとき、合成重み算出部56は、B(dist)=1としてもよい。そして合成重み算出部56は、基準展開顔画像の画素の水平座標及び垂直座標をそれぞれ行及び列の番号とする重み参照テーブルの各欄に、その水平座標及び垂直座標で規定される画素の重み係数B(dist)を格納する。そして合成重み算出部56は、重み参照テーブルを記憶部4に記憶する。   The composite weight calculation unit 56 calculates a weight coefficient B (dist) for each pixel of the reference developed face image according to the equation (2). Note that at the composite boundary of the reference developed face image (that is, the pixel where dist <0), the composite weight calculation unit 56 sets B (dist) = 0. Further, when the value of B (dist) calculated according to the equation (2) is equal to or greater than a predetermined value close to 1 (for example, 0.99), the composite weight calculation unit 56 may set B (dist) = 1. . The composite weight calculation unit 56 then assigns pixel weights defined by the horizontal and vertical coordinates to each column of the weight reference table in which the horizontal and vertical coordinates of the pixels of the standard expanded face image are row and column numbers, respectively. Stores the coefficient B (dist). Then, the composite weight calculation unit 56 stores the weight reference table in the storage unit 4.

顔画像合成部57は、記憶部4に記憶された重み参照テーブルを参照して、選定された複数の展開顔画像を合成することにより、合成展開顔画像を作成する。先ず、顔画像合成部57は、合成元画像選定部55により選択された複数の展開顔画像のうち、1番目の順序の展開顔画像を基準展開顔画像とする。そして顔画像合成部57は、2番目の順序の展開顔画像を補完用展開顔画像とする。
なお、本実施形態では、画像処理部5は、登録対象者の全ての入力顔画像を、一つの3次元顔形状データにマッピングして3次元顔モデル及び展開顔画像を生成している。そのため全ての展開顔画像は既に位置合わせされている。そこで顔画像合成部57は、合成展開顔画像の着目する画素の値を、基準展開顔画像と補完用展開顔画像において着目する画素と同じ位置にある画素を次式に従って加重平均することにより算出できる。

Figure 0005419777
なお、Ii Cは、合成展開顔画像の画素iの画素値であり、Ii mainは、基準展開顔画像の画素iの画素値であり、Ii subは、後からマッピングする補完用展開顔画像の画素iの画素値である。すなわち、顔画像合成部57は、基準展開顔画像のテクスチャ欠落領域及び非合成領域に補完用展開顔画像の合成領域内に含まれる対応する部分のテクスチャ情報をマッピングし、基準展開顔画像の合成領域では、基準展開顔画像の画素値と補完用展開顔画像の対応する画素値とを、重み係数B(dist)に応じて加重平均する。
同様に、顔画像合成部57は、3枚以上の展開顔画像を合成する場合、すでに複数の展開顔画像がマッピングされた展開顔画像をあらためて基準展開顔画像とし、次にマッピングする展開顔画像を補完用展開顔画像として、テクスチャ欠落領域がなくなるまで、すなわち、選択された全ての展開顔画像がマッピングされるまで、上記の処理を繰り返す。
顔画像合成部57は、作成した合成展開顔画像を登録対象者の識別コードと関連付けて記憶部4に記憶するとともに、その合成展開顔画像を展開顔画像マッピング部58へ渡す。 The face image synthesizing unit 57 refers to the weight reference table stored in the storage unit 4 and synthesizes a plurality of selected developed face images to create a combined developed face image. First, the face image composition unit 57 sets the developed face image in the first order among the plurality of developed face images selected by the composition source image selection unit 55 as the reference developed face image. Then, the face image synthesis unit 57 sets the developed face image in the second order as a complemented developed face image.
In the present embodiment, the image processing unit 5 maps all input face images of the person to be registered to one 3D face shape data to generate a 3D face model and a developed face image. Therefore, all the developed face images are already aligned. Therefore, the face image synthesis unit 57 calculates the value of the pixel of interest in the combined developed face image by performing weighted averaging of pixels at the same position as the pixel of interest in the reference developed face image and the supplementary developed face image according to the following equation. it can.
Figure 0005419777
Here, I i C is the pixel value of pixel i of the composite expanded face image, I i main is the pixel value of pixel i of the reference expanded face image, and I i sub is the complementary expansion to be mapped later This is the pixel value of pixel i of the face image. That is, the face image synthesis unit 57 maps the texture information of the corresponding part included in the synthesis area of the supplemental development face image to the texture missing area and the non-synthesis area of the reference development face image, and synthesizes the reference development face image. In the region, the pixel value of the reference developed face image and the corresponding pixel value of the supplementary developed face image are weighted and averaged according to the weighting coefficient B (dist).
Similarly, when synthesizing three or more developed face images, the face image synthesizing unit 57 newly sets a developed face image on which a plurality of developed face images have already been mapped as a reference developed face image, and then develops the developed face image to be mapped next. The above processing is repeated until the texture missing region is eliminated, that is, until all the selected developed face images are mapped.
The face image composition unit 57 stores the created composite developed face image in the storage unit 4 in association with the identification code of the person to be registered, and passes the composite developed face image to the developed face image mapping unit 58.

展開顔画像マッピング部58は、合成展開顔画像を3次元顔形状データにマッピングすることにより、合成3次元顔モデルを作成する。なお、合成展開顔画像がマッピングされる3次元顔形状データは、各展開顔画像の元となった3次元顔モデルの作成に利用された3次元顔形状データとすることが好ましい。この3次元顔形状データは、各展開顔画像に写っている顔特徴点と良好に一致する3D顔特徴点を有しているので、その3D顔特徴点は、複数の展開顔画像から合成された合成展開顔画像に写っている顔特徴点とも良好に一致するためである。
また、展開顔画像マッピング部58は、合成展開顔画像の作成に利用された展開顔画像に関連付けて記憶されている展開情報を参照することにより、合成展開顔画像の各画素が3次元顔形状データ上で対応する位置を特定し、その特定された位置へマッピングする。
画像処理部5は、展開顔画像マッピング部58により作成された合成3次元顔モデルを登録対象者の識別コードと関連付けて記憶部4に記憶する。あるいは、画像処理部5は、その合成3次元顔モデルを登録対象者の識別コードとともに、図示しない通信ネットワークを介して、3次元顔モデルを用いて認証処理を行う顔認証装置など他の装置へ出力してもよい。
The expanded face image mapping unit 58 creates a combined 3D face model by mapping the combined expanded face image to 3D face shape data. Note that the 3D face shape data to which the composite developed face image is mapped is preferably the 3D face shape data used to create the 3D face model that is the basis of each developed face image. Since the 3D face shape data has 3D face feature points that match well with the face feature points shown in each developed face image, the 3D face feature points are synthesized from a plurality of developed face images. This is because the facial feature points in the combined developed facial image also match well.
Further, the developed face image mapping unit 58 refers to the development information stored in association with the developed face image used to create the synthesized developed face image, so that each pixel of the synthesized developed face image has a three-dimensional face shape. A corresponding position on the data is specified and mapped to the specified position.
The image processing unit 5 stores the combined three-dimensional face model created by the developed face image mapping unit 58 in the storage unit 4 in association with the identification code of the person to be registered. Alternatively, the image processing unit 5 sends the composite three-dimensional face model to another apparatus such as a face authentication apparatus that performs authentication processing using the three-dimensional face model via a communication network (not shown) together with the identification code of the person to be registered. It may be output.

図7及び図8は、一つの実施形態による顔画像合成装置1における、顔画像合成処理の動作フローチャートである。なお、この顔画像合成処理は、画像処理部5によって制御される。
先ず、画像処理部5は、撮像部2からインターフェース部3を介して、登録対象者の顔が写っている入力顔画像を取得する(ステップS101)。そして画像処理部5は、取得した入力顔画像を登録対象者の識別コードに関連付けて記憶部4に記憶するとともに、画像処理部5の2D顔特徴点抽出部51へ渡す。
7 and 8 are operation flowcharts of face image composition processing in the face image composition apparatus 1 according to one embodiment. The face image composition process is controlled by the image processing unit 5.
First, the image processing unit 5 acquires an input face image in which the face of the person to be registered is shown from the imaging unit 2 via the interface unit 3 (step S101). The image processing unit 5 stores the acquired input face image in the storage unit 4 in association with the identification code of the person to be registered, and passes it to the 2D face feature point extraction unit 51 of the image processing unit 5.

2D顔特徴点抽出部51は、入力顔画像から、3次元顔形状データに関連付けられている3D顔特徴点と同種類の顔特徴点を抽出する(ステップS102)。そして2D顔特徴点抽出部51は、抽出した顔特徴点の種別と入力顔画像上の位置情報を、画像処理部5の位置合わせ情報算出部52へ出力する。
位置合わせ情報算出部52は、入力顔画像について2D顔特徴点抽出部51により抽出された各顔特徴点と、3次元顔形状データに関連する3D顔特徴点とを用いて、入力顔画像と記憶部4に記憶されている各3次元顔形状データの位置合わせを行う(ステップS103)。そして位置合わせ情報算出部52は、その位置合わせの結果として得られる、各3次元顔形状データに対する位置ずれ量の最小値及びその最小値に対応する3次元顔形状データの回転、拡大/縮小などの量を含む位置合わせ情報を算出する。
The 2D face feature point extraction unit 51 extracts face feature points of the same type as the 3D face feature points associated with the three-dimensional face shape data from the input face image (step S102). Then, the 2D face feature point extraction unit 51 outputs the type of the extracted face feature point and the position information on the input face image to the alignment information calculation unit 52 of the image processing unit 5.
The registration information calculation unit 52 uses each face feature point extracted by the 2D face feature point extraction unit 51 for the input face image and the 3D face feature point related to the 3D face shape data, Each three-dimensional face shape data stored in the storage unit 4 is aligned (step S103). Then, the alignment information calculation unit 52 rotates, enlarges / reduces the minimum value of the positional deviation amount for each 3D face shape data obtained as a result of the alignment, and the 3D face shape data corresponding to the minimum value. Alignment information including the amount is calculated.

次に、画像処理部5は、登録利用者の入力顔画像を所定枚数取得したか否か判定する(ステップS104)。なお、所定枚数は、少なくとも2枚であり、例えば、5枚〜10枚の何れかに設定される。取得された入力顔画像の枚数が所定枚数に達していなければ、画像処理部5は、ステップS101〜S104の処理を繰り返す。
一方、取得された入力顔画像の枚数が所定枚数に達していれば、位置合わせ情報算出部52は、記憶部4に記憶されている各3次元顔形状データのうち、最適な3次元顔形状データを選択する(ステップS105)。例えば、位置合わせ情報算出部52は、取得された登録対象者の入力顔画像のそれぞれについて求められた位置ずれ量の最小値の総和が最も小さくなる3次元顔形状データを、最適な3次元顔形状データとする。
位置合わせ情報算出部52は、選択された3次元顔形状データとともに、その3次元顔形状データに対する各入力顔画像の位置合わせ情報を、画像処理部5の入力顔画像マッピング部53及び合成元画像選定部55へ出力する。
Next, the image processing unit 5 determines whether or not a predetermined number of input face images of registered users have been acquired (step S104). Note that the predetermined number is at least two, and is set to any one of, for example, 5 to 10. If the number of acquired input face images has not reached the predetermined number, the image processing unit 5 repeats the processes of steps S101 to S104.
On the other hand, if the number of acquired input face images has reached the predetermined number, the alignment information calculation unit 52 selects the optimum 3D face shape from among the 3D face shape data stored in the storage unit 4. Data is selected (step S105). For example, the alignment information calculation unit 52 converts the three-dimensional face shape data that minimizes the sum of the minimum values of the amount of positional deviation obtained for each of the acquired input face images of the registration target person to the optimal three-dimensional face. Use shape data.
The registration information calculation unit 52, together with the selected 3D face shape data, the registration information of each input face image with respect to the 3D face shape data, the input face image mapping unit 53 of the image processing unit 5 and the composition source image Output to the selection unit 55.

次に、画像処理部5は、入力顔画像のうち、対応する3次元顔モデルが作成されていない入力顔画像を着目する顔画像に設定する(ステップS106)。そして画像処理部5は、着目顔画像及び選択された3次元顔形状データを入力顔画像マッピング部53へ渡す。
入力顔画像マッピング部53は、着目顔画像と選択された3次元顔形状データとを、着目顔画像について求められた位置合わせ情報を参照して位置合わせした後、着目顔画像の各画素の値を位置合わせされた3次元顔形状データ上にマッピングすることにより、着目顔画像に対応する3次元顔モデルを作成する(ステップS107)。入力顔画像マッピング部53は、作成した3次元顔モデルを画像処理部5の展開顔画像生成部54へ渡す。
展開顔画像生成部54は、3次元顔モデルから展開顔画像を作成する(ステップS108)。そして展開顔画像生成部54は、その展開顔画像を、対応する3次元顔モデル及び入力顔画像に関連付けて記憶部4に記憶する。
画像処理部5は、全ての入力顔画像について3次元顔モデル及び展開顔画像が作成されたか否か判定する(ステップS109)。何れかの入力顔画像について3次元顔モデル及び展開顔画像が作成されていない場合、画像処理部5は、ステップS106〜S109の処理を繰り返す。
Next, the image processing unit 5 sets an input face image for which a corresponding three-dimensional face model has not been created among the input face images as a focused face image (step S106). Then, the image processing unit 5 passes the target face image and the selected three-dimensional face shape data to the input face image mapping unit 53.
The input face image mapping unit 53 aligns the target face image and the selected three-dimensional face shape data with reference to the alignment information obtained for the target face image, and then the value of each pixel of the target face image. Is mapped onto the aligned 3D face shape data to create a 3D face model corresponding to the face image of interest (step S107). The input face image mapping unit 53 passes the created three-dimensional face model to the developed face image generation unit 54 of the image processing unit 5.
The developed face image generation unit 54 creates a developed face image from the three-dimensional face model (step S108). Then, the developed face image generation unit 54 stores the developed face image in the storage unit 4 in association with the corresponding three-dimensional face model and the input face image.
The image processing unit 5 determines whether a three-dimensional face model and a developed face image have been created for all input face images (step S109). If a three-dimensional face model and a developed face image are not created for any input face image, the image processing unit 5 repeats the processes of steps S106 to S109.

一方、全ての入力顔画像について3次元顔モデル及び展開顔画像が作成された場合、図8に示されるように、画像処理部5の合成元画像選定部55は、登録対象者についての全ての展開顔画像の中から、合成展開顔画像の作成に利用する展開顔画像の組み合わせを全て求める(ステップS110)。次に合成元画像選定部55は、求めた組み合わせのうち、未着目の組み合わせの中から着目する組み合わせを設定する(ステップS111)。そして合成元画像選定部55は、着目する展開顔画像の組み合わせによってテクスチャ欠落領域のない合成展開顔画像が作成できるか否か判定する(ステップS112)。テクスチャ欠落領域のない合成展開顔画像が作成できる場合、合成元画像選定部55は、その組み合わせに含まれる二つの展開顔画像を選択し、その二つの展開顔画像の何れにおいても顔のテクスチャ情報が欠落していない共通領域を抽出する(ステップS113)。   On the other hand, when the three-dimensional face model and the developed face image are created for all the input face images, as shown in FIG. 8, the composition source image selection unit 55 of the image processing unit 5 From the developed face images, all combinations of developed face images used for creating a composite developed face image are obtained (step S110). Next, the compositing source image selection unit 55 sets a focused combination among uncalculated combinations among the obtained combinations (step S111). Then, the compositing source image selection unit 55 determines whether or not a composite developed face image without a texture missing area can be created by combining the developed face images of interest (step S112). When a composite developed face image without a texture missing region can be created, the composition source image selection unit 55 selects two developed face images included in the combination, and facial texture information in any of the two developed face images A common area where no is missing is extracted (step S113).

次に、合成元画像選定部55は、記憶部4に記憶されている境界線候補情報に含まれる複数の境界線候補のうち、共通領域に含まれる境界線候補を抽出する(ステップS114)。そして合成元画像選定部55は、抽出した境界線候補のそれぞれについて輝度相違度Pを算出する(ステップS115)。
ステップS115の後、あるいはステップS112にてテクスチャ欠落領域のない合成展開顔画像が作成できないと判定された場合、合成元画像選定部55は、未着目の組み合わせが存在するか否か判定する(ステップS116)。未着目の組み合わせが存在する場合、合成元画像選定部55は、ステップS112〜S116の処理を繰り返す。
Next, the composition source image selection unit 55 extracts boundary line candidates included in the common region from among a plurality of boundary line candidates included in the boundary line candidate information stored in the storage unit 4 (step S114). Then, the composition source image selection unit 55 calculates the luminance difference P for each of the extracted boundary line candidates (step S115).
After step S115, or when it is determined in step S112 that it is not possible to create a composite expanded face image without a texture missing region, the composition source image selection unit 55 determines whether there is an unfocused combination (step). S116). When there is an unfocused combination, the composition source image selection unit 55 repeats the processes of steps S112 to S116.

一方、未着目の組み合わせが存在しない場合、合成元画像選定部55は、輝度相違度Pが算出された組み合わせのうち、その輝度相違度Pが最小となる組み合わせに示された展開顔画像を、合成展開顔画像の作成に利用する展開顔画像として選択する。さらに合成元画像選定部55は、輝度相違度Pが最小となった境界線候補を合成境界とする(ステップS117)。
合成元画像選定部55は、合成展開顔画像の作成に利用されることを示すフラグ及び合成順序を選択された展開顔画像のそれぞれと関連付けて記憶部4に記憶する。また合成元画像選定部55は、設定された合成境界上の各ノードの座標及び各ノード間を結ぶリンクを表す式を記憶部4に記憶する。
On the other hand, when there is no unfocused combination, the compositing source image selection unit 55 selects the developed face image indicated by the combination having the smallest luminance difference P among the combinations for which the luminance difference P is calculated, Select a developed face image to be used for creating a composite developed face image. Furthermore, the composition source image selection unit 55 sets the boundary line candidate having the minimum luminance difference P as the composition boundary (step S117).
The composition source image selection unit 55 stores in the storage unit 4 a flag indicating that it is used to create a composite developed face image and the composition order in association with each of the selected developed face images. Further, the composition source image selection unit 55 stores, in the storage unit 4, the coordinates of each node on the set composition boundary and an expression representing a link connecting the nodes.

画像処理部5の顔画像合成部57は、1番目の合成順序の展開顔画像を基準展開顔画像とし、その合成領域を、顔のテクスチャ情報が何もマッピングされていないマッピング用展開顔画像にマッピングする(ステップS118)。なお、このマッピング用展開顔画像は、ステップS105にて選択された3次元顔形状データを2次元に展開することにより作成されたものとすることができる。マッピング用展開顔画像と合成展開顔画像作成用に選択された展開顔画像はすでに位置合わせされているので、顔画像合成部57は、基準展開顔画像の合成領域内の各画素の輝度値を、単にマッピング用展開顔画像の対応する画素の輝度値とすればよい。   The face image composition unit 57 of the image processing unit 5 uses the developed face image in the first composition order as a reference developed face image, and the synthesized region is used as a mapping developed face image to which no facial texture information is mapped. Mapping is performed (step S118). The mapping developed face image can be created by expanding the three-dimensional face shape data selected in step S105 into two dimensions. Since the developed face image for mapping and the developed face image selected for creating the composite developed face image have already been aligned, the face image composition unit 57 calculates the luminance value of each pixel in the composition area of the reference developed face image. The brightness value of the corresponding pixel of the mapping developed face image may be simply used.

次に、画像処理部5の合成重み算出部56は、合成に利用する重み係数を(2)式に従って算出する(ステップS119)。その後、顔画像合成部57は、マッピング用展開顔画像にマッピングされていない展開顔画像の中から、最も早い順序の展開顔画像を補完用展開顔画像として選択する(ステップS120)。そして顔画像合成部57は、基準展開顔画像と選択した補完用展開顔画像の対応する画素の値を、算出された重み係数を用いて(3)式に従って加重平均することにより、基準展開顔画像と選択した補完用展開顔画像を合成する(ステップS121)。その際、基準展開顔画像のテクスチャ欠落領域及び非合成領域については、補完用展開顔画像の合成領域内の対応する部分が直接マッピングされる。   Next, the synthesis weight calculation unit 56 of the image processing unit 5 calculates a weighting coefficient used for the synthesis according to the equation (2) (step S119). After that, the face image synthesis unit 57 selects the developed face image in the earliest order as the complemented developed face image from the developed face images that are not mapped to the mapping developed face image (step S120). Then, the face image synthesis unit 57 performs a weighted average according to the expression (3) using the calculated weighting factor for the corresponding pixel values of the reference developed face image and the selected complemented developed face image, thereby obtaining the reference developed face. The image and the selected expanded face image for complementing are synthesized (step S121). At that time, with respect to the texture missing region and the non-synthesized region of the reference developed face image, corresponding portions in the synthesized region of the complemented developed face image are directly mapped.

画像処理部5は、選択された展開顔画像のうち、マッピング用展開顔画像にマッピングされていない展開顔画像が存在するか否か判定する(ステップS122)。マッピング用展開顔画像にマッピングされていない展開顔画像が存在すれば、画像処理部5は、ステップS118〜S122の処理を繰り返す。この場合、ステップS119では、重み係数は、合成展開顔画像に基づいて再算出される。
一方、ステップS122にて、マッピング用展開顔画像にマッピングされていない展開顔画像が存在しなければ、合成展開顔画像が完成されている。そこで画像処理部5は、その合成展開顔画像を、登録対象者の識別コードと関連付けて記憶部4に記憶する。
また画像処理部5の展開顔画像マッピング部58は、合成展開顔画像を、基準展開顔画像の作成に利用された3次元顔形状データにマッピングすることにより、合成3次元顔モデルを作成する(ステップS123)。そして展開顔画像マッピング部58は、作成した合成3次元顔モデルを記憶部4に記憶し、あるいは、通信ネットワークを介して他の機器へ出力する。
その後、画像処理部5は、顔画像合成処理を終了する。
なお、記憶部4が3次元顔形状データを一つしか記憶していなければ、ステップS105の処理は省略されてもよい。
The image processing unit 5 determines whether or not there is a developed face image that is not mapped to the mapping developed face image among the selected developed face images (step S122). If there is a developed face image that is not mapped in the mapping developed face image, the image processing unit 5 repeats the processes of steps S118 to S122. In this case, in step S119, the weighting coefficient is recalculated based on the combined developed face image.
On the other hand, if there is no developed face image that is not mapped to the mapping developed face image in step S122, the combined developed face image is completed. Therefore, the image processing unit 5 stores the combined developed face image in the storage unit 4 in association with the identification code of the person to be registered.
Further, the developed face image mapping unit 58 of the image processing unit 5 creates a composite three-dimensional face model by mapping the composite developed face image to the three-dimensional face shape data used for creating the reference developed face image ( Step S123). Then, the developed face image mapping unit 58 stores the created composite three-dimensional face model in the storage unit 4 or outputs it to other devices via a communication network.
Thereafter, the image processing unit 5 ends the face image synthesis process.
If the storage unit 4 stores only one piece of 3D face shape data, the process of step S105 may be omitted.

以上説明してきたように、この顔画像合成装置は、オクルージョンなどにより、入力顔画像上で登録対象者の顔の一部のテクスチャ情報が欠落している場合でも、他の入力顔画像に写っている登録対象者の顔の情報を利用して、テクスチャ情報の欠落のない合成展開顔画像及び対応する3次元顔モデルを作成できる。またこの顔画像合成装置は、顔の個人の特徴を豊富に含み、特に表情によって形状の変わる特徴的な部位と重ならないように合成境界を設定するので、写っている登録対象者の表情が異なる複数の入力顔画像から作成された展開顔画像を用いても、不自然さの無い、照合に適した合成展開顔画像及び対応する3次元顔モデルを作成できる。   As described above, this face image synthesizing device is reflected in other input face images even when some texture information of the face of the person to be registered is missing on the input face image due to occlusion or the like. By using the information on the registered person's face, it is possible to create a composite developed face image and a corresponding three-dimensional face model without missing texture information. In addition, this facial image composition device has abundant personal features of the face and sets the composition boundary so that it does not overlap with the characteristic part whose shape changes depending on the expression in particular, so the facial expression of the registered person in the image is different Even if a developed face image created from a plurality of input face images is used, a synthetic developed face image suitable for collation and a corresponding three-dimensional face model can be created without any unnaturalness.

またこの顔画像合成装置は、基準となる展開顔画像の合成境界近傍で、その基準となる展開顔画像と補完用の展開顔画像の同じ位置にある画素の値を、合成境界からの距離に応じて基準となる展開顔画像の比重が大きくなる重み係数を用いて加重平均することで、それら二つの展開顔画像を合成する。このように、この顔画像合成装置は、合成された展開顔画像及び3次元顔モデルにおける各画素の値を、その画素に対応する、基準となる展開顔画像と補完用の展開顔画像の画素の値だけを用いて求めているので、テクスチャ情報を劣化させることがない。さらに、この顔画像合成装置は、合成された展開顔画像及び3次元顔モデルにおいて、合成境界近傍での画素値の変化が滑らかとなるので、合成境界が個人性を表す顔の特徴と誤認識される可能性を軽減できる。   In addition, this face image composition device sets the value of the pixel at the same position of the reference developed face image and the supplementary developed face image to the distance from the composite boundary in the vicinity of the reference developed face image composition boundary. Accordingly, the two developed face images are synthesized by performing weighted averaging using a weighting factor that increases the specific gravity of the developed face image serving as a reference. In this way, the face image composition device uses the values of the pixels in the synthesized developed face image and the three-dimensional face model as the reference developed face image and complementary developed face image pixels corresponding to the pixels. Therefore, the texture information is not deteriorated. Furthermore, in this face image composition device, since the pixel value change in the vicinity of the composition boundary becomes smooth in the composed developed face image and the three-dimensional face model, the composition boundary is erroneously recognized as a facial feature that represents personality. Can reduce the possibility of being

なお、本発明は上記の実施形態に限定されるものではない。例えば、個人の特徴を豊富に含む特徴部位であっても、鼻のように、表情に応じた形状変化の小さい部位と重なるように、幾つかの境界線候補が設定されていてもよい。この場合、合成元画像選定部は、そのような特徴部位と重ならない境界線候補に基づいて合成境界を設定できるか否か判定し、合成境界を設定できない場合に限り、そのような形状変化の小さい特徴部位と重なる境界線候補を合成境界として設定してもよい。
さらに、特徴部位のうち、目、口、眉といった、表情に応じて大きく形状変化する部位と重なるように境界線候補の幾つかが設定されていてもよい。この場合には、合成元画像選定部は、特徴部位と重ならない境界線候補、及び形状変化の小さい特徴部位と重なる境界線候補の何れも合成境界として設定できない場合に限り、表情に応じて大きく形状変化する特徴部位と重なる境界線候補を合成境界として設定してもよい。
In addition, this invention is not limited to said embodiment. For example, some boundary line candidates may be set so as to overlap with a part having a small shape change according to a facial expression, such as a nose, even if the part is a feature part rich in personal features. In this case, the composition source image selection unit determines whether or not the composition boundary can be set based on the boundary line candidate that does not overlap with such a feature part, and only when the composition boundary cannot be set, the shape change You may set the boundary line candidate which overlaps with a small feature part as a synthetic | combination boundary.
Furthermore, some of the boundary line candidates may be set so as to overlap with the parts such as the eyes, mouth, and eyebrows whose shape changes greatly according to the facial expression. In this case, the composition source image selection unit increases the size according to the facial expression only when the boundary line candidate that does not overlap with the feature part and the boundary line candidate that overlaps the feature part with a small shape change cannot be set as the composite boundary. Boundary line candidates that overlap with feature portions whose shapes change may be set as composite boundaries.

また、合成元画像選定部は、合成展開顔画像を作成するために、できるだけ特定の表情を持つ複数の展開顔画像を選択してもよい。特定の表情は、照合時において登録対象者が取る可能性が高い表情、例えば、いわゆる無表情とすることができる。
無表情に近いか否かを判定するために、例えば、無表情に対応する顔特徴点の位置を予め記憶部に記憶させておく。そして合成元画像選定部は、展開顔画像に対応する入力顔画像から抽出された顔特徴点と、無表情に対応する顔特徴点との位置ずれ量の総和を無表情度として算出し、その無表情度が所定の閾値以下である場合に、その展開顔画像に写っている登録対象者は無表情であると判定してもよい。
合成元画像選定部は、無表情であると判定された展開顔画像の中から、上記のようにテクスチャ欠落領域の無い合成展開顔画像を作成可能な展開顔画像の組み合わせを決定する。そして合成元画像選定部は、さらにその組み合わせに対応する共通領域に含まれる境界線候補の中から合成境界を設定する。
Further, the composition source image selection unit may select a plurality of developed face images having a specific expression as much as possible in order to create a combined developed face image. The specific facial expression can be a facial expression that the registration target person is likely to take at the time of collation, for example, a so-called no expression.
In order to determine whether or not the expression is close to the expressionless expression, for example, the position of the face feature point corresponding to the expressionless expression is stored in the storage unit in advance. Then, the compositing source image selection unit calculates the sum of the amount of positional deviation between the facial feature point extracted from the input facial image corresponding to the developed facial image and the facial feature point corresponding to the expressionlessness as the expressionlessness degree, When the expressionless degree is equal to or less than a predetermined threshold value, it may be determined that the person to be registered in the developed face image is expressionless.
The composition source image selection unit determines a combination of developed face images that can create a synthesized developed face image without a texture missing region as described above from the developed face images determined to be expressionless. The composition source image selection unit further sets a composition boundary from among the boundary line candidates included in the common area corresponding to the combination.

あるいはまた、合成元画像選定部は、共通領域が十分に広い場合には、その共通領域に含まれる境界線候補のうち、顔の中心(例えば、正中線)からの各ノードの距離の平均値が大きい境界線候補ほど、優先的に合成境界に設定してもよい。これにより、合成元画像選定部は、特徴部位からできるだけ離れた位置に合成境界を設定できるので、合成展開顔画像上の登録対象者の表情が不自然になることをより確実に避けることができる。
さらに、合成元画像選定部は、輝度相違度、顔の中心からの距離、及び無表情度をそれぞれメンバシップ関数の入力とすることにより、ファジイ推論によって合成展開顔画像の作成に利用される展開顔画像及び合成境界を決定してもよい。
Alternatively, when the common area is sufficiently wide, the compositing source image selection unit calculates the average value of the distances of the respective nodes from the center of the face (for example, the median line) among the boundary line candidates included in the common area. A boundary line candidate having a larger value may be preferentially set as a composite boundary. As a result, the composition source image selection unit can set the composition boundary at a position as far as possible from the feature part, and thus can more reliably avoid the unnatural expression of the person to be registered on the composite development face image. .
Further, the composition source image selection unit uses the difference in luminance, the distance from the center of the face, and the expressionlessness as input of membership functions, respectively, so that the development used for the creation of the composite developed face image by fuzzy inference You may determine a face image and a synthetic | combination boundary.

また、撮影時における撮像部と登録対象者間の距離に応じて、入力顔画像上の顔が写っている領域の大きさは異なる。そして顔が写っている領域の大きさがあまりに異なる入力顔画像に対応する展開顔画像の組み合わせが合成展開顔画像の作成に用いられると、それら入力顔画像を3次元顔形状データにマッピングする際の拡大/縮小率が大きく異なるので、展開顔画像ごとに解像度が異なり、作成された合成展開顔画像は不自然なものとなる可能性がある。
そこで合成元画像選定部は、展開顔画像に対応する入力顔画像に写っている顔の大きさが所定倍率以上あるいは所定縮小率以下離れている展開顔画像の組み合わせを、合成展開顔画像の作成に利用しないようにしてもよい。この場合、所定倍率は、例えば、2に設定される。また所定縮小率は、例えば0.5に設定される。なお、合成元画像選定部は、二つの展開顔画像に写っている顔の倍率を、例えば、入力顔画像を3次元顔形状データにマッピングする際の拡大/縮小率の比として求めることができる。
In addition, the size of the region in which the face on the input face image is shown varies depending on the distance between the imaging unit and the person to be registered at the time of shooting. When a combination of developed face images corresponding to input face images whose face sizes are too different is used to create a composite developed face image, when the input face images are mapped to 3D face shape data, Since the enlargement / reduction ratios of the images differ greatly, the resolution differs for each developed face image, and the created composite developed face image may be unnatural.
Therefore, the compositing source image selection unit creates a composite expanded face image by combining the expanded face images in which the size of the face shown in the input face image corresponding to the expanded face image is more than a predetermined magnification or less than a predetermined reduction rate. You may make it not use for. In this case, the predetermined magnification is set to 2, for example. The predetermined reduction rate is set to 0.5, for example. Note that the composition source image selection unit can determine the magnification of the face shown in the two developed face images as, for example, the ratio of the enlargement / reduction ratio when mapping the input face image to the three-dimensional face shape data. .

また、合成境界近傍において、先にマッピング用展開顔画像にマッピングされた展開顔画像(すなわち、基準展開顔画像)の画素の値と、後からマッピング用展開顔画像にマッピングされる展開顔画像(すなわち、補完用展開顔画像)の画素の値とが大きく異なることがある。例えば、一方の展開顔画像に対応する入力顔画像が撮影されたときの照明が明るく、他方の展開顔画像に対応する入力顔画像が撮影されたときの照明が暗ければ、一方の展開顔画像については顔に対応する画素が全体的に明るくなるのに対し、他方の展開顔画像では顔に対応する画素が全体的に暗くなる。
このような場合、合成展開顔画像では、合成境界を挟んで画素値が大きく異なってしまうおそれがある。
そこで、合成重み算出部は、合成境界近傍の所定範囲での基準展開顔画像の画素の平均値と、補完用展開顔画像の画素の平均値との差の絶対値Δdelが大きいほど、補完用展開顔画像の画素値が合成展開顔画像に反映されるように、(2)式のパラメータWを調節してもよい。なお、Δdelを求める所定の範囲は、例えば、合成境界に隣接する画素、あるいは、顔画像合成部の処理によって基準展開顔画像と補完用展開顔画像の両方の画素値が反映される範囲、例えば、パラメータWをWmaxに設定したときに重み係数B(dist)が0.5以下となる範囲とすることができる。
Further, in the vicinity of the synthesis boundary, the value of the pixel of the developed face image (that is, the reference developed face image) previously mapped to the mapping developed face image, and the developed face image (which is later mapped to the mapping developed face image) In other words, the pixel value of the supplementary developed face image) may be greatly different. For example, if the illumination when the input face image corresponding to one developed face image is photographed is bright and the illumination when the input face image corresponding to the other developed face image is photographed is dark, one developed face In the image, the pixels corresponding to the face are brightened as a whole, whereas in the other developed face image, the pixels corresponding to the face are darkened as a whole.
In such a case, there is a possibility that the pixel values of the combined developed face image are greatly different across the combined boundary.
Therefore, the synthesis weight calculation unit increases the difference in absolute value Δdel between the average value of the pixels of the reference expanded face image in the predetermined range near the combined boundary and the average value of the pixels of the expanded expanded face image. The parameter W in equation (2) may be adjusted so that the pixel value of the developed face image is reflected in the combined developed face image. The predetermined range for obtaining Δdel is, for example, a pixel that is adjacent to the synthesis boundary, or a range in which the pixel values of both the reference developed face image and the complementary developed face image are reflected by the processing of the face image synthesis unit, for example, When the parameter W is set to Wmax, the weight coefficient B (dist) can be set within a range of 0.5 or less.

また合成重み算出部は、基準展開顔画像に対する重み係数B(dist)を、合成境界からの距離distに応じて単調増加する他の関数、例えば、シグモイド関数または線形関数によって求めてもよい。
さらに、顔画像合成部は、基準展開顔画像の非合成領域においても、基準展開顔画像の非合成領域に含まれる画素の値と補完用展開顔画像の対応する画素の値とを加重平均することにより、合成展開顔画像を作成してもよい。この場合、合成重み算出部は、合成境界上、すなわち、dist=0のときに、基準展開顔画像に対する重み係数B(dist)と補完用展開顔画像に対する重み係数(1-B(dist))が等しくなり、合成境界から非合成領域内の画素への距離が大きくなるほど重み係数(1-B(dist))が大きくなり、逆に合成境界から合成領域内の画素への距離が大きくなるほど重み係数B(dist)が大きくなるように、それら重み係数を設定する。
The composite weight calculation unit may obtain the weight coefficient B (dist) for the reference developed face image by another function that monotonously increases in accordance with the distance dist from the composite boundary, for example, a sigmoid function or a linear function.
Further, the face image synthesis unit performs a weighted average of the pixel values included in the non-synthesized region of the reference developed face image and the corresponding pixel values of the supplementary developed face image even in the non-synthesized region of the reference developed face image. As a result, a composite expanded face image may be created. In this case, the synthesis weight calculation unit, on the synthesis boundary, that is, when dist = 0, the weight coefficient B (dist) for the reference developed face image and the weight coefficient (1-B (dist)) for the complementary developed face image The weighting factor (1-B (dist)) increases as the distance from the synthesis boundary to the pixels in the non-synthesis area increases, and conversely, the weight increases as the distance from the synthesis boundary to the pixels in the synthesis area increases. These weighting coefficients are set so that the coefficient B (dist) becomes large.

さらに、顔画像合成部は、Δdelを求める所定範囲に含まれる、補完用展開顔画像の平均画素値Pavsubに対する基準展開顔画像の平均画素値Pavmainの比(Pavmain/Pavsub)を、補完用展開顔画像の各画素値に乗じた後、合成処理を行ってもよい。これにより、基準展開顔画像の明るさと補完用展開顔画像の明るさが略一致するので、顔画像合成装置は、合成展開顔画像において合成境界を挟んで画素値が大きく変化することを防止できる。そのため、顔画像合成装置は、合成展開顔画像における不自然さをなくすことができる。また、Δdelが大きくなる場合には、基準展開顔画像と補完用展開顔画像の何れか一方のみを上記のように画素値を補正すると、補正後の展開顔画像に表された顔の情報が補正前の展開顔画像に表された顔の情報と異なる可能性がある。そこで、Δdelが大きく異なる場合には、顔画像合成部は、基準展開顔画像と補完用展開顔画像の両方を補正する。例えば、(Pavmain/Pavsub)が2以上、あるいは0.5以下となる場合、顔画像合成部は、(Pavmain/Pavsub)の平方根を補完用展開顔画像の各画素値に乗じ、一方、基準展開顔画像の各画素値を(Pavmain/Pavsub)の平方根で割る。   Further, the face image synthesis unit calculates a ratio (Pavmain / Pavsub) of the average pixel value Pavmain of the reference expanded face image to the average pixel value Pavsub of the expanded expanded face image included in the predetermined range for obtaining Δdel, After multiplying each pixel value of the image, composition processing may be performed. As a result, the brightness of the reference developed face image and the brightness of the supplementary developed face image substantially match, so that the face image composition device can prevent the pixel value from changing greatly across the composition boundary in the composite developed face image. . Therefore, the face image composition device can eliminate the unnaturalness in the composite development face image. Further, when Δdel is large, if only one of the reference developed face image and the complementary developed face image is corrected as described above, the face information represented in the corrected developed face image is obtained. There is a possibility that it is different from the face information shown in the developed face image before correction. Therefore, when Δdel is greatly different, the face image composition unit corrects both the reference developed face image and the complementary developed face image. For example, when (Pavmain / Pavsub) is 2 or more, or 0.5 or less, the face image synthesis unit multiplies each pixel value of the complementary expanded face image by the square root of (Pavmain / Pavsub), while the reference expanded face image Is divided by the square root of (Pavmain / Pavsub).

また、撮像部が登録対象者を撮影するときの照明条件が一定である場合のように、複数の入力顔画像上での登録対象者の顔の輝度が一定である場合、顔画像合成部は、基準展開顔画像の合成領域については、そのまま合成展開顔画像の一部とし、基準展開顔画像の非合成領域及びテクスチャ欠落領域に、補完用展開顔画像の合成領域の対応する部分を単にマッピングするだけでもよい。この場合、合成重み算出部は省略される。   Further, when the luminance of the registration target person's face on a plurality of input face images is constant, as in the case where the illumination condition when the imaging unit captures the registration target person is constant, the face image composition unit The reference unfolded face image composition region is directly used as a part of the unfolded synthetic face image, and the corresponding portion of the complementary unfolded face image composition region is simply mapped to the non-composite region and the texture missing region of the reference unfolded face image. You can just do it. In this case, the composite weight calculation unit is omitted.

また、画像処理部は、撮像部によって撮影された画像を入力顔画像とすることができるか否かを判定するために、その画像に人の顔が写っているか否かを判定する顔検出部を有していてもよい。顔検出部は、入力顔画像に顔が写っているか否かを判定するために、様々な公知の顔検知技術の何れかを利用することができる。例えば、記憶部に予め撮影部による撮影領域内に人が存在しないときの画像を基準画像として記憶させておく。そして顔検出部は、撮像部によって撮影された現画像と基準画像との背景差分を行って差分画像を作成し、その差分画像と頭部の形状に対応するテンプレートとのパターンマッチングを行う。顔検出部は、そのパターンマッチングの結果、差分画像上にテンプレートと略一致する領域が検出されれば、現画像に人の顔が写っており、その現画像を入力顔画像とする。   Further, the image processing unit determines whether or not a human face is reflected in the image in order to determine whether or not the image captured by the imaging unit can be used as the input face image. You may have. The face detection unit can use any of various known face detection techniques in order to determine whether or not a face appears in the input face image. For example, the storage unit stores in advance an image when no person is present in the shooting area of the shooting unit as a reference image. The face detection unit performs a background difference between the current image captured by the imaging unit and the reference image to create a difference image, and performs pattern matching between the difference image and a template corresponding to the shape of the head. If the pattern matching results in the detection of an area that substantially matches the template on the difference image, the face detection unit captures a human face in the current image, and uses the current image as the input face image.

さらに画像処理部は、撮像部から連続して取得された入力顔画像に写っている人物の顔が、同一人物の顔か否かを判定するための追跡判定部を有していてもよい。そして追跡判定部は、入力顔画像に写っている人物が同一人物か否か判定するために、様々な公知の追跡技術の何れかを利用することができる。例えば、追跡判定部は、連続して取得された2枚の入力顔画像について、その入力顔画像上の顔の位置の差が、想定される人の移動速度に応じて求められる位置の差よりも小さければ、それら2枚の入力顔画像に写っている人物は同一人物と判定する。   Furthermore, the image processing unit may include a tracking determination unit for determining whether or not the face of the person shown in the input face image continuously acquired from the imaging unit is the face of the same person. The tracking determination unit can use any of various known tracking techniques to determine whether or not the person shown in the input face image is the same person. For example, the tracking determination unit determines that the difference in the position of the face on the input face image obtained from two consecutively acquired input face images is based on the difference in position obtained according to the assumed movement speed of the person. If it is smaller, the person shown in the two input face images is determined to be the same person.

さらに、画像処理部は、展開顔画像を作成せず、合成元画像選定部は、登録対象者の複数の3次元顔モデルから、合成3次元顔モデルを作成するための2以上の3次元顔モデルを、合成処理に用いる画像データとして直接選択してもよい。この場合も、合成元画像選定部は、展開顔画像について実施するのと同様の処理を行って、合成3次元顔モデルを作成するために利用する3次元顔モデルを選択する。この場合には、顔画像合成部は、合成重み算出部で算出された重み係数を用いて、基準となる3次元顔モデルと補完用の3次元顔モデルを合成することにより、合成3次元顔モデルを作成する。そのため、画像処理部は、展開顔画像生成部及び展開顔画像マッピング部を有さなくてもよい。
このように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
Further, the image processing unit does not create a developed face image, and the composition source image selection unit performs two or more three-dimensional faces for creating a composite three-dimensional face model from a plurality of three-dimensional face models of the registration target person. The model may be directly selected as image data used for the synthesis process. Also in this case, the composition source image selection unit performs the same processing as that performed on the developed face image, and selects a three-dimensional face model to be used for creating a composite three-dimensional face model. In this case, the face image synthesizing unit synthesizes the reference three-dimensional face model and the complementary three-dimensional face model by using the weighting coefficient calculated by the synthesis weight calculating unit, so that the combined three-dimensional face is obtained. Create a model. Therefore, the image processing unit does not have to have the developed face image generation unit and the developed face image mapping unit.
As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

1 顔画像合成装置
2 撮像部
3 インターフェース部
4 記憶部
5 画像処理部
51 2D顔特徴点抽出部
52 位置合わせ情報算出部
53 入力顔画像マッピング部
54 展開顔画像生成部
55 合成元画像選定部
56 合成重み算出部
57 顔画像合成部
58 展開顔画像マッピング部
DESCRIPTION OF SYMBOLS 1 Face image composition apparatus 2 Imaging part 3 Interface part 4 Memory | storage part 5 Image processing part 51 2D face feature point extraction part 52 Registration information calculation part 53 Input face image mapping part 54 Expanded face image generation part 55 Composition original image selection part 56 Composite Weight Calculation Unit 57 Face Image Synthesis Unit 58 Expanded Face Image Mapping Unit

Claims (4)

複数の顔画像を合成して合成顔画像を生成する顔画像合成装置であって、
同一の対象者を撮影した複数の顔画像と人物の顔の形状を表す3次元顔形状データと該3次元顔形状の顔の所定部位を参照して設定された境界線候補とを記憶する記憶部と、
前記複数の顔画像のそれぞれを、前記3次元顔形状データと位置合わせして、当該3次元顔形状データにマッピングすることにより、前記複数の顔画像のそれぞれに対応する3次元顔モデルを作成するマッピング部と、
複数の前記3次元顔モデルのそれぞれを2次元に展開した展開顔画像を生成する展開顔画像生成部と、
複数の前記展開顔画像から少なくとも第1の展開顔画像と第2の展開顔画像を選択するとともに、前記顔の所定部位を回避するように前記境界線候補を選択して合成境界に設定する顔画像選定部と、
前記第1の展開顔画像において顔のテクスチャ情報を有する第1の領域と前記第2の展開顔画像において顔のテクスチャ情報を有する第2の領域とを前記合成境界に基づいて合成し、前記合成顔画像を作成する顔画像合成部と、
を有することを特徴とする顔画像合成装置。
A face image synthesizer that synthesizes a plurality of face images to generate a combined face image,
A memory for storing a plurality of face images obtained by photographing the same subject, three-dimensional face shape data representing the shape of a person's face, and boundary line candidates set with reference to a predetermined part of the face of the three-dimensional face shape And
Each of the plurality of face images is aligned with the three-dimensional face shape data and mapped to the three-dimensional face shape data, thereby creating a three-dimensional face model corresponding to each of the plurality of face images. A mapping section;
A developed face image generating unit that generates a developed face image obtained by two-dimensionally developing each of the plurality of three-dimensional face models;
A face that selects at least a first developed face image and a second developed face image from the plurality of developed face images, and selects the boundary line candidate so as to avoid a predetermined part of the face and sets it as a composite boundary An image selection unit;
A first region having facial texture information in the first developed face image and a second region having facial texture information in the second developed face image are synthesized based on the synthesis boundary, and the synthesis is performed. A face image composition unit for creating a face image;
A face image synthesizing device characterized by comprising:
前記顔の所定部位は、前記対象者の表情に応じて形状が変わる口、目、眉のうちの一つまたは複数の部位である、請求項1に記載の顔画像合成装置。   The face image composition device according to claim 1, wherein the predetermined part of the face is one or a plurality of parts of a mouth, eyes, and eyebrows whose shape changes according to the facial expression of the subject. 前記顔画像選定部は、前記境界線候補のうち、前記第1の領域と前記第2の領域とが重なる共通領域に含まれる境界線候補を前記合成境界とする、請求項1または2に記載の顔画像合成装置。   3. The face image selection unit according to claim 1, wherein among the boundary line candidates, a boundary line candidate included in a common area where the first area and the second area overlap is used as the composite boundary. Face image synthesizer. 前記顔画像選定部は、
前記複数の展開顔画像から選択された二つの展開顔画像を含む組み合わせであって、当該組み合わせに含まれる該二つの展開顔画像において顔のテクスチャ情報を有する領域をそれぞれ一つの画像上にマッピングすることにより作成される前記合成顔画像において顔のテクスチャ情報の欠けがない組み合わせを少なくとも一つ求め、
当該組み合わせにおける前記共通領域に含まれる前記境界線候補上の該二つの展開顔画像の対応する画素の値の差の統計量を輝度相違度として算出し、
当該輝度相違度が最小または所定の閾値以下となる組み合わせに含まれる該二つの前記展開顔画像をそれぞれ前記第1の展開顔画像及び前記第2の展開顔画像とするとともに、前記所定の閾値以下または最小となる前記輝度相違度に対応する前記境界線候補を前記合成境界とする、請求項3に記載の顔画像合成装置。
The face image selection unit
A combination including two expanded face images selected from the plurality of expanded face images, and mapping each region having facial texture information in the two expanded face images included in the combination onto one image Determining at least one combination that does not lack facial texture information in the composite face image created by
Calculating a statistic of a difference between corresponding pixel values of the two developed face images on the boundary line candidate included in the common region in the combination as a luminance dissimilarity;
The two developed face images included in the combination in which the luminance difference is the minimum or less than a predetermined threshold value are set as the first developed face image and the second developed face image, respectively, and are less than or equal to the predetermined threshold value. The face image synthesizing device according to claim 3, wherein the boundary line candidate corresponding to the minimum luminance difference is the synthesis boundary.
JP2010078878A 2010-03-30 2010-03-30 Face image synthesizer Active JP5419777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010078878A JP5419777B2 (en) 2010-03-30 2010-03-30 Face image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010078878A JP5419777B2 (en) 2010-03-30 2010-03-30 Face image synthesizer

Publications (2)

Publication Number Publication Date
JP2011210118A JP2011210118A (en) 2011-10-20
JP5419777B2 true JP5419777B2 (en) 2014-02-19

Family

ID=44941084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010078878A Active JP5419777B2 (en) 2010-03-30 2010-03-30 Face image synthesizer

Country Status (1)

Country Link
JP (1) JP5419777B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5795979B2 (en) 2012-03-15 2015-10-14 株式会社東芝 Person image processing apparatus and person image processing method
KR101755248B1 (en) * 2016-01-27 2017-07-07 (주)에이아이퍼스트 Method and system of generating 3D model and mobile device for the same
CN106709975B (en) * 2017-01-11 2017-12-22 山东财经大学 A kind of interactive three-dimensional facial expression animation edit methods, system and extended method
US11538211B2 (en) 2018-05-07 2022-12-27 Google Llc Puppeteering remote avatar by facial expressions

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4999731B2 (en) * 2008-02-29 2012-08-15 セコム株式会社 Face image processing device
JP2009245338A (en) * 2008-03-31 2009-10-22 Secom Co Ltd Face image collating apparatus

Also Published As

Publication number Publication date
JP2011210118A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
US11423556B2 (en) Methods and systems to modify two dimensional facial images in a video to generate, in real-time, facial images that appear three dimensional
JP6864449B2 (en) Methods and devices for adjusting the brightness of the image
JP6685827B2 (en) Image processing apparatus, image processing method and program
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
JP4723834B2 (en) Photorealistic three-dimensional face modeling method and apparatus based on video
US7860340B2 (en) Three-dimensional shape estimation system and image generation system
WO2022095721A1 (en) Parameter estimation model training method and apparatus, and device and storage medium
WO2012169250A1 (en) Image processing device, image processing method, and control program
JP4999731B2 (en) Face image processing device
JP2011170891A (en) Facial image processing method and system
JP2009020761A (en) Image processing apparatus and method thereof
JP4246516B2 (en) Human video generation system
JP6073858B2 (en) Face position detection
KR101759188B1 (en) the automatic 3D modeliing method using 2D facial image
CN113628327A (en) Head three-dimensional reconstruction method and equipment
JP5751865B2 (en) Face image processing device
JP5419757B2 (en) Face image synthesizer
JP2002024811A (en) Shadow component removing device
JP5419777B2 (en) Face image synthesizer
JP5419773B2 (en) Face image synthesizer
JP2018163648A (en) Image processor, method for image processing, and program
JP2009211148A (en) Face image processor
JP2021044710A (en) Image processing apparatus, image processing method and program
JP5244345B2 (en) Face recognition device
JP5865092B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R150 Certificate of patent or registration of utility model

Ref document number: 5419777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250