JP2011048747A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2011048747A
JP2011048747A JP2009198208A JP2009198208A JP2011048747A JP 2011048747 A JP2011048747 A JP 2011048747A JP 2009198208 A JP2009198208 A JP 2009198208A JP 2009198208 A JP2009198208 A JP 2009198208A JP 2011048747 A JP2011048747 A JP 2011048747A
Authority
JP
Japan
Prior art keywords
image
feature
face
size
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009198208A
Other languages
Japanese (ja)
Inventor
Kenji Matsuzaka
健治 松坂
Masaya Usui
雅也 碓井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009198208A priority Critical patent/JP2011048747A/en
Publication of JP2011048747A publication Critical patent/JP2011048747A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To accelerate the speed of the processing of the detection of a coordinate position of a characteristic region of a face, and to improve the accuracy of the detection. <P>SOLUTION: An image processor for detecting a coordinate position of a characteristic region of a face contained in an image includes: a face region detecting part for detecting an image region including at least a portion of the face from a target image as a face region; a trimming part for trimming an image in a prescribed range including the face region from the target image; a converting part for converting the size of the trimmed image into a predetermined size; and a characteristic position detecting part for detecting a coordinate position of the characteristic part based on the image whose size is converted. The converting part performs the conversion of the size and processing noise reduction with respect to the trimmed image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像に含まれる顔の特徴部位の座標位置を検出する画像処理装置に関する。   The present invention relates to an image processing apparatus that detects a coordinate position of a feature portion of a face included in an image.

視覚的事象のモデル化手法として、アクティブアピアランスモデル(Active Appearance Model、略して「AAM」とも呼ばれる)が知られている。AAMでは、例えば、複数のサンプル画像に含まれる顔の特徴部位(例えば目尻や鼻頭やフェイスライン)の位置(座標)や画素値(例えば輝度値)の統計的分析を通じて、上記特徴部位の位置により特定される顔の形状を表す形状モデルや、平均的な顔の形状における「見え(Appearance)」を表すテクスチャーモデルが設定され、これらのモデルを用いて顔画像がモデル化される。AAMによれば、任意の顔画像のモデル化(合成)が可能であり、また、画像に含まれる顔の特徴部位の位置の検出が可能である(特許文献1参照。)。   As a visual event modeling method, an active appearance model (Active Appearance Model, also referred to as “AAM” for short) is known. In AAM, for example, through statistical analysis of the positions (coordinates) and pixel values (for example, luminance values) of facial features (for example, the corners of the eyes, the nose and the face lines) included in a plurality of sample images, A shape model representing the shape of the identified face and a texture model representing “appearance” in the average face shape are set, and the face image is modeled using these models. According to AAM, it is possible to model (synthesize) an arbitrary face image, and to detect the position of a facial feature part included in the image (see Patent Document 1).

特開2007‐141107号公報JP 2007-141107 A

ここで、顔の特徴部位の位置の検出処理においては、処理対象となる注目画像から、顔の特徴部位に対応していると想定されるポイント(特徴点)に囲まれた画像範囲の画素をサンプリングしつつ一定形状の画像にアフィン変換し、当該アフィン変換後の画像と上記平均的な形状および見えの顔画像とを比較することにより、上記顔の特徴部位に対応していると想定されたポイントに対する評価(特徴部位の座標位置に近いか否かの評価)を行なう。   Here, in the detection processing of the position of the feature part of the face, pixels in an image range surrounded by points (feature points) assumed to correspond to the feature part of the face are extracted from the target image to be processed. Affinity transformation into an image with a fixed shape while sampling and comparing the image after the affine transformation with the average shape and appearance face image was assumed to correspond to the facial feature part. The point is evaluated (evaluation of whether or not it is close to the coordinate position of the characteristic part).

しかしながら上述した検出処理においては、上記アフィン変換の過程でのサンプリングの際に、注目画像全体を対象として画素を走査し必要な画素を抽出していたため、検出処理に多くの時間を要していた。
また上記検出処理においては、上記サンプリングの際に、所要のサンプリング率で画素を単純に抽出していたため、上記アフィン変換の結果得られる画像は、画質が低くノイズを含み得るような画像であった。そのため、このような変換の結果得られた画像に基づいた上記評価の精度は十分に高いものとは言えず、結果、上記特徴部位の位置の検出精度を高い水準とすることが難しかった。
However, in the above-described detection process, when sampling is performed in the process of the affine transformation, pixels are scanned for the entire image of interest and necessary pixels are extracted, so that the detection process takes a long time. .
In the detection process, pixels are simply extracted at a required sampling rate at the time of sampling, so that the image obtained as a result of the affine transformation is an image that has low image quality and may contain noise. . Therefore, it cannot be said that the accuracy of the evaluation based on the image obtained as a result of such conversion is sufficiently high, and as a result, it is difficult to make the detection accuracy of the position of the characteristic part high.

本発明は上記課題の少なくとも一つを解決するためになされたものであり、画像に含まれる顔の特徴部位の位置を検出する処理の高速化・高精度化を図ることを目的とする。   The present invention has been made to solve at least one of the above-described problems, and an object of the present invention is to increase the speed and accuracy of a process for detecting the position of a facial feature part included in an image.

本発明の態様の一つは、画像に含まれる顔の特徴部位の座標位置を検出する画像処理装置であって、注目画像から顔の少なくとも一部を含む画像領域を顔領域として検出する顔領域検出部と、上記顔領域を含む所定範囲の画像を上記注目画像からトリミングするトリミング部と、上記トリミングされた画像のサイズを所定サイズに変換する変換部と、上記サイズが変換された画像に基づいて上記特徴部位の座標位置を検出する特徴位置検出部とを備える。
本発明によれば、注目画像からトリミングして所定サイズに変換した後の画像を対象として上記特徴部位の座標位置の検出処理を実行するため、当該検出処理の際に走査対象となる画像が注目画像全体よりも狭いものとなり、結果、従来よりも当該検出処理の高速化が実現される。なお上記特徴部位とは、例えば、眉毛と目と鼻と口とフェイスラインとの一部であってもよい。この場合、眉毛と目と鼻と口とフェイスラインとの一部について良好に座標位置を検出することができる。
One aspect of the present invention is an image processing apparatus that detects a coordinate position of a feature part of a face included in an image, and detects an image area including at least a part of the face as a face area from a target image. Based on a detection unit, a trimming unit that trims an image of a predetermined range including the face area from the attention image, a conversion unit that converts the size of the trimmed image to a predetermined size, and the image whose size has been converted And a feature position detector for detecting the coordinate position of the feature part.
According to the present invention, since the processing for detecting the coordinate position of the characteristic part is performed on an image after trimming the image of interest and converting it to a predetermined size, the image to be scanned during the detection processing is of interest. As a result, the detection process is faster than the conventional image. The characteristic part may be, for example, a part of eyebrows, eyes, nose, mouth, and face line. In this case, the coordinate position can be satisfactorily detected for a portion of the eyebrows, eyes, nose, mouth, and face line.

上記変換部は、上記トリミングされた画像に対するノイズ低減のための処理とともに上記サイズの変換を実行するとしてもよい。当該構成によれば、ノイズ低減処理が施され且つサイズが上記のように変換された後の画像を対象として上記座標位置の検出処理を実行するため、ノイズの影響を受けて当該検出結果がぶれてしまうことが防止され、従来よりも当該検出処理の高精度化が実現される。   The conversion unit may perform the conversion of the size together with a process for noise reduction on the trimmed image. According to this configuration, since the coordinate position detection process is performed on the image after the noise reduction process and the size converted as described above, the detection result is blurred under the influence of noise. Therefore, the detection process can be performed more accurately than in the past.

上記変換部は、上記トリミングされた画像のサイズに応じて異なるノイズ低減用のフィルターを用いてノイズ低減のための処理を実行するとしてもよい。当該構成によれば、トリミングされる画像のサイズに応じた最適なフィルター処理によりノイズ低減を行なうことができる。   The conversion unit may execute noise reduction processing using a noise reduction filter that varies depending on the size of the trimmed image. According to this configuration, it is possible to reduce noise by optimal filter processing according to the size of the image to be trimmed.

上記トリミング部は、顔領域に対する顔画像の大きさ、角度、位置を表す予め規定された各パラメーターに応じて顔領域を基準にして特定される範囲の全て含む範囲をトリミングするとしてもよい。当該構成によれば、顔の特徴部位の座標位置を検出するために必要十分な画像範囲を確実にトリミングすることができる。   The trimming unit may trim a range including all of the ranges specified on the basis of the face area according to each parameter defined in advance representing the size, angle, and position of the face image with respect to the face area. According to this configuration, it is possible to reliably trim an image range that is necessary and sufficient for detecting the coordinate position of the facial feature part.

上記特徴位置検出部は、上記サイズが変換された画像に対して上記特徴部位の座標位置を検出するための特徴点を設定し、上記サイズが変換された画像の一部を特徴点の配置が所定の配置となるように変換した画像である平均形状画像を生成し、上記平均形状画像と、複数のサンプル画像を平均化することにより生成された画像である平均顔画像と、の差分値を算出し、上記算出した差分値に基づいて、上記サイズが変換された画像における特徴点の設定位置を更新することにより、当該設定位置を上記特徴部位の座標位置に近づけるように補正し、上記補正された設定位置を上記特徴部位の座標位置として検出する構成としてもよい。当該構成によれば、平均形状画像と平均顔画像との差分値に基づいて、上記サイズが変換された画像における特徴点の設定位置を補正して、特徴部位の座標位置を検出するため、画像に含まれる顔の特徴部位の位置を良好に検出することができる。   The feature position detection unit sets feature points for detecting the coordinate position of the feature part with respect to the image whose size has been converted, and a part of the image whose size has been converted is arranged with feature points. An average shape image that is an image converted to have a predetermined arrangement is generated, and a difference value between the average shape image and an average face image that is an image generated by averaging a plurality of sample images is calculated. Based on the calculated difference value, the setting position of the feature point in the image whose size has been converted is updated to correct the setting position so as to approach the coordinate position of the feature part, and the correction The set position may be detected as the coordinate position of the characteristic part. According to this configuration, in order to detect the coordinate position of the feature part by correcting the setting position of the feature point in the image whose size has been converted based on the difference value between the average shape image and the average face image, the image It is possible to satisfactorily detect the position of the feature part of the face included in.

上記特徴位置検出部は、上記差分値が所定のしきい値より小さい値となるまで、上記サイズが変換された画像における特徴点の設定位置の更新を繰り返し実行し、上記差分値が上記しきい値より小さい値となった場合、上記サイズが変換された画像における特徴点の配置を上記サイズが変更された画像と上記トリミングされた画像との大きさの比に応じて注目画像において再現することにより、注目画像上に特徴点を設定し、上記注目画像における特徴点の配置が上記所定の配置となるように当該注目画像の一部を変換した画像である平均形状画像を生成し、当該平均形状画像と上記平均顔画像との差分値に基づいて当該注目画像における特徴点の設定位置を更新することにより、当該注目画像における特徴点の設定位置を上記特徴部位の座標位置に近づけるように補正し、上記補正された注目画像における特徴点の設定位置を上記特徴部位の座標位置として検出する構成としてもよい。当該構成によれば、上記サイズが変換された画像上において、特徴点の設定位置を、実際に写っている顔の特徴部位の位置との一致率が極めて高い状態にまで補正することができ、その上で上記サイズが変換された画像における特徴点の配置を注目画像において再現し、さらに、この注目画像における特徴点の設定位置を特徴部位の座標位置に近づけるように補正するため、注目画像に含まれる顔の特徴部位の位置を非常に正確に検出することができる。   The feature position detection unit repeatedly executes update of the feature point setting position in the image whose size has been converted until the difference value is smaller than a predetermined threshold value, and the difference value is the threshold value. When the value is smaller than the value, the arrangement of the feature points in the image whose size has been converted is reproduced in the target image according to the ratio of the size of the image whose size has been changed and the trimmed image. To generate an average shape image that is an image obtained by converting a part of the target image so that the feature point is set on the target image, and the arrangement of the feature point in the target image becomes the predetermined configuration. By updating the setting position of the feature point in the target image based on the difference value between the shape image and the average face image, the setting position of the feature point in the target image is changed to the position of the feature part. Corrected so as to approach to the position, the setting position of the characteristic point in the corrected target image may be detected as the coordinate position of the feature portion. According to the configuration, on the image whose size has been converted, the setting position of the feature point can be corrected to a state where the matching rate with the position of the feature part of the face that is actually captured is extremely high, Then, the feature point arrangement in the image whose size has been converted is reproduced in the target image, and further, the feature point setting position in the target image is corrected so as to be close to the coordinate position of the feature part. It is possible to detect the position of the feature portion of the included face very accurately.

上記特徴位置検出部は、上記注目画像における特徴点の設定位置を更新する処理を、予め規定された回数を上限として実行するとしてもよい。上述したように上記サイズが変換された画像において設定位置が適切に補正された後の特徴点の配置が注目画像において再現された時点で、当該再現された配置にかかる特徴点は注目画像内の特徴部位の位置をかなり正確に示していると言える。そのため、注目画像における特徴点の設定位置を更新する処理は予め規定された回数を上限として実行するだけで、注目画像に含まれる顔の特徴部位の位置を非常に正確に検出することができる。   The feature position detection unit may perform the process of updating the setting position of the feature point in the target image with a predetermined number of times as an upper limit. As described above, when the arrangement of the feature points after the setting position is appropriately corrected in the image whose size has been converted is reproduced in the attention image, the feature points related to the reproduced arrangement are included in the attention image. It can be said that the position of the characteristic part is shown fairly accurately. Therefore, the process of updating the setting position of the feature point in the target image can be performed with a predetermined number of times as the upper limit, and the position of the feature part of the face included in the target image can be detected very accurately.

上記変換部は、上記トリミングされた画像の明るさ、コントラスト、色彩のうちの少なくとも一つ以上の要素を上記平均顔画像に近づける補正処理とともに上記サイズの変換を実行するとしてもよい。当該構成によれば、上記サイズが変換された画像を変換して生成する平均形状画像と上記平均形状画像との明るさや色彩を近づけることができるため、その時の特徴点の設定位置以外の要因によって上記差分値がなかなか小さくならない(収束しない)といった不都合を回避することができ、結果、上記検出処理の高速化・高精度化がより一層図られる。   The conversion unit may execute the conversion of the size together with a correction process for bringing at least one element of brightness, contrast, and color of the trimmed image closer to the average face image. According to the configuration, the brightness and color of the average shape image generated by converting the size-converted image and the average shape image can be brought close to each other, and therefore, due to factors other than the setting position of the feature point at that time The inconvenience that the difference value does not become very small (does not converge) can be avoided, and as a result, the detection process can be further speeded up and highly accurate.

本発明の技術的思想は、画像処理装置以外によっても実現可能である。例えば、画像処理装置の各部が実行する処理工程を有する画像処理方法の発明や、画像処理装置の各部が実行する機能をコンピューターに実行させるコンピューター読取可能なプログラムの発明をも把握可能である。   The technical idea of the present invention can be realized by means other than an image processing apparatus. For example, it is possible to grasp an invention of an image processing method having processing steps executed by each part of the image processing apparatus and an invention of a computer-readable program that causes a computer to execute a function executed by each part of the image processing apparatus.

画像処理装置としてのプリンターの構成を概略的に示す説明図である。FIG. 2 is an explanatory diagram schematically illustrating a configuration of a printer as an image processing apparatus. AAM設定処理を示すフローチャートである。It is a flowchart which shows an AAM setting process. サンプル画像SIの一例を示す説明図である。It is explanatory drawing which shows an example of sample image SI. サンプル画像SIにおける特徴点CPの設定方法の一例を示す説明図である。It is explanatory drawing which shows an example of the setting method of the feature point CP in the sample image SI. サンプル画像SIに設定された特徴点CPの座標の一例を示す説明図である。It is explanatory drawing which shows an example of the coordinate of the feature point CP set to sample image SI. 平均形状sの一例を示す説明図である。Is an explanatory diagram showing an example of the average shape s 0. 形状ベクトルsおよび形状パラメーターpと顔の形状sとの関係を例示した説明図である。It is explanatory drawing which illustrated the relationship between shape vector s i and shape parameter pi, and face shape s. サンプル画像SIのワープWの方法の一例を示す説明図である。It is explanatory drawing which shows an example of the method of the warp W of the sample image SI. 平均顔画像A(x)の一例を示す説明図である。It is explanatory drawing which shows an example of average face image A0 (x). 顔特徴位置検出処理を示すフローチャートである。It is a flowchart which shows a face feature position detection process. 注目画像OIにおける顔領域FAの検出結果の一例を示す説明図である。It is explanatory drawing which shows an example of the detection result of the face area FA in the attention image OI. 特徴点CPの初期位置設定処理を示すフローチャートである。It is a flowchart which shows the initial position setting process of the feature point CP. グローバルパラメーターの値を変更することによる特徴点CPの仮設定位置の一例を示す説明図である。It is explanatory drawing which shows an example of the temporary setting position of the feature point CP by changing the value of a global parameter. 平均形状画像I(W(x;p))の一例を示す説明図である。It is explanatory drawing which shows an example of the average shape image I (W (x; p)). 検出対象画像における特徴点CP設定位置補正処理を示すフローチャートである。It is a flowchart which shows the feature point CP setting position correction process in a detection target image. 顔特徴位置検出処理の結果の一例を示す説明図である。It is explanatory drawing which shows an example of the result of a face feature position detection process. グローバルパラメーターに応じて顔領域を基準にして特定される各範囲の一例を示した図である。It is the figure which showed an example of each range specified on the basis of a face area according to a global parameter. 注目画像OIから画像をトリミングしてアフィン変換する様子の一例を示した図である。It is the figure which showed an example of a mode that the image is trimmed from the attention image OI and affine transformation is performed. 注目画像における特徴点CP設定位置補正処理を示すフローチャートである。It is a flowchart which shows the feature point CP setting position correction process in an attention image.

以下、本発明の実施例を図面を参照しながら説明する。
1.画像処理装置の構成
図1は、本実施例にかかる画像処理装置としてのプリンター100の構成を概略的に示す説明図である。プリンター100は、メモリーカードMC等から取得した画像データに基づき画像を印刷する、いわゆるダイレクトプリントに対応したインクジェット式カラープリンターである。プリンター100は、プリンター100の各部を制御するCPU110と、ROMやRAMによって構成された内部メモリー120と、ボタンやタッチパネルにより構成された操作部140と、液晶ディスプレイにより構成された表示部150と、印刷機構160と、カードインターフェース(カードI/F)170と、を備えている。プリンター100は、さらに、他の機器(例えばデジタルスチルカメラやコンピューター300)とのデータ通信を行うためのインターフェース(I/F)180を備える。プリンター100の各構成要素は、バスを介して双方向通信可能に接続されている。
Embodiments of the present invention will be described below with reference to the drawings.
1. Configuration of Image Processing Apparatus FIG. 1 is an explanatory diagram schematically illustrating a configuration of a printer 100 as an image processing apparatus according to the present embodiment. The printer 100 is an ink jet color printer that supports so-called direct printing, in which an image is printed based on image data acquired from a memory card MC or the like. The printer 100 includes a CPU 110 that controls each unit of the printer 100, an internal memory 120 configured by a ROM and a RAM, an operation unit 140 configured by buttons and a touch panel, a display unit 150 configured by a liquid crystal display, and printing. A mechanism 160 and a card interface (card I / F) 170 are provided. The printer 100 further includes an interface (I / F) 180 for performing data communication with other devices (for example, a digital still camera or the computer 300). Each component of the printer 100 is connected via a bus so that bidirectional communication is possible.

印刷機構160は、印刷データに基づき印刷を行う。カードインターフェース170は、カードスロット172に挿入されたメモリーカードMCとの間でデータのやり取りを行うためのインターフェースである。なお、本実施例では、メモリーカードMCに画像データを含む画像ファイルが格納されている。   The printing mechanism 160 performs printing based on the print data. The card interface 170 is an interface for exchanging data with the memory card MC inserted into the card slot 172. In this embodiment, an image file including image data is stored in the memory card MC.

内部メモリー120には、画像処理部200と、表示処理部310と、印刷処理部320と、が格納されている。画像処理部200は、コンピュータープログラムであり、所定のオペレーティングシステムの下で、CPU110により実行されることで顔特徴位置検出処理をおこなう。顔特徴位置検出処理は、顔画像における所定の特徴部位(例えば目尻や鼻頭やフェイスライン)の座標位置を検出する処理である。顔特徴位置検出処理については、後に詳述する。表示処理部310、および、印刷処理部320についてもCPU110により実行されることでぞれぞれの機能を実現する。   The internal memory 120 stores an image processing unit 200, a display processing unit 310, and a print processing unit 320. The image processing unit 200 is a computer program, and performs facial feature position detection processing by being executed by the CPU 110 under a predetermined operating system. The face feature position detection process is a process of detecting the coordinate position of a predetermined feature part (for example, the corner of the eye, the nose head, or the face line) in the face image. The face feature position detection process will be described in detail later. The display processing unit 310 and the print processing unit 320 are also executed by the CPU 110 to realize the respective functions.

画像処理部200は、プログラムモジュールとして、特徴位置検出部220と、顔領域検出部230と、トリミング部250と、変換部260と、を含んでいる。特徴位置検出部220は、設定部221と、生成部222と、算出部224と、補正部226と、を含んでいる。これら各部の機能については、後述の顔特徴位置検出処理の説明において詳述する。   The image processing unit 200 includes a feature position detection unit 220, a face area detection unit 230, a trimming unit 250, and a conversion unit 260 as program modules. The feature position detection unit 220 includes a setting unit 221, a generation unit 222, a calculation unit 224, and a correction unit 226. The functions of these units will be described in detail in the description of the face feature position detection process described later.

表示処理部310は、表示部150を制御して、表示部150上に処理メニューやメッセージ、画像等を表示させるディスプレイドライバーである。印刷処理部320は、画像データから印刷データを生成し、印刷機構160を制御して、印刷データに基づく画像の印刷を実行するためのコンピュータープログラムである。CPU110は、内部メモリー120から、これらのプログラム(画像処理部200、表示処理部310、印刷処理部320)を読み出して実行することにより、これら各部の機能を実現する。   The display processing unit 310 is a display driver that controls the display unit 150 to display processing menus, messages, images, and the like on the display unit 150. The print processing unit 320 is a computer program for generating print data from image data, controlling the printing mechanism 160, and printing an image based on the print data. The CPU 110 reads out and executes these programs (the image processing unit 200, the display processing unit 310, and the print processing unit 320) from the internal memory 120, thereby realizing the functions of these units.

内部メモリー120には、また、AAM情報AMIが格納されている。AAM情報AMIは、後述のAAM設定処理によって予め設定される情報であり、後述の顔特徴位置検出処理において参照される。AAM情報AMIの内容については、後述のAAM設定処理の説明において詳述する。   The internal memory 120 also stores AAM information AMI. The AAM information AMI is information set in advance by an AAM setting process described later, and is referred to in a face feature position detection process described later. The contents of the AAM information AMI will be described in detail in the description of AAM setting processing described later.

2.AAM設定処理
図2は、本実施例におけるAAM設定処理の流れを示すフローチャートである。AAM設定処理は、AAM(アクティブアピアランスモデル(Active Appearance Model))と呼ばれる画像のモデル化に用いられる形状モデルおよびテクスチャーモデルを設定する処理である。本実施例において、AAM設定処理は、ユーザーがAAM設定用に用意されたコンピューター300を操作することにより行なわれる。コンピューター300は、CPUとRAMとROMとHDDとディスプレイと入力装置等を有しており、これらがバスによって接続されている。CPUはHDDに記録されたプログラムを読み出し、該プログラムに従った演算処理を実行することにより、コンピューター300が後述するAAM設定処理を実行する。
2. AAM Setting Processing FIG. 2 is a flowchart showing the flow of AAM setting processing in this embodiment. The AAM setting process is a process for setting a shape model and a texture model used for modeling an image called AAM (Active Appearance Model). In this embodiment, the AAM setting process is performed when the user operates the computer 300 prepared for AAM setting. The computer 300 includes a CPU, a RAM, a ROM, an HDD, a display, an input device, and the like, which are connected by a bus. The CPU reads the program recorded in the HDD and executes arithmetic processing according to the program, whereby the computer 300 executes AAM setting processing described later.

はじめに、ユーザーは、人物の顔を含んだ複数の画像をサンプル画像SIとしてコンピューター300のメモリー(HDD)上に用意する(ステップS110)。
図3は、サンプル画像SIの一例を示す説明図である。図3に示すように、サンプル画像SIは、個性、人種・性別、表情(怒り、笑い、困り、驚き等)、向き(正面向き、上向き、下向き、右向き、左向き等)といった種々の属性に関して互いに相違する顔画像が含まれるように用意される。サンプル画像SIがそのように用意されれば、AAMによってあらゆる顔画像を精度良くモデル化することが可能となり、あらゆる顔画像を対象とした精度の良い顔特徴位置検出処理(後述)の実行が可能となる。なお、サンプル画像SIは、学習用画像とも呼ばれる。
First, the user prepares a plurality of images including a human face on the memory (HDD) of the computer 300 as sample images SI (step S110).
FIG. 3 is an explanatory diagram showing an example of the sample image SI. As shown in FIG. 3, the sample image SI is related to various attributes such as personality, race / gender, facial expression (anger, laughter, trouble, surprise, etc.), and orientation (front, upward, downward, right, left, etc.). It is prepared to include different face images. If the sample image SI is prepared in this way, any face image can be accurately modeled by AAM, and accurate face feature position detection processing (described later) for any face image can be executed. It becomes. The sample image SI is also called a learning image.

次に、ユーザーの所定の操作によって、コンピューター300は、それぞれのサンプル画像SIに含まれる顔画像に、特徴点CPを設定する(ステップS120)。
図4は、サンプル画像SIにおける特徴点CPの設定方法の一例を示す説明図である。特徴点CPは、顔画像における所定の特徴部位の位置を示す点である。本実施例では、所定の特徴部位として、人物の顔における眉毛上の所定位置(例えば端点や4分割点等、以下同じ)、目の輪郭上の所定位置、鼻筋および小鼻の輪郭上の所定位置、上下唇の輪郭上の所定位置、顔の輪郭(フェイスライン)上の所定位置といった68箇所の部位が設定されている。すなわち、本実施例では、人物の顔に共通して含まれる顔の器官(眉毛、目、鼻、口)および顔の輪郭における所定位置を、特徴部位として設定する。図4に示すように、特徴点CPは、コンピューター300がディスプレイに表示したサンプル画像SIにおいてユーザーの操作により画面上で指定された68個の特徴部位を表す位置に設定(配置)される。このように設定された各特徴点CPは各特徴部位に対応しているため、顔画像における特徴点CPの配置は顔の形状を特定していると表現することができる。サンプル画像SIにおける特徴点CPの位置は、座標により特定される。
Next, the computer 300 sets a feature point CP to the face image included in each sample image SI by a predetermined operation of the user (step S120).
FIG. 4 is an explanatory diagram showing an example of a method for setting the feature point CP in the sample image SI. The feature point CP is a point indicating the position of a predetermined feature part in the face image. In this embodiment, as predetermined feature parts, a predetermined position on the eyebrows in a person's face (for example, an end point or a four-divided point, the same applies hereinafter), a predetermined position on the eye contour, and a predetermined position on the nose and nose contours 68 parts such as a predetermined position on the contour of the upper and lower lips and a predetermined position on the contour of the face (face line) are set. That is, in the present embodiment, a predetermined position in the facial organs (eyebrows, eyes, nose, mouth) and facial contour that are commonly included in the human face are set as the characteristic parts. As shown in FIG. 4, the feature points CP are set (arranged) at positions representing 68 feature parts designated on the screen by a user operation in the sample image SI displayed on the display by the computer 300. Since each feature point CP set in this way corresponds to each feature part, the arrangement of the feature points CP in the face image can be expressed as specifying the shape of the face. The position of the feature point CP in the sample image SI is specified by coordinates.

図5は、サンプル画像SIに設定された特徴点CPの座標の一例を示す説明図である。図5において、SI(j)(j=1,2,3・・・)は各サンプル画像SIを示しており、CP(k)(k=0,1,・・・,67)は、対応するサンプル画像SIの各特徴点CPを示している。また、CP(k)‐Xは、特徴点CP(k)のX座標を示しており、CP(k)‐Yは、特徴点CP(k)のY座標を示している。特徴点CPの座標としては、顔の大きさと顔の傾き(画像面内の傾き)と顔のX方向およびY方向の位置とのそれぞれについて正規化されたサンプル画像SIにおける所定の基準点(例えば画像の左下の点)を原点とした座標が用いられる。また、本実施例では、1つのサンプル画像SIに複数の人物の顔画像が含まれる場合が許容されており(例えばサンプル画像SI(2)には2人の顔画像が含まれている)、1つのサンプル画像SIにおける各人物は人物IDによって特定される。   FIG. 5 is an explanatory diagram showing an example of the coordinates of the feature point CP set in the sample image SI. In FIG. 5, SI (j) (j = 1, 2, 3,...) Indicates each sample image SI, and CP (k) (k = 0, 1,..., 67) corresponds to Each feature point CP of the sample image SI is shown. CP (k) -X represents the X coordinate of the feature point CP (k), and CP (k) -Y represents the Y coordinate of the feature point CP (k). The coordinates of the feature point CP include predetermined reference points (for example, in the sample image SI normalized with respect to the size of the face, the inclination of the face (inclination in the image plane), and the position of the face in the X direction and the Y direction) The coordinates with the origin at the lower left point of the image are used. Further, in the present embodiment, a case where a plurality of human face images are included in one sample image SI is allowed (for example, two sample face images are included in the sample image SI (2)). Each person in one sample image SI is specified by a person ID.

つづいて、コンピューター300は、AAMの形状モデルの設定をおこなう(ステップS130)。具体的には、各サンプル画像SIにおける68個の特徴点CPの座標(X座標およびY座標)により構成される座標ベクトル(図5参照)に対する主成分分析をおこない、特徴点CPの位置により特定される顔の形状sを下記の式(1)によりモデル化する。なお、形状モデルは、特徴点CPの配置モデルとも呼ぶ。   Subsequently, the computer 300 sets an AAM shape model (step S130). Specifically, a principal component analysis is performed on a coordinate vector (see FIG. 5) composed of the coordinates (X coordinate and Y coordinate) of 68 feature points CP in each sample image SI, and specified by the position of the feature point CP. The face shape s to be formed is modeled by the following equation (1). The shape model is also referred to as a feature point CP arrangement model.

上記式(1)において、sは平均形状である。
図6は、平均形状sの一例を示す説明図である。図6(a)および(b)に示すように、平均形状sは、サンプル画像SIの各特徴点CPについての平均位置(平均座標)により特定される平均的な顔の形状を表すモデルである。なお、本実施例では、平均形状sにおいて、外周に位置する特徴点CP(フェイスラインおよび眉毛、眉間に対応する特徴点CP、図4参照)を結ぶ直線により囲まれた領域(図6(b)においてハッチングを付して示す)を「平均形状領域BSA」と呼ぶ。平均形状sにおいては、図6(a)に示すように、特徴点CPを頂点とする複数の三角形領域TAが、平均形状領域BSAをメッシュ状に分割するように設定される。
In the above formula (1), s 0 is an average shape.
Figure 6 is an explanatory diagram showing an example of the average shape s 0. As shown in FIGS. 6A and 6B, the average shape s 0 is a model representing the average face shape specified by the average position (average coordinate) for each feature point CP of the sample image SI. is there. In the present embodiment, in the average shape s 0 , a region surrounded by a straight line connecting feature points CP (face line, eyebrows, feature points CP corresponding to the eyebrows, see FIG. 4) located on the outer periphery (FIG. 6 (FIG. 6). b) is indicated by hatching) and is referred to as “average shape region BSA”. In the average shape s 0 , as shown in FIG. 6A, a plurality of triangular regions TA having the feature points CP as vertices are set so as to divide the average shape region BSA into a mesh shape.

形状モデルを表す上記式(1)において、sは形状ベクトルであり、pは形状ベクトルsの重みを表す形状パラメーターである。形状ベクトルsは、顔の形状sの特性を表すベクトルであり、主成分分析により得られる第i主成分に対応する固有ベクトルである。上記式(1)に示すように、本実施例における形状モデルでは、特徴点CPの配置を表す顔形状sが、平均形状sとn個の形状ベクトルsの線形結合との和としてモデル化される。形状モデルにおいて形状パラメーターpを適切に設定することにより、あらゆる画像における顔の形状sを再現することが可能である。 In the above equation (1) representing the shape model, s i is a shape vector, and p i is a shape parameter representing the weight of the shape vector s i . The shape vector s i is a vector representing the characteristics of the face shape s, and is an eigenvector corresponding to the i-th principal component obtained by principal component analysis. As shown in the above equation (1), in the shape model in the present embodiment, the face shape s representing the arrangement of the feature points CP is a model as the sum of the average shape s 0 and the linear combination of the n shape vectors s i. It becomes. By appropriately setting the shape parameter p i in the shape model, it is possible to reproduce the face shape s in any image.

図7は、形状ベクトルsおよび形状パラメーターpと、顔の形状sとの関係を例示した説明図である。図7(a)に示すように、顔の形状sを特定するために、寄与率のより大きい主成分に対応する固有ベクトルから順に、累積寄与率に基づき設定された個数n(図7ではn=4)の固有ベクトルが、形状ベクトルsとして採用される。形状ベクトルsのそれぞれは、図7(a)の矢印に示すように、各特徴点CPの移動方向・移動量と対応している。本実施例では、最も寄与率の大きい第1主成分に対応する第1形状ベクトルsは顔の左右振りにほぼ相関するベクトルとなっており、形状パラメーターpを大小させることにより、図7(b)に示すように、顔の形状sの横方向の顔向きが変化する。2番目に寄与率の大きい第2主成分に対応する第2形状ベクトルsは顔の上下振りにほぼ相関するベクトルとなっており、形状パラメーターpを大小させることにより、図7(c)に示すように、顔の形状sの縦方向の顔向きが変化する。また、3番目に寄与率の大きい第3主成分に対応する第3形状ベクトルsは顔の形状の縦横比にほぼ相関するベクトルとなっており、4番目に寄与率の大きい第4主成分に対応する第4形状ベクトルsは口の開きの程度にほぼ相関するベクトルとなっている。このように、形状パラメーターの値は、顔の表情や、顔向きなど顔画像の特徴を表す。形状パラメーターは、特徴部位の座標が既知の顔画像を含む複数のサンプル画像に基づいて算出された特徴量である。 FIG. 7 is an explanatory diagram illustrating the relationship between the shape vector s i, the shape parameter pi, and the face shape s. As shown in FIG. 7A, in order to specify the face shape s, the number n set based on the cumulative contribution rate in order from the eigenvector corresponding to the principal component having the larger contribution rate (in FIG. 7, n = The eigenvector of 4) is adopted as the shape vector s i . Each of the shape vectors s i corresponds to the movement direction / movement amount of each feature point CP, as indicated by the arrows in FIG. In the present embodiment, the first shape vector s 1 corresponding to the first principal component having the largest contribution rate is a vector that is substantially correlated with the left / right swing of the face, and by increasing or decreasing the shape parameter p 1 , FIG. As shown in (b), the horizontal face direction of the face shape s changes. The second shape vector s 2 corresponding to the second principal component having the second largest contribution ratio is a vector that is substantially correlated with the vertical swing of the face, and FIG. 7C is obtained by increasing or decreasing the shape parameter p 2 . As shown in FIG. 4, the vertical face direction of the face shape s changes. The third shape vector s 3 corresponding to the third principal component having the third largest contribution ratio is a vector that is substantially correlated with the aspect ratio of the face shape, and the fourth principal component having the fourth largest contribution ratio. The fourth shape vector s 4 corresponding to is a vector that is substantially correlated with the degree of mouth opening. As described above, the value of the shape parameter represents the feature of the face image such as facial expression and face orientation. The shape parameter is a feature amount calculated based on a plurality of sample images including a face image whose coordinates of the feature part are known.

なお、コンピューター300は、形状モデル設定ステップ(ステップS130)において設定した平均形状sおよび形状ベクトルsを、プリンター100に送信する。プリンター100は、送信されたこれらの平均形状sおよび形状ベクトルsの情報を、AAM情報AMI(図1)として内部メモリー120に格納する。 The computer 300 transmits the average shape s 0 and the shape vector s i set in the shape model setting step (step S 130) to the printer 100. The printer 100 stores the transmitted information on the average shape s 0 and the shape vector s i in the internal memory 120 as AAM information AMI (FIG. 1).

つづいて、コンピューター300は、AAMのテクスチャーモデルの設定をおこなう(ステップS140)。具体的には、まず、各サンプル画像SIに対して、サンプル画像SIにおける特徴点CPの設定位置が平均形状sにおける特徴点CPの設定位置と等しくなるように、画像変換(以下、「ワープW」とも呼ぶ)を行う。 Subsequently, the computer 300 sets an AAM texture model (step S140). Specifically, first, for each sample image SI, image conversion (hereinafter referred to as “warp”) is performed so that the setting position of the feature point CP in the sample image SI becomes equal to the setting position of the feature point CP in the average shape s 0 . W ”).

図8は、サンプル画像SIのワープWの方法の一例を示す説明図である。各サンプル画像SIにおいては、平均形状sと同様に、外周に位置する特徴点CPにより囲まれた領域をメッシュ状に分割する複数の三角形領域TAが設定される。ワープWは、複数の三角形領域TAのそれぞれについてのアフィン変換の集合である。すなわち、ワープWにおいては、サンプル画像SIにおけるある三角形領域TAの画像は、平均形状sにおける対応する三角形領域TAの画像へとアフィン変換される。ワープWにより、特徴点CPの設定位置が平均形状sにおける特徴点CPの設定位置と等しいサンプル画像SI(以下「サンプル画像SIw」と表す)が生成される。 FIG. 8 is an explanatory diagram showing an example of a method of warping W of the sample image SI. In each sample image SI, similarly to the average shape s 0 , a plurality of triangular areas TA that divide the area surrounded by the feature points CP located on the outer periphery into mesh shapes are set. The warp W is a set of affine transformations for each of the plurality of triangular areas TA. That is, in the warp W, the image of triangle areas TA in a sample image SI is affine transformed into an image of corresponding triangle areas TA of the average shape s 0. The warp W generates a sample image SI (hereinafter referred to as “sample image SIw”) in which the set position of the feature point CP is equal to the set position of the feature point CP in the average shape s 0 .

なお、各サンプル画像SIwは、平均形状領域BSA(図8においてハッチングを付して示す)を内包する矩形枠を外周とし、平均形状領域BSA以外の領域(以下「マスク領域MA」とも呼ぶ)がマスクされた画像として生成される。平均形状領域BSAとマスク領域MAとを併せた画像領域を基準領域BAと呼ぶ。また、各サンプル画像SIwは、例えば、縦横56画素×56画素のサイズの画像として正規化される。   Each sample image SIw has a rectangular frame containing an average shape area BSA (shown with hatching in FIG. 8) as an outer periphery, and an area other than the average shape area BSA (hereinafter also referred to as “mask area MA”). Generated as a masked image. An image area in which the average shape area BSA and the mask area MA are combined is referred to as a reference area BA. Each sample image SIw is normalized as an image having a size of 56 pixels × 56 pixels, for example.

次に、各サンプル画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析が行われ、顔のテクスチャー(「見え」とも呼ぶ)A(x)が下記の式(2)によりモデル化される。なお、画素群xは、平均形状領域BSAに位置する画素の集合である。   Next, a principal component analysis is performed on a luminance value vector composed of luminance values in each pixel group x of each sample image SIw, and a facial texture (also referred to as “appearance”) A (x) is expressed by the following formula ( 2). The pixel group x is a set of pixels located in the average shape area BSA.

上記式(2)において、A(x)は平均顔画像である。
図9は、平均顔画像A(x)の一例を示す説明図である。平均顔画像A(x)は、ワープWの後のサンプル画像SIw(図8参照)の平均の顔が表された画像である。すなわち、平均顔画像A(x)は、サンプル画像SIwの平均形状領域BSA内の画素群xの画素値(輝度値)の平均をとることにより算出される画像である。従って、平均顔画像A(x)は、平均的な顔の形状における平均的な顔のテクスチャー(見え)を表すモデルである。なお、平均顔画像A(x)は、サンプル画像SIwと同様に、平均形状領域BSAとマスク領域MAとで構成され、例えば、縦横56画素×56画素のサイズの画像として算出される。
In the above formula (2), A 0 (x) is an average face image.
FIG. 9 is an explanatory diagram illustrating an example of the average face image A 0 (x). The average face image A 0 (x) is an image representing the average face of the sample image SIw (see FIG. 8) after the warp W. That is, the average face image A 0 (x) is an image calculated by taking the average of the pixel values (luminance values) of the pixel group x in the average shape area BSA of the sample image SIw. Therefore, the average face image A 0 (x) is a model representing the average face texture (appearance) in the average face shape. Note that the average face image A 0 (x) is composed of the average shape area BSA and the mask area MA, similarly to the sample image SIw, and is calculated as an image having a size of 56 pixels × 56 pixels, for example.

テクスチャーモデルを表す上記式(2)において、A(x)はテクスチャーベクトルであり、λはテクスチャーベクトルA(x)の重みを表すテクスチャーパラメーターである。テクスチャーベクトルA(x)は、顔のテクスチャーA(x)の特性を表すベクトルであり、具体的には、主成分分析により得られる第i主成分に対応する固有ベクトルである。すなわち、寄与率のより大きい主成分に対応する固有ベクトルから順に、累積寄与率に基づき設定された個数mの固有ベクトルが、テクスチャーベクトルA(x)として採用される。本実施例では、最も寄与率の大きい第1主成分に対応する第1テクスチャーベクトルA(x)は、顔色の変化(性別の差とも捉えられる)にほぼ相関するベクトルとなっている。 In the above equation (2) representing the texture model, A i (x) is a texture vector, and λ i is a texture parameter representing the weight of the texture vector A i (x). The texture vector A i (x) is a vector representing the characteristics of the facial texture A (x), and is specifically an eigenvector corresponding to the i-th principal component obtained by principal component analysis. That is, the number m of eigenvectors set based on the cumulative contribution rate is adopted as the texture vector A i (x) in order from the eigenvector corresponding to the principal component having the larger contribution rate. In the present embodiment, the first texture vector A 1 (x) corresponding to the first principal component having the largest contribution rate is a vector that is substantially correlated with a change in face color (also regarded as a gender difference).

上記式(2)に示すように、本実施例におけるテクスチャーモデルでは、顔の見えを表す顔のテクスチャーA(x)が、平均顔画像A(x)とm個のテクスチャーベクトルA(x)の線形結合との和としてモデル化される。テクスチャーモデルにおいてテクスチャーパラメーターλを適切に設定することにより、あらゆる画像における顔のテクスチャーA(x)を再現することが可能である。
なお、コンピューター300は、テクスチャーモデル設定ステップ(ステップS140)において設定した平均顔画像A(x)およびテクスチャーベクトルA(x)を、プリンター100に送信する。プリンター100は、送信されたこれらの平均顔画像A(x)およびテクスチャーベクトルA(x)の情報を、AAM情報AMI(図1)として内部メモリー120に格納する。
As shown in the above equation (2), in the texture model in the present embodiment, the facial texture A (x) representing the appearance of the face is the average face image A 0 (x) and m texture vectors A i (x ) And the linear combination. By appropriately setting the texture parameter λ i in the texture model, it is possible to reproduce the facial texture A (x) in any image.
The computer 300 transmits the average face image A 0 (x) and the texture vector A i (x) set in the texture model setting step (step S140) to the printer 100. The printer 100 stores the transmitted information of the average face image A 0 (x) and the texture vector A i (x) in the internal memory 120 as AAM information AMI (FIG. 1).

以上説明したAAM設定処理(図2)により、顔の形状をモデル化する形状モデルと、顔のテクスチャーをモデル化するテクスチャーモデルが設定される。設定された形状モデルとテクスチャーモデルとを組み合わせることにより、すなわち合成されたテクスチャーA(x)に対して平均形状sから形状sへの変換(図8に示したワープWの逆変換)を行うことにより、あらゆる顔画像の形状およびテクスチャーを再現することが可能である。 By the AAM setting process described above (FIG. 2), a shape model for modeling the face shape and a texture model for modeling the face texture are set. By combining the set shape model and the texture model, that is, the synthesized texture A (x) is converted from the average shape s 0 to the shape s (inverse conversion of the warp W shown in FIG. 8). Thus, it is possible to reproduce the shape and texture of any face image.

3.顔特徴位置検出処理
図10は、本実施例における顔特徴位置検出処理の流れを示すフローチャートである。顔特徴位置検出処理は、AAM情報AMIを利用して注目画像に含まれる顔画像における特徴点CPの配置を決定することにより、顔画像における特徴部位の位置を検出する処理である。上述したように、本実施例では、AAM設定処理(図2)において、人物の顔の器官(眉毛、目、鼻、口)および顔の輪郭における計68箇所の所定位置が、特徴部位として設定されている(図4参照)。そのため、本実施例の顔特徴位置検出処理では、人物の顔の器官および顔の輪郭における所定位置を示す68個の特徴点CPの配置が決定される。
3. Face Feature Position Detection Processing FIG. 10 is a flowchart showing the flow of face feature position detection processing in the present embodiment. The face feature position detection process is a process of detecting the position of the feature part in the face image by determining the arrangement of the feature points CP in the face image included in the target image using the AAM information AMI. As described above, in the present embodiment, in the AAM setting process (FIG. 2), a total of 68 predetermined positions in the human facial organs (eyebrows, eyes, nose, mouth) and facial contour are set as the characteristic parts. (See FIG. 4). Therefore, in the face feature position detection process of the present embodiment, the arrangement of 68 feature points CP indicating predetermined positions in the organ and face contour of the person is determined.

なお、顔特徴位置検出処理によって顔画像における特徴点CPの配置が決定されると、顔画像についての形状パラメーターpや、テクスチャーパラメーターλの値が特定される。従って、顔特徴位置検出処理の結果は、特定の表情(例えば笑顔や目を閉じた顔)の顔画像を検出するための表情判定や、特定の向き(例えば右向きや下向き)の顔画像を検出するための顔向き判定、顔の形状を変形する顔変形、顔の陰影補正等に利用可能である。 Note that when the face characteristic position detecting process disposition of the characteristic points CP in the face image is determined, and the shape parameters p i of the face image, the value of the texture parameter lambda i is identified. Therefore, the result of the face feature position detection process is a facial expression determination for detecting a facial image of a specific facial expression (for example, a smile or a face with closed eyes) or a facial image in a specific direction (for example, rightward or downward). Therefore, it can be used for face orientation determination, face deformation for deforming the face shape, face shadow correction, and the like.

はじめに、画像処理部200(図1)は、顔特徴位置検出処理の対象となる注目画像を表す画像データを取得する(ステップS210)。本実施例のプリンター100では、カードスロット172にメモリーカードMCが挿入されると、メモリーカードMCに格納された画像ファイルのサムネイル画像が表示部150に表示される。処理の対象となる1つまたは複数の画像は、操作部140を介してユーザーにより選択される。画像処理部200は、選択された1つまたは複数の画像に対応する画像データを含む画像ファイルをメモリーカードMCより取得して内部メモリー120の所定の領域に格納する。なお、取得された画像データを注目画像データと呼び、注目画像データの表す画像を注目画像OIと呼ぶ。   First, the image processing unit 200 (FIG. 1) acquires image data representing an attention image that is a target of face feature position detection processing (step S210). In the printer 100 of the present embodiment, when the memory card MC is inserted into the card slot 172, thumbnail images of image files stored in the memory card MC are displayed on the display unit 150. One or more images to be processed are selected by the user via the operation unit 140. The image processing unit 200 acquires an image file including image data corresponding to one or more selected images from the memory card MC and stores it in a predetermined area of the internal memory 120. The acquired image data is called attention image data, and the image represented by the attention image data is called attention image OI.

顔領域検出部230(図1)は、注目画像OIに含まれる顔画像の少なくとも一部を含む画像領域を顔領域FAとして検出する(ステップS220)。顔領域FAの検出は、公知の顔検出手法を用いて行うことができる。公知の顔検出手法としては、例えば、パターンマッチングによる手法や肌色領域抽出による手法、サンプル画像を用いた学習(例えばニューラルネットワークを用いた学習や、ブースティングを用いた学習、サポートベクターマシーンを用いた学習等)により設定される学習データを用いる手法等がある。   The face area detection unit 230 (FIG. 1) detects an image area including at least a part of the face image included in the target image OI as the face area FA (step S220). The detection of the face area FA can be performed using a known face detection method. Known face detection methods include, for example, pattern matching methods, skin color region extraction methods, learning using sample images (for example, learning using neural networks, learning using boosting, and support vector machines). For example, a method using learning data set by learning).

図11は、注目画像OIにおける顔領域FAの検出結果の一例を示す説明図である。図11には、注目画像OIにおいて検出された顔領域FAが示されている。本実施例では、おおよそ、顔の上下方向は額から顎まで、左右方向は両耳の外側まで含む矩形の領域が顔領域FAとして検出されるような顔検出手法が用いられている。   FIG. 11 is an explanatory diagram illustrating an example of a detection result of the face area FA in the target image OI. FIG. 11 shows the face area FA detected in the target image OI. In the present embodiment, a face detection method is used in which a rectangular area including the vertical direction of the face from the forehead to the chin and the horizontal direction from the outside of both ears is detected as the face area FA.

次に、トリミング部250(図1)が、顔領域FAを含む所定範囲の画像を注目画像OIからトリミングする(ステップS230)。トリミング部250は、まず、トリミングすべき範囲(トリミング範囲TI)を、所定のグローバルパラメーターに応じて顔領域FAを基準にして特定する。グローバルパラメーターとは、顔領域FAに対する顔画像の大きさ、傾き、上下方向の位置および左右方向の位置をそれぞれ表す各パラメーターであり、後述する特徴点CPの初期位置設定処理(ステップS250)の際に用いられる数値である。グローバルパラメーターは、内部メモリー120の所定領域に予め格納されている。本実施例では、当該グローバルパラメーターを、トリミング範囲TIを特定する際にも用いる。   Next, the trimming unit 250 (FIG. 1) trims an image in a predetermined range including the face area FA from the target image OI (step S230). The trimming unit 250 first specifies a range to be trimmed (trimming range TI) based on the face area FA according to a predetermined global parameter. The global parameters are parameters that represent the size, inclination, vertical position, and horizontal position of the face image with respect to the face area FA, respectively. During the initial position setting process (step S250) of the feature point CP described later. It is a numerical value used for. The global parameter is stored in advance in a predetermined area of the internal memory 120. In this embodiment, the global parameter is also used when specifying the trimming range TI.

図17は、各グローバルパラメーターに応じて顔領域FAを基準にして特定される各範囲を例示している。図17(a)では、顔画像を想定した所定形状(例えば、楕円)Cについて、顔領域FAに対する大きさを表す3段階(大きい、標準、小さい)のグローバルパラメーターに応じて大きさを変化させた状態を示している。図17(b)は、顔領域FAに対する上下方向の位置を表す3段階(上、中央、下)のグローバルパラメーターによって決定される各位置および、顔領域FAに対する左右方向の位置を表す3段階(左、中央、右)のグローバルパラメーターによって決定される各位置に、上記所定形状C(大きさは標準)を配置した状態を示している。図17(c)は、上記所定形状C(大きさは標準)について、顔領域FAに対する傾きを表す3段階(反時計回り(−)に15度、0度、時計回り(+)に15度)のグローバルパラメーターに応じて傾きを変化させた状態を示している。   FIG. 17 illustrates each range specified based on the face area FA according to each global parameter. In FIG. 17A, the size of a predetermined shape (for example, an ellipse) C assuming a face image is changed in accordance with three levels (large, standard, and small) global parameters representing the size of the face area FA. Shows the state. FIG. 17B shows each position determined by a global parameter of three stages (upper, middle, and lower) representing the vertical position with respect to the face area FA, and three stages (left and right positions with respect to the face area FA). The predetermined shape C (size is standard) is arranged at each position determined by the global parameters (left, center, right). FIG. 17C shows three steps (15 degrees for counterclockwise (−), 0 degree, and 15 degrees clockwise (+)) for the predetermined shape C (size is standard), representing the inclination with respect to the face area FA. ) Shows a state in which the slope is changed according to the global parameter.

トリミング部250は、本実施例では、上述したような4種類のグローバルパラメーター(大きさ、傾き、上下方向の位置、左右方向の位置)をそれぞれ既知の3段階の値として組み合わせることにより顔領域FAを基準にして特定される合計81通りの範囲の、全てを含む矩形の範囲を、トリミング範囲TIとして特定する。トリミング範囲TIの上下左右の各辺は、顔領域FAの上下左右の各辺とそれぞれ平行であるとする。そして、このように特定したトリミング範囲TIの画像を注目画像OIからトリミングする。   In this embodiment, the trimming unit 250 combines the above-described four types of global parameters (size, inclination, vertical position, horizontal position) as known three-stage values, thereby combining the face area FA. A rectangular range including all of the total 81 types of ranges specified on the basis of is specified as the trimming range TI. Assume that the upper, lower, left and right sides of the trimming range TI are parallel to the upper, lower, left and right sides of the face area FA, respectively. Then, the image in the trimming range TI specified in this way is trimmed from the target image OI.

次に、変換部260(図1)が、注目画像OIからトリミングされた画像(トリミング画像と呼ぶ。)のサイズが所定サイズとなるように、当該トリミング画像をアフィン変換し、当該アフィン変換後の画像を内部メモリー120の所定領域に保存する(ステップS240)。このように保存された画像は、後述する特徴点CPの位置の設定・補正処理(ステップS250,S260)の対象となる画像(検出対象画像CIと呼ぶ。)である。ここで言う所定サイズとは、縦横の長さがそれぞれ平均顔画像A(x)の縦横の長さの1倍以上かつ2倍以内程度のサイズを言う。上述したように平均顔画像A(x)のサイズが縦横56画素×56画素である場合には、例えば、縦横100画素×100画素を当該所定サイズとする。 Next, the conversion unit 260 (FIG. 1) affine-transforms the trimmed image so that the size of the image trimmed from the target image OI (referred to as a trimmed image) becomes a predetermined size, and after the affine transformation The image is stored in a predetermined area of the internal memory 120 (step S240). The image stored in this way is an image (referred to as a detection target image CI) that is a target of the position setting / correction processing (steps S250 and S260) described later. The predetermined size here refers to a size whose vertical and horizontal lengths are not less than 1 and not more than twice the vertical and horizontal lengths of the average face image A 0 (x). As described above, when the average face image A 0 (x) has a size of 56 pixels × 56 pixels vertically and horizontally, for example, 100 pixels × 100 pixels vertically and horizontally are set as the predetermined size.

図18は、ある注目画像OIからトリミング画像をアフィン変換して、所定サイズ(縦横100画素×100画素)の検出対象画像CIを生成した様子を示している。図18では、注目画像OI内のトリミング範囲TIを実線で示している。トリミング範囲TIは顔領域FAの全てを含む。注目画像OIのサイズや顔領域FAのサイズにもよるが、トリミング範囲TIが上記所定サイズよりも大きい場合には、トリミング画像に対するアフィン変換において画像の縮小が行なわれる。一方、トリミング範囲TIが上記所定サイズよりも小さい場合には、トリミング画像に対するアフィン変換において画像の拡大が行なわれる。また、注目画像OIに含まれている顔画像の上下方向は、注目画像OIの上下方向に対して傾いていることもあり、その場合には、顔領域FAおよびトリミング範囲TIも注目画像OIに対して傾くことになる。そこで変換部260は、トリミング画像に対する上記アフィン変換においては、当該傾きを無くす方向への回転処理を伴ったサイズ変換を行なう。   FIG. 18 shows a state in which a trimming image is affine-transformed from a certain target image OI to generate a detection target image CI having a predetermined size (vertical and horizontal 100 pixels × 100 pixels). In FIG. 18, the trimming range TI in the target image OI is indicated by a solid line. The trimming range TI includes the entire face area FA. Although depending on the size of the target image OI and the size of the face area FA, when the trimming range TI is larger than the predetermined size, the image is reduced in the affine transformation for the trimmed image. On the other hand, when the trimming range TI is smaller than the predetermined size, the image is enlarged in the affine transformation for the trimmed image. Further, the vertical direction of the face image included in the target image OI may be inclined with respect to the vertical direction of the target image OI. In this case, the face area FA and the trimming range TI are also included in the target image OI. It leans against it. Therefore, the conversion unit 260 performs size conversion with rotation processing in a direction to eliminate the inclination in the affine transformation for the trimmed image.

本実施例では、変換部260は、トリミング画像に対する上記アフィン変換(サイズ変換および回転処理)を行なう際に、併せて上記トリミング画像に対するノイズ低減のための処理を行なう。
変換部260は、トリミング画像を上記所定サイズに縮小する場合、縮小率(トリミング範囲TIの画像のサイズと上記所定サイズとの比率)に応じて単純に画素をサンプリングするのではなく、所定のノイズ低減処理を行ないつつ縮小を行なう。ノイズ低減処理とは、例えば平滑化処理である。平滑化処理は、例えば、トリミング画像のサイズを1/nに縮小して上記所定サイズの検出対象画像CIを生成する場合には、n個の画素からなる画素群の各画素値を平均することにより1つの画素値を生成する。そして、このように生成した画素を、検出対象画像CIを構成する1画素とする。このような平滑化処理は、移動平均フィルターを用いることで実現される。
In this embodiment, when performing the affine transformation (size conversion and rotation processing) on the trimmed image, the conversion unit 260 also performs processing for noise reduction on the trimmed image.
When the trimming image is reduced to the predetermined size, the conversion unit 260 does not simply sample the pixels in accordance with the reduction ratio (the ratio between the image size of the trimming range TI and the predetermined size), but instead of the predetermined noise. Reduction is performed while performing reduction processing. The noise reduction process is, for example, a smoothing process. In the smoothing process, for example, when the detection target image CI having the predetermined size is generated by reducing the size of the trimmed image to 1 / n, each pixel value of a pixel group including n pixels is averaged. To generate one pixel value. And let the pixel produced | generated in this way be 1 pixel which comprises the detection target image CI. Such a smoothing process is realized by using a moving average filter.

あるいは、変換部260は、上記平滑化処理の際に、平滑化フィルターの一種としてのガウシアンフィルターを用いるとしてもよい。この場合、変換部260は、上記トリミング画像のサイズに応じて異なるフィルターを用いる。例えば、トリミング範囲TIのサイズが縦横300画素×300画素である場合、変換部260は上記所定サイズの縦横の長さ(100画素×100画素)との比(300/100)に基づいて、用いるガウシアンフィルターのサイズを縦横3画素×3画素とする。また、トリミング範囲TIのサイズが縦横1500画素×1500画素である場合、変換部260は上記所定サイズの縦横の長さ(100画素×100画素)との比(1500/100)に基づいて、用いるガウシアンフィルターのサイズを縦横15画素×15画素とする。変換部260は、このように決定したガウシアンフィルターを上記トリミング画像に適用する。この結果、ガウシアンフィルターを適用した領域毎に、周辺画素の重み付けによって平滑化された注目画素が1つ取得され、このようにフィルターを適用した領域毎に取得された注目画素によって検出対象画像CIを構成する。   Alternatively, the conversion unit 260 may use a Gaussian filter as a kind of smoothing filter in the smoothing process. In this case, the conversion unit 260 uses different filters depending on the size of the trimmed image. For example, when the size of the trimming range TI is 300 pixels × 300 pixels in the vertical and horizontal directions, the conversion unit 260 is used based on the ratio (300/100) to the vertical and horizontal lengths (100 pixels × 100 pixels) of the predetermined size. The size of the Gaussian filter is 3 pixels × 3 pixels. Further, when the size of the trimming range TI is 1500 pixels × 1500 pixels in the vertical and horizontal directions, the conversion unit 260 is used based on the ratio (1500/100) to the vertical and horizontal lengths (100 pixels × 100 pixels) of the predetermined size. The size of the Gaussian filter is 15 pixels × 15 pixels. The conversion unit 260 applies the Gaussian filter determined in this way to the trimmed image. As a result, for each region to which the Gaussian filter is applied, one pixel of interest that has been smoothed by the weighting of the surrounding pixels is acquired, and thus the detection target image CI is acquired by using the pixel of interest acquired for each region to which the filter is applied. Constitute.

変換部260は、トリミング画像を上記所定サイズに拡大する場合は画素の補間を行なう。つまり、線形補間や非線形補間によってトリミング画像を上記所定サイズにまで拡大することで、ノイズの抑制された検出対象画像CIが生成できる。   The converter 260 performs pixel interpolation when enlarging the trimmed image to the predetermined size. That is, the detection target image CI in which noise is suppressed can be generated by enlarging the trimmed image to the predetermined size by linear interpolation or nonlinear interpolation.

特徴位置検出部220(図1)は、検出対象画像CIにおける特徴点CPの初期位置を設定する(ステップS250)。
図12は、本実施例における特徴点CPの初期位置設定処理の流れを示すフローチャートである。この場合、設定部221は、上述したグローバルパラメーターの値を種々変更して、特徴点CPを検出対象画像CI上の仮設定位置に設定する(ステップS310)。
The feature position detector 220 (FIG. 1) sets the initial position of the feature point CP in the detection target image CI (step S250).
FIG. 12 is a flowchart showing a flow of initial position setting processing of the feature point CP in the present embodiment. In this case, the setting unit 221 changes various values of the global parameter described above, and sets the feature point CP to a temporary setting position on the detection target image CI (step S310).

図13は、グローバルパラメーターの値を変更することによる特徴点CPの仮設定位置の一例を示す説明図である。図13(a)および図13(b)には、検出対象画像CIにおける特徴点CPおよび特徴点CPをつないで形成されるメッシュを示している。なお、特徴点CPをつないで形成されるメッシュは、上述したように特徴点CPを頂点とする複数の三角形領域TAの集合である(図6(a)等参照)。設定部221は、図13(a)および図13(b)の中央に示すように、平均形状sにおける特徴点CP間の配置と等しい特徴点CP間の配置を持ったメッシュであって、最も平均的なグローバルパラメーターの組み合わせに応じて顔領域FA(ただし、上記トリミング画像のサイズ変換に伴ってサイズ変換された後の顔領域FA)に対する大きさ、傾き、位置を調整したメッシュを設定する。最も平均的なグローバルパラメーターの組み合わせとは、これまでに述べた例で言えば、顔領域FAに対する大きさは「標準」、顔領域FAに対する上下方向の位置および左右方向の位置はそれぞれ「中央」、かつ顔領域FAに対する傾きは「0度」を示すグローバルパラメーターの組み合わせを言う。本実施例では、図13(a)および図13(b)の中央に示すようなメッシュを構成する特徴点CPの設定位置(仮設定位置)を、「基準仮設定位置」とも呼ぶ。 FIG. 13 is an explanatory diagram showing an example of a temporary setting position of the feature point CP by changing the value of the global parameter. FIGS. 13A and 13B show a mesh formed by connecting the feature points CP and the feature points CP in the detection target image CI. Note that the mesh formed by connecting the feature points CP is a set of a plurality of triangular areas TA having the feature points CP as vertices as described above (see FIG. 6A and the like). Setting unit 221, as shown in the center shown in FIG. 13 (a) and 13 (b), a mesh having the arrangement between placement equal characteristic point CP between the characteristic points CP of the average shape s 0, A mesh whose size, inclination, and position are adjusted for the face area FA (however, the face area FA after the size conversion is performed in accordance with the size conversion of the trimmed image) is set according to the combination of the most average global parameters. . In the example described so far, the most average combination of global parameters is “standard” for the size of the face area FA, and “center” for the vertical position and the horizontal position for the face area FA. In addition, the inclination with respect to the face area FA is a combination of global parameters indicating “0 degree”. In the present embodiment, the setting position (temporary setting position) of the feature point CP constituting the mesh as shown in the center of FIGS. 13A and 13B is also referred to as “reference temporary setting position”.

設定部221は、また、基準仮設定位置に対して、グローバルパラメーターの値を種々変更させた複数の仮設定位置を設定する。グローバルパラメーター(大きさ、傾き、上下方向の位置および左右方向の位置)を変更することは、検出対象画像CIにおいて特徴点CPにより形成されるメッシュが拡大・縮小、傾きを変更、並行移動することに相当する。従って、設定部221は、図13(a)に示すように、基準仮設定位置のメッシュを所定倍率で拡大または縮小したメッシュを形成するような仮設定位置(基準仮設定位置の図の下および上に示す)や、所定角度だけ時計回りまたは半時計回りに傾きを変更したメッシュを形成するような仮設定位置(基準仮設定位置の図の右および左に示す)を設定する。また、設定部221は、基準仮設定位置のメッシュに対して、拡大・縮小および傾きの変更を組み合わせた変換を行ったメッシュを形成するような仮設定位置(基準仮設定位置の図の左上、左下、右上、右下に示す)も設定する。   The setting unit 221 also sets a plurality of temporary setting positions obtained by changing various global parameter values with respect to the reference temporary setting position. Changing global parameters (size, inclination, vertical position and horizontal position) means that the mesh formed by the feature points CP in the detection target image CI is enlarged / reduced, the inclination is changed, and the mesh is moved in parallel. It corresponds to. Accordingly, as shown in FIG. 13 (a), the setting unit 221 forms a temporary setting position (below the reference temporary setting position diagram and a temporary setting position that forms a mesh obtained by enlarging or reducing the mesh at the reference temporary setting position at a predetermined magnification. Or a temporary setting position (shown on the right and left in the drawing of the reference temporary setting position) that forms a mesh whose inclination is changed clockwise or counterclockwise by a predetermined angle. In addition, the setting unit 221 forms a temporary setting position (upper left of the figure of the reference temporary setting position, which forms a mesh obtained by performing a combination of enlargement / reduction and change of inclination with respect to the mesh of the reference temporary setting position. Also set in the lower left, upper right, and lower right).

また、図13(b)に示すように、設定部221は、基準仮設定位置のメッシュを所定量だけ上または下に並行移動したメッシュを形成するような仮設定位置(基準仮設定位置の図の上および下に示す)や、左または右に並行移動したメッシュを形成するような仮設定位置(基準仮設定位置の図の左および右に示す)を設定する。また、設定部221は、基準仮設定位置のメッシュに対して、上下および左右の並行移動を組み合わせた変換を行ったメッシュを形成するような仮設定位置(基準仮設定位置の図の左上、左下、右上、右下に示す)も設定する。   Also, as shown in FIG. 13B, the setting unit 221 forms a temporary setting position (a reference temporary setting position diagram) that forms a mesh that is translated up or down by a predetermined amount from the mesh at the reference temporary setting position. And a temporary setting position (shown on the left and right in the drawing of the reference temporary setting position) that forms a mesh moved in parallel to the left or right. In addition, the setting unit 221 temporarily sets positions (upper left and lower left in the drawing of the reference temporary setting positions) that form a mesh obtained by performing a combination of vertical and left and right parallel movements on the reference temporary setting position mesh. , Shown in the upper right and lower right).

設定部221は、図13(a)に示す基準仮設定位置以外の8つの仮設定位置のそれぞれにおけるメッシュに対して図13(b)に示す上下左右の並行移動が実行される仮設定位置も設定する。従って、本実施例では、上述したように夫々に3段階の値を持つ4つのグローバルパラメーター(大きさ、傾き、上下方向の位置、左右方向の位置)を組み合わせたことにより設定される80通り(=3×3×3×3−1)の仮設定位置と基準仮設定位置との、合計81通りの仮設定位置が設定される。   The setting unit 221 also has temporary setting positions at which the horizontal movement shown in FIG. 13B is executed with respect to the mesh at each of the eight temporary setting positions other than the reference temporary setting position shown in FIG. Set. Therefore, in the present embodiment, as described above, there are 80 patterns set by combining four global parameters (size, inclination, vertical position, horizontal position) each having three levels of values ( = 3 × 3 × 3 × 3-1) temporary setting positions and reference temporary setting positions, a total of 81 temporary setting positions are set.

生成部222(図1)は、設定された各仮設定位置に対応する平均形状画像I(W(x;p))を生成する(ステップS320)。
図14は、平均形状画像I(W(x;p))の一例を示す説明図である。平均形状画像I(W(x;p))は、検出対象画像CIにおける特徴点CPの配置が平均形状sにおける特徴点CPの配置と等しくなるような変換によって算出される。
The generation unit 222 (FIG. 1) generates an average shape image I (W (x; p)) corresponding to each set temporary setting position (step S320).
FIG. 14 is an explanatory diagram showing an example of the average shape image I (W (x; p)). The average shape image I (W (x; p)) is calculated by conversion such that the arrangement of the feature points CP in the detection target image CI is equal to the arrangement of the feature points CP in the average shape s 0 .

平均形状画像I(W(x;p))を算出するための変換は、サンプル画像SIw算出のための変換(図8参照)と同様に、三角形領域TA毎のアフィン変換の集合であるワープWにより行われる。具体的には、検出対象画像CIに仮設定された特徴点CP(図13参照)によって変換対象領域(メッシュの外周に位置する特徴点CPにより囲まれた領域)が特定され、この検出対象画像CIにおける変換対象領域に対して三角形領域TA毎のアフィン変換が行われることにより、平均形状画像I(W(x;p))が算出される。本実施例では、平均形状画像I(W(x;p))は、平均顔画像A(x)と同様に平均形状領域BSAおよびマスク領域MAにより構成され、平均顔画像A(x)と同一サイズ(例えば、縦横56画素×56画素)の画像として算出される。 The transformation for calculating the average shape image I (W (x; p)) is a warp W that is a set of affine transformations for each triangular area TA, similarly to the transformation for calculating the sample image SIw (see FIG. 8). Is done. Specifically, a conversion target region (region surrounded by the feature point CP located on the outer periphery of the mesh) is specified by the feature point CP (see FIG. 13) temporarily set in the detection target image CI, and this detection target image An average shape image I (W (x; p)) is calculated by performing affine transformation for each triangular area TA on the transformation target area in the CI. In this embodiment, the average shape image I (W (x; p) ) is composed of an average face image A 0 (x) and an average shape area BSA and a mask area MA, average face image A 0 (x) Is calculated as an image of the same size (for example, 56 pixels × 56 pixels).

上述したように、検出対象画像CIは、縦横の長さがそれぞれ平均顔画像A(x)の縦横の長さの2倍以内程度のサイズであり、平均顔画像A(x)よりも大きい。そのため、検出対象画像CIにおける仮設定位置の特徴点CPによって特定される上記変形対象領域を、平均形状画像I(W(x;p))に変換する際には、画像の縮小処理が行なわれる。このような平均形状画像I(W(x;p))は、注目画像OIからトリミングされてサイズ変換がされた画像(検出対象画像CI)の一部を特徴点CPの配置が所定の配置となるように変換した画像である。 As described above, the detection target image CI, the length and width is the size of the extent twice within the length of the vertical and horizontal respectively average face image A 0 (x), than the average face image A 0 (x) large. Therefore, when the deformation target area specified by the feature point CP at the temporarily set position in the detection target image CI is converted into the average shape image I (W (x; p)), an image reduction process is performed. . In such an average shape image I (W (x; p)), a part of an image (detection target image CI) that has been trimmed from the target image OI and subjected to size conversion has a predetermined arrangement of feature points CP. It is the image converted so that it becomes.

なお、上述したように画素群xは、平均形状sにおける平均形状領域BSAに位置する画素の集合である。本実施例では、平均形状画像は、形状パラメーターpによるワープW(x;p)によって生成された画像(画素群)Iという意味で、平均形状画像I(W(x;p))と表現している。図14には、図13(a)に示した9個の仮設定位置に対応する9個の平均形状画像I(W(x;p))を示している。 The pixel group x as described above, a set of pixels located in the average shape area BSA of the average shape s 0. In this embodiment, the average shape image is expressed as an average shape image I (W (x; p)) in the sense of an image (pixel group) I generated by the warp W (x; p) with the shape parameter p. ing. FIG. 14 shows nine average shape images I (W (x; p)) corresponding to the nine temporarily set positions shown in FIG.

算出部224(図1)は、各仮設定位置に対応する平均形状画像I(W(x;p))と平均顔画像A(x)との差分画像Ieを算出する(ステップS330)。特徴点CPの仮設定位置は81種類設定されているため、算出部224(図1)は、81個の差分画像Ieを算出する。 The calculation unit 224 (FIG. 1) calculates a difference image Ie between the average shape image I (W (x; p)) corresponding to each temporarily set position and the average face image A 0 (x) (step S330). Since 81 types of temporarily set positions of the feature points CP are set, the calculation unit 224 (FIG. 1) calculates 81 difference images Ie.

設定部221は、各差分画像Ieの画素値からノルム(ユークリッド距離)を算出し、ノルムの値が最も小さい差分画像Ieに対応する仮設置位置(以下「ノルム最小仮設定位置」とも呼ぶ)を、検出対象画像CIにおける特徴点CPの初期位置として設定する(ステップS340)。ノルムを算出するための差分画像Ieの画素値は輝度値であってもよいしRGB値であってもよい。以上により特徴点CPの初期位置設定処理が完了する。   The setting unit 221 calculates a norm (Euclidean distance) from the pixel value of each difference image Ie, and a temporary installation position corresponding to the difference image Ie having the smallest norm value (hereinafter also referred to as “norm minimum temporary setting position”). The initial position of the feature point CP in the detection target image CI is set (step S340). The pixel value of the difference image Ie for calculating the norm may be a luminance value or an RGB value. Thus, the initial position setting process for the feature point CP is completed.

特徴位置検出部220(図1)は、上記ステップS250において検出対象画像CIに初期位置として設定された特徴点CPの設定位置の補正を行う(ステップS260)。
図15は、ステップS260で実行する特徴点CPの設定位置補正処理の流れを示すフローチャートである。
The feature position detection unit 220 (FIG. 1) corrects the set position of the feature point CP set as the initial position in the detection target image CI in step S250 (step S260).
FIG. 15 is a flowchart showing the flow of the setting position correction process for the feature point CP executed in step S260.

生成部222(図1)は、検出対象画像CIから平均形状画像I(W(x;p))を算出する(ステップS410)。平均形状画像I(W(x;p))の算出方法は、特徴点CPの初期位置設定処理におけるステップS320と同様である。   The generation unit 222 (FIG. 1) calculates an average shape image I (W (x; p)) from the detection target image CI (step S410). The calculation method of the average shape image I (W (x; p)) is the same as that in step S320 in the initial position setting process of the feature point CP.

算出部224は、ステップS410で生成された平均形状画像I(W(x;p))と平均顔画像A(x)との差分画像Ieを算出する(ステップS420)。特徴位置検出部220は、ステップS420で算出された差分画像Ieに基づき、特徴点CPの設定位置補正処理が収束したか否かを判定する(ステップS430)。特徴位置検出部220は、差分画像Ieのノルムを算出し、ノルムの値が予め設定されたしきい値より小さい場合には収束したと判定し、ノルムの値がしきい値以上の場合には未だ収束していないと判定する。なお、特徴位置検出部220は、算出された差分画像Ieのノルムの値が前回のステップS430において算出されたノルムの値よりも小さい場合には収束したと判定し、前回値以上である場合には未だ収束していないと判定してもよい。あるいは、特徴位置検出部220は、しきい値による判定と前回値との比較による判定とを組み合わせて収束判定を行うとしてもよい。例えば、特徴位置検出部220は、算出されたノルムの値が、しきい値より小さく、かつ、前回値より小さい場合にのみ収束したと判定し、それ以外の場合には未だ収束していないと判定するとしてもよい。 The calculation unit 224 calculates a difference image Ie between the average shape image I (W (x; p)) generated in step S410 and the average face image A 0 (x) (step S420). The feature position detector 220 determines whether or not the feature point CP setting position correction process has converged based on the difference image Ie calculated in step S420 (step S430). The feature position detection unit 220 calculates the norm of the difference image Ie, determines that the norm value has converged if it is smaller than a preset threshold value, and if the norm value is greater than or equal to the threshold value, Judge that it has not converged yet. Note that the feature position detection unit 220 determines that the calculated norm value of the difference image Ie has converged when the norm value is smaller than the norm value calculated in the previous step S430. May be determined as not yet converged. Alternatively, the feature position detection unit 220 may perform the convergence determination by combining the determination based on the threshold value and the determination based on the comparison with the previous value. For example, the feature position detection unit 220 determines that the calculated norm value has converged only when it is smaller than the threshold value and smaller than the previous value, and otherwise has not yet converged. It may be determined.

ステップS430の収束判定において未だ収束していないと判定された場合には、補正部226(図1)が、パラメーター更新量ΔPを算出する(ステップS440)。パラメーター更新量ΔPは、4個のグローバルパラメーター(全体としての大きさ、傾き、X方向位置、Y方向位置)、および、特徴量であるn個の形状パラメーターp(i=1〜nの整数。)の値の変更量を意味している。なお、特徴点CPを初期位置に設定した直後においては、グローバルパラメーターは、特徴点CPの初期位置設定処理(図12)において決定された値が設定されている。また、このときの特徴点CPの初期位置と平均形状sの特徴点CPの設定位置との相違は、全体としての大きさ、傾き、位置の相違に限られるため、形状モデルにおける形状パラメーターpの値はすべてゼロである。 If it is determined in step S430 that the convergence has not yet been completed, the correction unit 226 (FIG. 1) calculates the parameter update amount ΔP (step S440). The parameter update amount ΔP includes four global parameters (total size, inclination, X direction position, Y direction position), and n shape parameters p i (i = 1 to n) that are feature amounts. .) Means the change amount of the value. Immediately after setting the feature point CP to the initial position, the global parameter is set to the value determined in the initial position setting process (FIG. 12) of the feature point CP. Further, difference between the initial position of the characteristic point CP and sets the position of the characteristic points CP of the average shape s 0 in this case, the overall size, the tilt, because it is limited to the difference in position, shape parameters in the shape model p The values of i are all zero.

パラメーター更新量ΔPは、下記の式(3)により算出される。すなわち、パラメーター更新量ΔPは、アップデートマトリックスRと差分画像Ieとの積である。   The parameter update amount ΔP is calculated by the following equation (3). That is, the parameter update amount ΔP is a product of the update matrix R and the difference image Ie.

式(3)におけるアップデートマトリックスRは、差分画像Ieに基づきパラメーター更新量ΔPを算出するために予め学習により設定されたM行N列のマトリックスであり、AAM情報AMI(図1)として内部メモリー120に格納されている。本実施例では、アップデートマトリックスRの行数Mは、グローバルパラメーターの数(4個)と、形状パラメーターpの数(n個)との和((4+n)個)に等しく、列数Nは、平均顔画像A(x)の平均形状領域BSA内の画素数(56画素×56画素−マスク領域MAの画素数)に等しい。アップデートマトリックスRは、下記の式(4)および(5)により算出される。 The update matrix R in the expression (3) is a matrix of M rows and N columns set in advance by learning in order to calculate the parameter update amount ΔP based on the difference image Ie, and the internal memory 120 as the AAM information AMI (FIG. 1). Stored in In this embodiment, the number of rows M of the update matrix R includes a number of global parameters (4), equal to the sum of the number of shape parameters p i (n-number) ((4 + n) pieces), the number of columns N is , Equal to the number of pixels in the average shape area BSA of the average face image A 0 (x) (56 pixels × 56 pixels−the number of pixels in the mask area MA). The update matrix R is calculated by the following formulas (4) and (5).

式(4)および(5)における関数Wは、ワープW(x;p)を指し、変数Pは、形状パラメーターpを指し、Tは転置行列を意味する。 Function W in the formula (4) and (5), the warp W; refers to (x p), the variable P refers to the shape parameter p i, T denotes a transposed matrix.

補正部226(図1)は、算出されたパラメーター更新量ΔPに基づきパラメーター(4個のグローバルパラメーターおよびn個の形状パラメーター)を更新する(ステップS450)。これにより、検出対象画像CIにおける特徴点CPの設定位置が補正(更新)される。補正部226は、差分画像Ieのノルムが小さくなるように検出対象画像CIにおける特徴点CPの設定位置を補正する。すなわち、n個の形状パラメーターをパラメーター更新量ΔPで更新することで、形状モデルの上記式(1)に従って新たな形状sが生成されるため、補正部226は、当該生成された形状sにおける特徴点CPを検出対象画像CIに設定する。このとき、補正部226は、当該生成された形状sの大きさ、傾き、位置を、上記パラメーター更新量ΔPで更新した4個のグローバルパラメーターに応じて調整した上で、特徴点CPを検出対象画像CIに設定する。このようにパラメーターの更新に応じて検出対象画像CIに設定された特徴点CPの位置が、補正後の特徴点CPの設定位置である。   The correcting unit 226 (FIG. 1) updates parameters (four global parameters and n shape parameters) based on the calculated parameter update amount ΔP (step S450). Thereby, the setting position of the feature point CP in the detection target image CI is corrected (updated). The correction unit 226 corrects the setting position of the feature point CP in the detection target image CI so that the norm of the difference image Ie is small. That is, by updating the n shape parameters with the parameter update amount ΔP, a new shape s is generated according to the above-described equation (1) of the shape model, and thus the correction unit 226 has a feature in the generated shape s. The point CP is set in the detection target image CI. At this time, the correction unit 226 adjusts the size, inclination, and position of the generated shape s according to the four global parameters updated by the parameter update amount ΔP, and then detects the feature point CP. Set to image CI. Thus, the position of the feature point CP set in the detection target image CI in accordance with the parameter update is the set position of the corrected feature point CP.

パラメーターの更新の後には、再度、特徴点CPの設置位置が補正された検出対象画像CIからの平均形状画像I(W(x;p))の算出(ステップS410)、差分画像Ieの算出(ステップS420)、差分画像Ieに基づく収束判定(ステップS430)が行われる。再度の収束判定においても収束していないと判定された場合には、さらに、差分画像Ieに基づくパラメーター更新量ΔPの算出(ステップS440)、パラメーターの更新による特徴点CPの設定位置補正(ステップS450)が行われる。   After the parameter update, the average shape image I (W (x; p)) is calculated again from the detection target image CI in which the installation position of the feature point CP is corrected (step S410), and the difference image Ie is calculated ( In step S420), a convergence determination (step S430) based on the difference image Ie is performed. If it is determined that the convergence has not been made in the convergence determination again, the parameter update amount ΔP based on the difference image Ie is calculated (step S440), and the setting position correction of the feature point CP by the parameter update (step S450). ) Is performed.

図15のステップS410からS450までの処理が繰り返し実行されると、検出対象画像CIにおける各特徴部位に対応する特徴点CPの位置は実際の特徴部位の位置に全体として近づいていき、ある時点で収束判定(ステップS430)において収束したと判定される。収束判定において収束したと判定すると、特徴位置検出部220は、その時点で検出対象画像CIに設定されている特徴点CPの位置を、特徴部位の座標位置として検出することができる。本実施例では、特徴位置検出部220は、上記収束判定において収束したと判定した場合、図15のフローチャートを終了し、更に注目画像OIにおける特徴点CPの設定位置補正処理を行なう(図10のステップS270)。   When the processing from step S410 to step S450 in FIG. 15 is repeatedly executed, the position of the feature point CP corresponding to each feature part in the detection target image CI approaches the position of the actual feature part as a whole, and at a certain point in time. In convergence determination (step S430), it is determined that convergence has occurred. If it determines with having converged in convergence determination, the feature position detection part 220 can detect the position of the feature point CP currently set to the detection target image CI as a coordinate position of a feature part. In this embodiment, when the feature position detection unit 220 determines that the convergence has been made in the convergence determination, the feature position detection unit 220 ends the flowchart of FIG. 15 and further performs a setting position correction process for the feature point CP in the target image OI (see FIG. 10). Step S270).

図19は、ステップS270で実行する特徴点CPの設定位置補正処理を示すフローチャートである。
特徴位置検出部220は、ステップS260の処理(図10,15)において最終的に検出対象画像CIに設定した特徴点CPの配置を、注目画像OIにおいて再現することにより、注目画像OI上に特徴点CPを設定する(ステップS510)。具体的には、特徴位置検出部220は、当該最終的に検出対象画像CIに設定した特徴点CPの配置関係(メッシュ)を、検出対象画像CI(変更部260によってサイズが変更された画像)のサイズと上記トリミング画像のサイズとの比に応じて拡大或いは縮小する。つまり、変更部260が上記トリミング画像を縮小していた場合には、当該ステップS510では拡大し、変更部260が上記トリミング画像を拡大していた場合には、当該ステップS510では縮小を行なう。そして、当該拡大或いは縮小したメッシュの傾きおよび位置を、注目画像OIにおける顔領域FAを基準にして、ステップS260の処理において最終的に設定されたグローバルパラメーターに応じて調整した上で、当該メッシュにおける特徴点CPを注目画像OIに設定する。
FIG. 19 is a flowchart showing the setting position correction process of the feature point CP executed in step S270.
The feature position detection unit 220 reproduces the arrangement of the feature points CP finally set in the detection target image CI in the process of step S260 (FIGS. 10 and 15) on the target image OI, thereby generating a feature on the target image OI. A point CP is set (step S510). Specifically, the feature position detection unit 220 uses the detection target image CI (image whose size has been changed by the changing unit 260) as the arrangement relationship (mesh) of the feature points CP that is finally set in the detection target image CI. The size is enlarged or reduced according to the ratio between the size of the image and the size of the trimmed image. That is, if the changing unit 260 has reduced the trimmed image, the image is enlarged in step S510. If the changing unit 260 has enlarged the trimmed image, the image is reduced in step S510. Then, the inclination and position of the enlarged or reduced mesh are adjusted according to the global parameter finally set in the process of step S260 with reference to the face area FA in the target image OI, and then the mesh The feature point CP is set to the attention image OI.

次に、特徴位置検出部220は、ステップS510において特徴点CPを設定した後の、パラメーターの更新により特徴点CPの設定位置を補正(更新)した回数(ステップS570の処理)が、予め規定された回数(上限回数)に達したか否か判定する(ステップS520)。特徴位置検出部220は、上限回数に達したと判定した場合に、顔特徴位置検出処理を完了させる(ステップS580)。上限回数は、例えば、3回程度といった少ない回数である。   Next, the number of times the feature position detection unit 220 corrects (updates) the setting position of the feature point CP by updating the parameters after setting the feature point CP in step S510 (the process of step S570) is defined in advance. It is determined whether or not the number of times (the upper limit number) has been reached (step S520). If it is determined that the upper limit number has been reached, the feature position detection unit 220 completes the face feature position detection process (step S580). The upper limit number is a small number, for example, about three times.

ステップS520において、パラメーターの更新により特徴点CPの設定位置を補正(更新)した回数が上限回数に達していないと判定された場合、生成部222(図1)は、その時点で注目画像OIに設定されている特徴点CPの配置が平均形状sにおける特徴点CPの配置と等しくなるようにアフィン変換を行なうことで、平均顔画像A(x)と同一サイズの平均形状画像I(W(x;p))を算出する(ステップS530)。なお図19の説明においては、注目画像OIに設定されている特徴点CPによって特定される変換対象領域(メッシュの外周に位置する特徴点CPにより囲まれた領域)における画素群をW(x;p)と表す。 If it is determined in step S520 that the number of corrections (updates) of the setting position of the feature point CP by the parameter update has not reached the upper limit number, the generation unit 222 (FIG. 1) displays the attention image OI at that time. By performing affine transformation so that the arrangement of the set feature points CP is equal to the arrangement of the feature points CP in the average shape s 0 , the average shape image I (W) having the same size as the average face image A 0 (x) (X; p)) is calculated (step S530). In the description of FIG. 19, the pixel group in the conversion target region (region surrounded by the feature point CP located on the outer periphery of the mesh) specified by the feature point CP set in the target image OI is represented by W (x; p).

算出部224は、ステップS530で生成された平均形状画像I(W(x;p))と平均顔画像A(x)との差分画像Ieを算出する(ステップS540)。特徴位置検出部220は、ステップS540で算出された差分画像Ieに基づき、特徴点CPの設定位置補正処理が収束したか否か判定する(ステップS550)。つまり特徴位置検出部220は、差分画像Ieのノルムを算出し、ノルムの値が予め設定されたしきい値より小さい場合には収束したと判定する。特徴位置検出部220は、収束したと判定した場合は、上記ステップS520の“Yes”の判定と同様に、顔特徴位置検出処理を完了させる(ステップS580)。なお、ステップS550の収束判定で用いるしきい値は、ステップS430(図15)の収束判定で用いるしきい値と同等かあるいはそれよりも低い値とする。なお、ここでもステップS430と同様に、特徴位置検出部220は、算出された差分画像Ieのノルムの値が前回のステップS550において算出されたノルムの値よりも小さい場合には収束したと判定しても良い。或いは、算出されたノルムの値が、しきい値より小さく、かつ、前回値より小さい場合にのみ収束したと判定してもよい。 The calculating unit 224 calculates a difference image Ie between the average shape image I (W (x; p)) generated in step S530 and the average face image A 0 (x) (step S540). The feature position detection unit 220 determines whether or not the feature point CP setting position correction processing has converged based on the difference image Ie calculated in step S540 (step S550). That is, the feature position detection unit 220 calculates the norm of the difference image Ie, and determines that it has converged when the norm value is smaller than a preset threshold value. When it is determined that the feature position detection unit 220 has converged, the facial feature position detection process is completed (step S580), as in the case of the “Yes” determination in step S520. Note that the threshold value used in the convergence determination in step S550 is set to be equal to or lower than the threshold value used in the convergence determination in step S430 (FIG. 15). In this case as well, similarly to step S430, the feature position detection unit 220 determines that convergence has occurred when the norm value of the calculated difference image Ie is smaller than the norm value calculated in the previous step S550. May be. Or you may determine with having converged only when the value of the calculated norm is smaller than a threshold value and smaller than the previous value.

ステップS550の収束判定において収束していないと判定された場合、補正部226(図1)は、ステップS440,S450と同様に、パラメーター更新量ΔPを算出し(ステップS560)、算出されたパラメーター更新量ΔPに基づきパラメーター(4個のグローバルパラメーターおよびn個の形状パラメーター)を更新する(ステップS570)。なお、ステップS510で特徴点CPを注目画像OIに設定した直後においては、グローバルパラメーター及び上記n個の形状パラメーターは、ステップS260の処理(図10,15)における最後のパラメーター更新により得られた値が設定されている。   When it is determined in step S550 that the convergence has not been achieved, the correction unit 226 (FIG. 1) calculates the parameter update amount ΔP (step S560), similarly to steps S440 and S450, and the calculated parameter update. The parameters (four global parameters and n shape parameters) are updated based on the quantity ΔP (step S570). Note that immediately after the feature point CP is set as the target image OI in step S510, the global parameters and the n shape parameters are values obtained by the last parameter update in the process of step S260 (FIGS. 10 and 15). Is set.

ステップS570の結果、注目画像OIにおける特徴点CPの設定位置が補正(更新)される。補正部226は、差分画像Ieのノルムが小さくなるように注目画像OIにおける特徴点CPの設定位置を補正する。つまり、上記n個の形状パラメーターをステップS560で得られたパラメーター更新量ΔPで更新することで、形状モデルの上記式(1)に従って新たな形状sが生成され、補正部226は、当該生成された形状sにおける特徴点CPを注目画像OIに設定する。このとき、補正部226は、当該生成された形状sの大きさ、傾き、位置を、ステップS560で得られたパラメーター更新量ΔPで更新した4個のグローバルパラメーターに応じて調整した上で、特徴点CPを注目画像OIに設定する。   As a result of step S570, the setting position of the feature point CP in the target image OI is corrected (updated). The correcting unit 226 corrects the setting position of the feature point CP in the target image OI so that the norm of the difference image Ie is reduced. That is, by updating the n shape parameters with the parameter update amount ΔP obtained in step S560, a new shape s is generated according to the above equation (1) of the shape model, and the correction unit 226 generates the generated shape s. The feature point CP in the selected shape s is set as the target image OI. At this time, the correction unit 226 adjusts the size, inclination, and position of the generated shape s according to the four global parameters updated with the parameter update amount ΔP obtained in step S560, and then the feature. The point CP is set to the attention image OI.

パラメーターの更新の後には、再度、ステップS520の判定がなされ、“No”の判定であれば、特徴点CPの設置位置が補正された注目画像OIからの平均形状画像I(W(x;p))の算出(ステップS530)以降の処理が繰り返される。図19のステップS520からS570までの処理が繰り返し実行されると、注目画像OIにおける各特徴部位に対応する特徴点CPの位置は実際の特徴部位の位置に全体として近づいていく。特徴位置検出部220は、顔特徴位置検出処理を完了させた(ステップS580)時点で設定されているグローバルパラメーターおよび形状パラメーターの値により特定される特徴点CPの設定位置を、最終的な注目画像OIにおける特徴点CPの設定位置として特定する。   After the parameter update, the determination in step S520 is made again. If the determination is “No”, the average shape image I (W (x; p) from the target image OI in which the installation position of the feature point CP is corrected. )) After the calculation (step S530) is repeated. When the processing from step S520 to S570 in FIG. 19 is repeatedly executed, the position of the feature point CP corresponding to each feature part in the target image OI approaches the position of the actual feature part as a whole. The feature position detecting unit 220 determines the set position of the feature point CP specified by the values of the global parameter and the shape parameter set at the time of completing the face feature position detection process (step S580) as the final target image. It is specified as the setting position of the feature point CP in OI.

本実施例では、検出対象画像CI上での特徴点CPの設定位置補正処理(図15のステップS410〜S450の処理)の繰り返しに関して、回数上の制限を設けていない(ノルムが最適化されるまで繰り返すことが可能)。一方、上述したように、注目画像OI上での特徴点CPの設定位置補正処理の繰り返しに関しては、回数の上限を設けている。これは、検出対象画像CI上での特徴点CPの設定位置補正処理を経て、注目画像OIに特徴点CPを設定した時点(ステップS510)で既に、特徴点CPの位置は、注目画像OIにおける実際の特徴部位の位置に全体的かなり近い状態にあるからである。つまり、注目画像OIにおける特徴点CPの設定位置補正処理に関しては、特徴点CPの設定位置の更新を少ない回数行なうだけで、その設定位置を、注目画像OIの実際の特徴部位の位置に高精度にマッチさせることができる。そのため、特徴部位の位置検出の精度と処理スピードのバランスを考慮して、上述したような上限回数を設けているのである。   In the present embodiment, no limitation is imposed on the number of times regarding the repetition of the setting position correction processing of the feature point CP on the detection target image CI (the processing of steps S410 to S450 in FIG. 15) (the norm is optimized). Can be repeated). On the other hand, as described above, the upper limit of the number of times is set for the repetition of the setting position correction process of the feature point CP on the target image OI. This is because the position of the feature point CP is already in the target image OI at the time when the feature point CP is set in the target image OI through the setting position correction processing of the target point CP on the detection target image CI (step S510). This is because the overall position of the actual feature portion is quite close. In other words, regarding the setting position correction processing of the feature point CP in the target image OI, the setting position of the feature point CP is updated with a small number of times, and the setting position is accurately set to the position of the actual feature portion of the target image OI. Can be matched to. For this reason, the upper limit number of times as described above is provided in consideration of the balance between the accuracy of position detection of the characteristic part and the processing speed.

図16は、顔特徴位置検出処理の結果の一例を示す説明図である。図16には、注目画像OIにおいて最終的に特定された特徴点CPの設定位置が示されている。特徴点CPの設定位置により、注目画像OIに含まれる顔の特徴部位(人物の顔の器官(眉毛、目、鼻、口)および顔の輪郭における所定位置)の座標位置が特定されるため、注目画像OIにおける人物の顔の器官の形状・位置や顔の輪郭形状の検出が可能となる。また、表情判定や顔向き判定をおこなう場合には、顔特徴位置検出処理が完了した際のn個の形状パラメーターの値と、しきい値とを比較することで表情や顔向きを判定することができる。また、顔画像の変形をおこなう場合には、顔特徴位置検出処理が完了した際のn個の形状パラメーターの値を変更することにより顔の形状を良好に変形することができる。   FIG. 16 is an explanatory diagram illustrating an example of a result of the face feature position detection process. FIG. 16 shows the setting positions of the feature points CP finally specified in the target image OI. The coordinate position of the facial feature part (predetermined position in the facial organs (eyebrows, eyes, nose, mouth) and facial contour) included in the target image OI is specified by the setting position of the feature point CP. It is possible to detect the shape and position of the facial organ of the person and the contour shape of the face in the target image OI. In addition, when performing facial expression determination and face orientation determination, the facial expression position and facial orientation are determined by comparing the value of n shape parameters when the facial feature position detection processing is completed with a threshold value. Can do. In addition, when the face image is deformed, the shape of the face can be favorably deformed by changing the values of the n shape parameters when the face feature position detection process is completed.

以上説明したように、本実施例の画像処理装置によれば、顔領域FAを含み、且つ、特徴点CPの初期位置設定の際に特徴点CPの位置設定対象となり得る画像領域の全てを含む範囲を、注目画像OIからトリミングし、当該トリミングした画像を、その画像サイズが所定サイズとなるようにアフィン変換(サイズ変換および回転)する。そして、当該変換によって得られた所定サイズの画像(検出対象画像CI)に基づいて、顔の特徴部位の座標位置を検出するための特徴点CPの設定(設定位置の最適化)を行なうとした。この結果、特徴点CPの初期位置設定処理(図10のステップS250)や特徴点CPの設定位置補正処理(ステップS260)において複数回行なわれる、特徴点CPによって特定される画像領域のアフィン変換(ワープWによる平均形状画像の生成)の際に、画素の走査範囲が検出対象画像CI内に限定されるようになった。そのため、特徴点CPの初期位置設定処理(図10のステップS250)や特徴点CPの設定位置補正処理(ステップS260)、ひいては顔特徴位置検出処理全体が高速化される。   As described above, according to the image processing apparatus of the present embodiment, the face area FA is included, and all the image areas that can be the position setting target of the feature point CP when the initial position of the feature point CP is set are included. The range is trimmed from the target image OI, and the trimmed image is subjected to affine transformation (size transformation and rotation) so that the image size becomes a predetermined size. Then, based on the image of the predetermined size (detection target image CI) obtained by the conversion, the feature point CP is set (optimization of the set position) for detecting the coordinate position of the facial feature part. . As a result, the affine transformation of the image area specified by the feature point CP is performed a plurality of times in the initial position setting process (step S250 in FIG. 10) of the feature point CP and the setting position correction process of the feature point CP (step S260). In the case of generation of an average shape image by warp W), the scanning range of pixels is limited to the detection target image CI. For this reason, the initial process for setting the initial position of the feature point CP (step S250 in FIG. 10), the process for correcting the setting position of the feature point CP (step S260), and the entire face feature position detection process are accelerated.

また、本実施例の画像処理装置は、上記トリミングした画像を所定サイズとなるようにアフィン変換する際に、画像のノイズ低減処理を併せて行なうとした。つまり、特徴点CPの初期位置設定処理(図10のステップS250)や特徴点CPの設定位置補正処理(ステップS260)の対象となる検出対象画像CIを高画質化することで、検出対象画像CIに基づいて生成される平均形状画像もノイズの少ない画像となる。よって、平均形状画像と平均顔画像との比較(差分画像Ie)に基づいた収束判定やパラメーター量の更新処理も、ノイズの影響を受けることなく正確性が増し、結果、顔の特徴部位の位置検出精度が向上する。   The image processing apparatus according to the present embodiment also performs image noise reduction processing when the trimmed image is affine transformed so as to have a predetermined size. That is, the detection target image CI is improved by improving the image quality of the detection target image CI that is the target of the initial position setting process of the feature point CP (step S250 in FIG. 10) and the setting position correction process of the feature point CP (step S260). The average shape image generated based on the image is also an image with less noise. Therefore, the convergence determination based on the comparison between the average shape image and the average face image (difference image Ie) and the update processing of the parameter amount are also more accurate without being affected by noise, and as a result, the position of the feature part of the face Detection accuracy is improved.

本実施例に係る画像処理装置によれば、設定部221は、グローバルパラメーターを用いて、特徴点CPを設定するため、画像に含まれる顔の特徴部位の位置を効率的かつ高速に検出することができる。具体的には、4つのグローバルパラメーター(大きさ、傾き、上下方向の位置、左右方向の位置)の値をそれぞれ変更させて、種々のメッシュを形成する特徴点CPの仮設定位置を予め複数用意し、ノルムの値が最も小さい差分画像Ieに対応する仮設定位置を初期位置としている。これにより、検出対象画像CIにおける特徴点CPの初期位置を顔の特徴部位の位置のより近くに設定することができる。よって、特徴点CPの設定位置補正処理において、補正部226による補正が容易となるため、顔の特徴部位の位置を検出する処理の効率化・高速化を図ることができる。   According to the image processing apparatus according to the present embodiment, the setting unit 221 uses the global parameters to set the feature points CP, and thus detects the position of the facial feature part included in the image efficiently and at high speed. Can do. Specifically, multiple global parameters (size, inclination, vertical position, horizontal position) are changed to prepare multiple temporary setting positions for feature points CP that form various meshes. The temporary setting position corresponding to the difference image Ie having the smallest norm value is set as the initial position. Thereby, the initial position of the feature point CP in the detection target image CI can be set closer to the position of the feature part of the face. Therefore, in the setting position correction process of the feature point CP, the correction by the correction unit 226 is facilitated, so that the process of detecting the position of the feature part of the face can be made more efficient and faster.

4.変形例
本発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。本発明は、例えば以下のような変形も可能である。
4). Modifications The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the scope of the invention. For example, the present invention can be modified as follows.

変換部260(図1)は、トリミング画像に対して、明るさ、コントラスト、色彩のうちの少なくとも一つ以上の要素を平均顔画像A(x)に近づける補正処理を行うとしてもよい。この場合、プリンター100は、平均顔画像A(x)についての明るさの基準値、輝度範囲(ダイナミックレンジ)、色彩の基準値、を内部メモリー120に予め格納しておく。つまり、AAM設定処理を行う上記コンピューター300は、平均顔画像A(x)に基づいて明るさの基準値、輝度範囲、色彩の基準値、を予め生成し、これら生成した各値をプリンター100に保持させておく。ここで言う明るさの基準値とは、例えば、平均顔画像A(x)の平均形状領域BSA内における輝度値の平均である。また、輝度範囲とは、例えば、平均顔画像A(x)の平均形状領域BSAにおける輝度範囲である。また、色彩の基準値とは、例えば、平均顔画像A(x)の平均形状領域BSA内におけるR,G,B毎の平均値の比(カラーバランス)である。なお、このような明るさの基準値、輝度範囲、色彩の基準値は、プリンター100(画像処理装置)自身が、AAM情報AMIとしての平均顔画像A(x)に基づいて生成するとしてもよい。 The conversion unit 260 (FIG. 1) may perform a correction process on the trimmed image so that at least one element of brightness, contrast, and color approaches the average face image A 0 (x). In this case, the printer 100 stores the brightness reference value, the luminance range (dynamic range), and the color reference value for the average face image A 0 (x) in the internal memory 120 in advance. That is, the computer 300 that performs the AAM setting process generates a reference value of brightness, a luminance range, and a reference value of color based on the average face image A 0 (x) in advance, and uses the generated values for the printer 100. To keep. The brightness reference value referred to here is, for example, the average of the luminance values in the average shape area BSA of the average face image A 0 (x). The luminance range is, for example, a luminance range in the average shape area BSA of the average face image A 0 (x). The color reference value is, for example, a ratio (color balance) of average values for R, G, and B in the average shape area BSA of the average face image A 0 (x). Note that such a brightness reference value, luminance range, and color reference value may be generated by the printer 100 (image processing apparatus) itself based on the average face image A 0 (x) as the AAM information AMI. Good.

このような前提において、変換部260は、トリミング画像の輝度平均値を求めるとともに、当該輝度平均値と上記平均顔画像A(x)の明るさの基準値との差分を算出し、当該差分に応じて(例えば、当該差分に応じた補正度合を持ったγカーブによって)トリミング画像の輝度を補正する。また、変換部260は、トリミング画像の輝度範囲が、上記平均顔画像A(x)の輝度範囲と略等しくなるように、トリミング画像の輝度範囲を拡大させる(コントラスト拡大処理をする)。また、変換部260は、トリミング画像のRGB毎の平均値の比を求めるとともに、当該求めた比が上記平均顔画像A(x)の色彩の基準値と略等しくなるように、トリミング画像のRGB毎の分布を補正する。そして、変換部260は、このように明るさ、コントラスト、色彩の全部或いは一部を補正したトリミング画像について、アフィン変換を行い上記所定サイズの検出対象画像CIを生成する。 Under such a premise, the conversion unit 260 calculates a luminance average value of the trimmed image, calculates a difference between the luminance average value and the brightness reference value of the average face image A 0 (x), and calculates the difference. The brightness of the trimmed image is corrected according to (for example, by a γ curve having a correction degree corresponding to the difference). In addition, the conversion unit 260 expands the brightness range of the trimmed image so that the brightness range of the trimmed image is substantially equal to the brightness range of the average face image A 0 (x) (contrast expansion processing is performed). In addition, the conversion unit 260 obtains the ratio of the average values of the trimmed images for each RGB, and the trimmed image has a ratio substantially equal to the reference color value of the average face image A 0 (x). The distribution for each RGB is corrected. Then, the conversion unit 260 performs affine transformation on the trimmed image in which all or part of the brightness, contrast, and color are corrected, and generates the detection target image CI having the predetermined size.

その結果、検出対象画像CIをアフィン変換して生成される平均形状画像I(W(x;p))も、その明るさやコントラストや色彩が平均顔画像A(x)に近いものとなる。そのため、平均形状画像I(W(x;p))と平均顔画像A(x)との比較結果(差分画像Ieやノルム)は、純粋に、そのとき検出対象画像CIに設定されている特徴点CPの位置の良し悪し(特徴部位の位置との一致度合い)を表すものとなり、よって、特徴部位の位置検出の高速化・高精度化がより一層図られる。 As a result, the average shape image I (W (x; p)) generated by affine transformation of the detection target image CI is also similar in brightness, contrast, and color to the average face image A 0 (x). Therefore, the comparison result (difference image Ie or norm) between the average shape image I (W (x; p)) and the average face image A 0 (x) is purely set to the detection target image CI at that time. This represents the quality of the position of the feature point CP (the degree of coincidence with the position of the feature part), and thus the speed and accuracy of the position detection of the feature part can be further improved.

上述した例では、特徴点CPの初期位置設定(図10のステップS250)および特徴点CPの設定位置補正(ステップS260)の両方について、検出対象画像CIに基づいた処理を行った。しかし、特徴点CPの初期位置設定と特徴点CPの設定位置補正のうち、いずれか一方のみについて、検出対象画像CIに基づいて処理を行うとしてもよい。   In the above-described example, the processing based on the detection target image CI is performed for both the initial position setting of the feature point CP (step S250 in FIG. 10) and the setting position correction of the feature point CP (step S260). However, only one of the initial position setting of the feature point CP and the setting position correction of the feature point CP may be processed based on the detection target image CI.

画像処理装置は、特徴点CPの初期位置設定処理のみを検出対象画像CIに基づいて行う場合は、図10のフローチャートにおいてステップS250が終了したとき、検出対象画像CIに設定した初期位置の特徴点CPの配置を、検出対象画像CIのサイズと上記トリミング画像のサイズとの比と、そのときのグローバルパラメーターに基づいて、注目画像OI上に再現する。そして、注目画像OIに再現した特徴点CPについて、注目画像OI上での設定位置補正処理を行う。なお、特徴点CPの初期位置設定処理後における設定位置補正処理を、注目画像OIにおいてのみ行う場合は、設定位置補正処理(平均形状画像の生成、差分画像Ieの算出、収束判定、パラメーター更新量ΔPの生成、パラメーター補正)の繰り返しに関しては、回数上の制限は設けないものとする。このように、特徴点CPの初期位置設定処理のみを検出対象画像CIに基づいて行う場合であっても、当該初期位置設定処理が高速化されることで、顔特徴位置検出処理全体にかかる時間が短縮される。   When the image processing apparatus performs only the initial position setting process of the feature point CP based on the detection target image CI, the feature point of the initial position set in the detection target image CI when step S250 is completed in the flowchart of FIG. The arrangement of the CP is reproduced on the target image OI based on the ratio between the size of the detection target image CI and the size of the trimmed image and the global parameter at that time. Then, for the feature point CP reproduced in the target image OI, a setting position correction process on the target image OI is performed. When the setting position correction processing after the initial position setting processing of the feature point CP is performed only on the target image OI, the setting position correction processing (generation of average shape image, calculation of difference image Ie, convergence determination, parameter update amount) Regarding the repetition of ΔP generation and parameter correction), there is no limit on the number of times. Thus, even when only the initial position setting process of the feature point CP is performed based on the detection target image CI, the time required for the entire face feature position detection process can be increased by speeding up the initial position setting process. Is shortened.

画像処理装置は、特徴点CPの設定位置補正のみを検出対象画像CIに基づいて行う場合は、図10のフローチャートにおいてステップS220(顔領域FA検出)の後、注目画像OIにおいて特徴点CPの初期位置設定処理を行う。そして、顔領域FAおよび注目画像OIに設定した特徴点CPの初期位置を含む範囲をトリミングし、トリミング画像をアフィン変換することにより所定サイズの検出対象画像CIを生成する。そして、検出対象画像ICにおける特徴点CP(初期位置)について、その設定位置を補正する処理を行う。上述したように、検出対象画像CIはノイズ低減処理がなされているため、特徴点CPの設定位置補正処理は、高画質な検出対象画像CIに基づいて行うことができる。つまり、特に高い精度が要求される設定位置補正処理をノイズの影響を排除して行うことができるため、顔の特徴部位の座標位置を表すものとして最終的に特定される特徴点CPの設定位置は、実際の特徴部位の位置に極めて正確に対応した位置となる。   In the case where only the setting position correction of the feature point CP is performed based on the detection target image CI, the image processing apparatus performs the initial operation of the feature point CP in the target image OI after step S220 (face area FA detection) in the flowchart of FIG. Perform position setting processing. Then, a range including the initial position of the feature point CP set in the face area FA and the target image OI is trimmed, and the trimmed image is affine transformed to generate a detection target image CI of a predetermined size. Then, a process for correcting the set position of the feature point CP (initial position) in the detection target image IC is performed. As described above, since the noise reduction process is performed on the detection target image CI, the setting position correction process of the feature point CP can be performed based on the high-quality detection target image CI. That is, since the setting position correction process that requires particularly high accuracy can be performed without the influence of noise, the setting position of the feature point CP that is finally specified as representing the coordinate position of the facial feature part Is a position corresponding to the position of the actual characteristic part very accurately.

上述した特徴点CPの初期位置設定処理や設定位置補正処理では、検出対象画像CIや注目画像OIに基づき平均形状画像I(W(x;p))を算出することにより、検出対象画像CIや注目画像OIの特徴点CPの設定位置を平均顔画像A(x)の特徴点CPの設定位置に整合させている。しかし逆に、平均顔画像A(x)に対して画像変換を行うことにより、検出対象画像CIや注目画像OIの特徴点CPと平均顔画像A(x)の特徴点CPとの配置を整合させるとしてもよい。 In the initial position setting process and the setting position correction process of the feature point CP described above, the average shape image I (W (x; p)) is calculated based on the detection target image CI and the target image OI, thereby detecting the detection target image CI and The setting position of the feature point CP of the target image OI is matched with the setting position of the feature point CP of the average face image A 0 (x). However Conversely, by performing the image conversion for the average face image A 0 (x), the arrangement of the characteristic points CP of the average feature point CP of the detection target image CI and the target image OI face image A 0 (x) May be matched.

また、特徴点CP初期位置設定処理において、4つのグローバルパラメーター(大きさ、傾き、上下方向の位置、左右方向の位置)のそれぞれについての3段階の値の組み合わせに対応する仮設定位置が予め設定されているが、仮設定位置の設定に用いるパラメーターの種類および数やパラメーター値の段階数は変更可能である。
また上記では、サンプル画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析によってテクスチャーモデルが設定されているが、顔画像のテクスチャー(見え)を表す輝度値以外の指標値(例えばRGB値)に対する主成分分析によってテクスチャーモデルが設定されるものとしてもよい。
In addition, in the feature point CP initial position setting process, temporary setting positions corresponding to combinations of three levels of values for each of the four global parameters (size, inclination, vertical position, and horizontal position) are set in advance. However, the type and number of parameters used for setting the temporary setting position and the number of parameter values can be changed.
Further, in the above, the texture model is set by principal component analysis on the luminance value vector formed by the luminance values in each of the pixel groups x of the sample image SIw, but other than the luminance values representing the texture (appearance) of the face image. A texture model may be set by principal component analysis with respect to an index value (for example, RGB value).

また、平均顔画像A(x)のサイズは56画素×56画素に限られず他のサイズであってもよい。また、平均顔画像A(x)は、マスク領域MA(図8)を含む必要はなく、平均形状領域BSAのみによって構成されるとしてもよい。また、平均顔画像A(x)の代わりに、サンプル画像SIの統計的分析に基づき設定される他の基準顔画像が用いられるとしてもよい。
また上記では、AAMを用いた形状モデルおよびテクスチャーモデルの設定が行われているが、他のモデル化手法(例えばMorphable Modelと呼ばれる手法やActive Blobと呼ばれる手法)を用いて形状モデルおよびテクスチャーモデルの設定が行われるとしてもよい。
The size of the average face image A 0 (x) is not limited to 56 pixels × 56 pixels, and may be other sizes. Further, the average face image A 0 (x) does not need to include the mask area MA (FIG. 8), and may include only the average shape area BSA. Further, instead of the average face image A 0 (x), another reference face image set based on the statistical analysis of the sample image SI may be used.
In the above, the shape model and the texture model are set using AAM. However, the shape model and the texture model can be set using another modeling method (for example, a method called Morphable Model or a method called Active Blob). Setting may be performed.

また上記では、メモリーカードMCに格納された画像が注目画像OIに設定されているが、注目画像OIは例えばネットワークを介して取得された画像であってもよい。また、検出モード情報についても、ネットワークを介して取得されてもよい。
また上記では、画像処理装置としてのプリンター100による画像処理を説明したが、処理の一部または全部がコンピューター300やデジタルスチルカメラ、デジタルビデオカメラ等の他の種類の画像処理装置により実行されるものとしてもよい。また、プリンター100はインクジェットプリンターに限らず、他の方式のプリンター、例えばレーザプリンターや昇華型プリンターであるとしてもよい。
In the above description, the image stored in the memory card MC is set as the attention image OI. However, the attention image OI may be an image acquired via a network, for example. Also, the detection mode information may be acquired via a network.
In the above description, image processing by the printer 100 as the image processing apparatus has been described. However, part or all of the processing is executed by another type of image processing apparatus such as the computer 300, a digital still camera, or a digital video camera. It is good. The printer 100 is not limited to an ink jet printer, and may be another type of printer such as a laser printer or a sublimation printer.

100…プリンター、110…CPU、120…内部メモリー、140…操作部、150…表示部、160…印刷機構、170…カードインターフェース、172…カードスロット、200…画像処理部、220…特徴位置検出部、221…設定部、222…生成部、224…算出部、226…補正部、230…顔領域検出部、250…トリミング部、260…変換部、300…コンピューター、310…表示処理部、320…印刷処理部 DESCRIPTION OF SYMBOLS 100 ... Printer, 110 ... CPU, 120 ... Internal memory, 140 ... Operation part, 150 ... Display part, 160 ... Printing mechanism, 170 ... Card interface, 172 ... Card slot, 200 ... Image processing part, 220 ... Feature position detection part 221 ... setting unit, 222 ... generating unit, 224 ... calculating unit, 226 ... correcting unit, 230 ... face area detecting unit, 250 ... trimming unit, 260 ... converting unit, 300 ... computer, 310 ... display processing unit, 320 ... Print processing section

Claims (8)

画像に含まれる顔の特徴部位の座標位置を検出する画像処理装置であって、
注目画像から顔の少なくとも一部を含む画像領域を顔領域として検出する顔領域検出部と、
上記顔領域を含む所定範囲の画像を上記注目画像からトリミングするトリミング部と、
上記トリミングされた画像のサイズを所定サイズに変換する変換部と、
上記サイズが変換された画像に基づいて上記特徴部位の座標位置を検出する特徴位置検出部とを備えることを特徴とする画像処理装置。
An image processing apparatus for detecting a coordinate position of a feature part of a face included in an image,
A face area detection unit that detects an image area including at least a part of a face from a target image as a face area;
A trimming unit that trims an image of a predetermined range including the face area from the attention image;
A conversion unit that converts the size of the trimmed image into a predetermined size;
An image processing apparatus comprising: a feature position detection unit that detects a coordinate position of the feature part based on the image whose size has been converted.
上記変換部は、上記トリミングされた画像に対するノイズ低減のための処理とともに上記サイズの変換を実行することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the conversion unit performs the conversion of the size together with a process for reducing noise on the trimmed image. 上記変換部は、上記トリミングされた画像のサイズに応じて異なるノイズ低減用のフィルターを用いてノイズ低減のための処理を実行することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the conversion unit executes a process for noise reduction using a noise reduction filter that varies depending on a size of the trimmed image. 上記トリミング部は、顔領域に対する顔画像の大きさ、角度、位置を表す予め規定された各パラメーターに応じて顔領域を基準にして特定される範囲の全て含む範囲をトリミングすることを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。   The trimming unit trims a range including all of a range specified on the basis of the face area according to each parameter defined in advance representing the size, angle, and position of the face image with respect to the face area. The image processing apparatus according to claim 1. 上記特徴位置検出部は、
上記サイズが変換された画像に対して上記特徴部位の座標位置を検出するための特徴点を設定し、
上記サイズが変換された画像の一部を特徴点の配置が所定の配置となるように変換した画像である平均形状画像を生成し、
上記平均形状画像と、複数のサンプル画像を平均化することにより生成された画像である平均顔画像と、の差分値を算出し、
上記算出した差分値に基づいて、上記サイズが変換された画像における特徴点の設定位置を更新することにより、当該設定位置を上記特徴部位の座標位置に近づけるように補正し、
上記補正された設定位置を上記特徴部位の座標位置として検出することを特徴とする請求項1〜請求項4のいずれかに記載の画像処理装置。
The feature position detector
Set a feature point for detecting the coordinate position of the feature part for the image whose size has been converted,
Generate an average shape image that is an image obtained by converting a part of the image whose size has been converted so that the arrangement of the feature points is a predetermined arrangement,
Calculating a difference value between the average shape image and an average face image that is an image generated by averaging a plurality of sample images;
Based on the calculated difference value, by updating the setting position of the feature point in the image whose size has been converted, the setting position is corrected to be closer to the coordinate position of the feature part,
The image processing apparatus according to claim 1, wherein the corrected set position is detected as a coordinate position of the characteristic part.
上記特徴位置検出部は、
上記差分値が所定のしきい値より小さい値となるまで、上記サイズが変換された画像における特徴点の設定位置の更新を繰り返し実行し、
上記差分値が上記しきい値より小さい値となった場合、上記サイズが変換された画像における特徴点の配置を上記サイズが変更された画像と上記トリミングされた画像との大きさの比に応じて注目画像において再現することにより、注目画像上に特徴点を設定し、
上記注目画像における特徴点の配置が上記所定の配置となるように当該注目画像の一部を変換した画像である平均形状画像を生成し、当該平均形状画像と上記平均顔画像との差分値に基づいて当該注目画像における特徴点の設定位置を更新することにより、当該注目画像における特徴点の設定位置を上記特徴部位の座標位置に近づけるように補正し、
上記補正された注目画像における特徴点の設定位置を上記特徴部位の座標位置として検出することを特徴とする請求項5に記載の画像処理装置。
The feature position detector
Until the difference value becomes a value smaller than a predetermined threshold, repeatedly update the setting position of the feature point in the image whose size has been converted,
When the difference value is smaller than the threshold value, the arrangement of the feature points in the image whose size has been converted depends on the ratio of the size of the image whose size has been changed and the trimmed image. By recreating the featured image in the featured image, set feature points on the featured image,
An average shape image that is an image obtained by converting a part of the target image is generated so that the arrangement of the feature points in the target image becomes the predetermined arrangement, and a difference value between the average shape image and the average face image is generated. Based on this, by updating the setting position of the feature point in the image of interest, the setting position of the feature point in the image of interest is corrected to be close to the coordinate position of the feature part,
6. The image processing apparatus according to claim 5, wherein a setting position of a feature point in the corrected attention image is detected as a coordinate position of the feature part.
上記特徴位置検出部は、上記注目画像における特徴点の設定位置を更新する処理を、予め規定された回数を上限として実行することを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the feature position detection unit executes a process of updating a setting position of a feature point in the target image with a predetermined number of times as an upper limit. 上記変換部は、上記トリミングされた画像の明るさ、コントラスト、色彩のうちの少なくとも一つ以上の要素を上記平均顔画像に近づける補正処理とともに上記サイズの変換を実行することを特徴とする請求項5〜請求項7のいずれかに記載の画像処理装置。   The conversion unit performs the conversion of the size together with a correction process for bringing at least one element of brightness, contrast, and color of the trimmed image closer to the average face image. The image processing apparatus according to claim 5.
JP2009198208A 2009-08-28 2009-08-28 Image processor Pending JP2011048747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009198208A JP2011048747A (en) 2009-08-28 2009-08-28 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009198208A JP2011048747A (en) 2009-08-28 2009-08-28 Image processor

Publications (1)

Publication Number Publication Date
JP2011048747A true JP2011048747A (en) 2011-03-10

Family

ID=43834969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009198208A Pending JP2011048747A (en) 2009-08-28 2009-08-28 Image processor

Country Status (1)

Country Link
JP (1) JP2011048747A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018536234A (en) * 2015-11-18 2018-12-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for estimating absolute size of inspection object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018536234A (en) * 2015-11-18 2018-12-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for estimating absolute size of inspection object

Similar Documents

Publication Publication Date Title
JP2010182150A (en) Image processing apparatus for detecting coordinate position of characteristic part of face
JP2010186288A (en) Image processing for changing predetermined texture characteristic amount of face image
US8355602B2 (en) Image processing apparatus, image processing method and image processing program
JP2010191592A (en) Image processing apparatus for detecting coordinate position of characteristic portion of face
JP4924264B2 (en) Image processing apparatus, image processing method, and computer program
JP2010186216A (en) Specifying position of characteristic portion of face image
JP2011060038A (en) Image processing apparatus
JP2009237619A (en) Detection of face area and organ area in image
JP2011053942A (en) Apparatus, method and program for processing image
JP2010250420A (en) Image processing apparatus for detecting coordinate position of characteristic part of face
JP2010176314A (en) Image processor for detecting coordinate position of characteristic site of face
JP2010250419A (en) Image processing device for detecting eye condition
JP2010170184A (en) Specifying position of characteristic portion of face image
JP2010244321A (en) Image processing for setting face model showing face image
JP2010282339A (en) Image processor for correcting position of pupil in eye, image processing method, image processing program and printer
JP2010244251A (en) Image processor for detecting coordinate position for characteristic site of face
JP2010271955A (en) Image processing apparatus, image processing method, image processing program, and printer
JP2000285222A (en) Eye makeup simultaion system
JP2010245721A (en) Face image processing
JP2011048747A (en) Image processor
JP2011048748A (en) Image processor
JP2011048469A (en) Image processing device, image processing method, and image processing program
JP2010282340A (en) Image processor, image processing method, image processing program and printer for determining state of eye included in image
JP2010271956A (en) Image processing apparatus, image processing method, image processing program, and printer
JP5484038B2 (en) Image processing apparatus and control method thereof