JP2009217607A - Calculation for reliability in detecting face region in image - Google Patents

Calculation for reliability in detecting face region in image Download PDF

Info

Publication number
JP2009217607A
JP2009217607A JP2008061387A JP2008061387A JP2009217607A JP 2009217607 A JP2009217607 A JP 2009217607A JP 2008061387 A JP2008061387 A JP 2008061387A JP 2008061387 A JP2008061387 A JP 2008061387A JP 2009217607 A JP2009217607 A JP 2009217607A
Authority
JP
Japan
Prior art keywords
image
area
face
organ
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008061387A
Other languages
Japanese (ja)
Inventor
Kenji Matsuzaka
健治 松坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008061387A priority Critical patent/JP2009217607A/en
Publication of JP2009217607A publication Critical patent/JP2009217607A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To more precisely calculate reliability in detecting a face area in an image. <P>SOLUTION: An image processor is provided with: a face region detection part for detecting a face region as an image region corresponding to the image of the face in an object image shown by object image data; and an organ region detection part for detecting an organ region as an image region corresponding to the image of the organ of the face in the detected face region. The image processor is provided with: a reliability calculation part for calculating face region reliability showing probability that the face region is truly an image region corresponding to the image of the face based on the detection result of the face region and the detection result of the organ region for the detected face region. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像中の顔領域検出における信頼度の算出に関する。   The present invention relates to calculation of reliability in detecting a face area in an image.

画像データの表す画像中から部分画像を順次切り出し、切り出した部分画像が顔に対応する画像であるか否かを判定することにより、画像中から顔の画像に対応する顔領域を検出する技術が知られている(例えば特許文献1ないし3)。   A technique for detecting a face area corresponding to a face image from an image by sequentially cutting out partial images from an image represented by image data and determining whether or not the cut out partial image is an image corresponding to a face. Known (for example, Patent Documents 1 to 3).

特開2000−149018JP2000-149018 特開2007−108990JP2007-108990 特開2000−137788JP2000-137788

顔領域の検出の際には、顔の画像に対応しない画像領域を誤って顔領域として検出する誤検出が発生する場合がある。上記特許文献1には、対象画像から顔領域の候補が複数抽出され、各候補について他の候補との重複度合いが演算され、他の候補との重複度合いが大きい候補が顔領域として検出されることが開示されている。しかし、顔領域検出の信頼度、すなわち検出された顔領域が誤検出ではなく真に顔の画像に対応する画像領域であることの確からしさを表す指標を、より精度良く算出する余地があった。   When a face area is detected, there is a case where an erroneous detection that erroneously detects an image area that does not correspond to a face image as a face area may occur. In Patent Document 1, a plurality of face area candidates are extracted from the target image, the degree of overlap with other candidates is calculated for each candidate, and a candidate with a large degree of overlap with other candidates is detected as a face area. It is disclosed. However, there is room for more accurately calculating an index that represents the reliability of face area detection, that is, the probability that the detected face area is not a false detection but an image area that truly corresponds to the face image. .

本発明は、上記の課題を解決するためになされたものであり、画像中の顔領域検出における信頼度をより精度良く算出することを可能とする技術を提供することを目的とする。   The present invention has been made to solve the above-described problem, and an object of the present invention is to provide a technique capable of calculating the reliability in detecting a face area in an image with higher accuracy.

上記課題の少なくとも一部を解決するために、本発明は、以下の形態または適用例として実現することが可能である。   In order to solve at least a part of the above problems, the present invention can be realized as the following forms or application examples.

[適用例1]画像処理装置であって、
対象画像データの表す対象画像における顔の画像に対応する画像領域である顔領域の検出を行う顔領域検出部と、
検出された前記顔領域における顔の器官の画像に対応する画像領域である器官領域の検出を行う器官領域検出部と、
検出された前記顔領域について、前記顔領域の検出結果と前記器官領域の検出結果とに基づき、前記顔領域が真に顔の画像に対応する画像領域であることの確からしさを表す顔領域信頼度を算出する信頼度算出部と、を備える、画像処理装置。
Application Example 1 An image processing apparatus,
A face area detection unit that detects a face area that is an image area corresponding to a face image in the target image represented by the target image data;
An organ region detector that detects an organ region that is an image region corresponding to an image of a facial organ in the detected face region;
For the detected face area, based on the detection result of the face area and the detection result of the organ area, the face area reliability that represents the probability that the face area is an image area that truly corresponds to a face image An image processing apparatus comprising: a reliability calculation unit that calculates the degree.

この画像処理装置では、顔領域の検出結果だけではなく器官領域の検出結果にも基づき顔領域信頼度が算出されるため、画像中の顔領域検出における信頼度をより精度良く算出することができる。   In this image processing apparatus, since the face area reliability is calculated based not only on the detection result of the face area but also on the detection result of the organ area, the reliability in detecting the face area in the image can be calculated with higher accuracy. .

[適用例2]適用例1に記載の画像処理装置であって、
前記信頼度算出部は、
前記顔領域の検出結果に基づき、検出された前記顔領域が真に顔の画像に対応する画像領域であることの確からしさを表す顔領域原信頼度を算出する顔領域原信頼度算出部と、
前記器官領域の検出結果に基づき、検出された前記器官領域が真に器官の画像に対応する画像領域であることの確からしさを表す器官領域原信頼度を算出する器官領域原信頼度算出部と、を有すると共に、
算出された前記顔領域原信頼度と、前記器官領域の検出における検出成否と、前記器官領域の検出が成功した場合における算出された前記器官領域原信頼度と、に基づき、前記顔領域信頼度を算出する、画像処理装置。
[Application Example 2] The image processing apparatus according to Application Example 1,
The reliability calculation unit includes:
A face area original reliability calculation unit for calculating a face area original reliability indicating the certainty that the detected face area is an image area that truly corresponds to a face image based on the detection result of the face area; ,
An organ area original reliability calculation unit that calculates an organ area original reliability that represents the probability that the detected organ area is an image area that truly corresponds to an image of the organ based on the detection result of the organ area; And having
Based on the calculated face area original reliability, detection success / failure in detection of the organ area, and calculated organ area original reliability when the detection of the organ area is successful, the face area reliability An image processing apparatus for calculating

この画像処理装置では、顔領域の検出結果に基づき算出された顔領域原信頼度と、器官領域の検出における検出成否と、器官領域の検出が成功した場合における器官領域の検出結果に基づき算出された器官領域原信頼度と、に基づき顔領域信頼度が算出されるため、顔領域原信頼度のみを用いる場合と比較して、画像中の顔領域検出における信頼度をより精度良く算出することができる。   In this image processing apparatus, the calculation is based on the face area original reliability calculated based on the detection result of the face area, the success or failure of detection in the detection of the organ area, and the detection result of the organ area when the detection of the organ area is successful. Since the facial region reliability is calculated based on the original organ region reliability, the reliability in detecting the facial region in the image can be calculated more accurately than when only the original facial region reliability is used. Can do.

[適用例3]適用例2に記載の画像処理装置であって、
前記信頼度算出部は、前記器官領域の検出が成功しなかった場合の前記顔領域信頼度が前記器官領域の検出が成功した場合の前記顔領域信頼度より小さくなるように、前記顔領域信頼度を算出する、画像処理装置。
[Application Example 3] The image processing apparatus according to Application Example 2,
The reliability calculation unit is configured so that the face area reliability when the detection of the organ area is not successful is smaller than the face area reliability when the detection of the organ area is successful. An image processing apparatus that calculates the degree.

この画像処理装置では、顔領域が真に顔の画像に対応する画像領域であれば通常は検出されると考えられる器官領域に関し、器官領域の検出が成功しなかった場合の顔領域信頼度が器官領域の検出が成功した場合の顔領域信頼度より小さくなるように顔領域信頼度が算出されるため、画像中の顔領域検出における信頼度をより精度良く算出することができる。   In this image processing apparatus, regarding an organ region that is normally detected if the face region is an image region that truly corresponds to a face image, the reliability of the face region when the detection of the organ region is not successful is achieved. Since the face area reliability is calculated to be smaller than the face area reliability when the organ area is successfully detected, the reliability in detecting the face area in the image can be calculated with higher accuracy.

[適用例4]適用例2または適用例3に記載の画像処理装置であって、
前記信頼度算出部は、前記器官領域原信頼度が小さいほど前記顔領域信頼度が小さくなるように、前記顔領域信頼度を算出する、画像処理装置。
Application Example 4 The image processing apparatus according to Application Example 2 or Application Example 3,
The reliability calculation unit is an image processing device that calculates the face area reliability so that the face area reliability decreases as the organ area original reliability decreases.

この画像処理装置では、顔領域が真に顔の画像に対応する画像領域であれば通常は大きい値になると考えられる器官領域原信頼度に関し、器官領域原信頼度が小さいほど顔領域信頼度が小さくなるように顔領域信頼度が算出されるため、画像中の顔領域検出における信頼度をより精度良く算出することができる。   In this image processing apparatus, regarding the organ area original reliability, which is considered to be usually a large value if the face area is an image area that truly corresponds to the face image, the smaller the organ area original reliability, the more the face area reliability. Since the face area reliability is calculated so as to be small, the reliability in detecting the face area in the image can be calculated with higher accuracy.

[適用例5]適用例2ないし適用例4のいずれかに記載の画像処理装置であって、
前記顔領域検出部は、
前記対象画像における互いに異なる複数の画像領域を順に判定対象画像領域に設定する判定対象設定部と、
前記判定対象画像領域について、顔の画像に対応する画像領域であることの確からしさを表す少なくとも1つの評価値を算出する評価値算出部と、
前記評価値に基づき、前記判定対象画像領域が顔の画像に対応するか否かを判定する判定部と、
顔の画像に対応すると判定された1つまたは複数の互いに一部が重複する前記判定対象画像領域の位置および大きさに基づき、前記顔領域を設定する顔領域設定部と、を有し、
前記顔領域原信頼度算出部は、前記顔領域の設定の際に参照された前記判定対象画像領域の数と前記評価値との少なくとも1つに基づき、前記顔領域原信頼度を算出する、画像処理装置。
Application Example 5 The image processing apparatus according to any one of Application Example 2 to Application Example 4,
The face area detection unit
A determination target setting unit that sequentially sets a plurality of different image areas in the target image as a determination target image area;
An evaluation value calculation unit that calculates at least one evaluation value representing the certainty that the determination target image region is an image region corresponding to a face image;
A determination unit that determines whether the determination target image region corresponds to a face image based on the evaluation value;
A face area setting unit that sets the face area based on the position and size of the determination target image area that partially overlaps one or more determined to correspond to a face image;
The face area original reliability calculation unit calculates the face area original reliability based on at least one of the number of the determination target image areas and the evaluation value referred to when the face area is set. Image processing device.

この画像処理装置では、顔領域原信頼度を、検出された顔領域が真に顔の画像に対応する画像領域であることの確からしさを表す指標値として算出することができる。   In this image processing apparatus, the face area original reliability can be calculated as an index value representing the probability that the detected face area is an image area that truly corresponds to the face image.

[適用例6]適用例2ないし適用例5のいずれかに記載の画像処理装置であって、
前記器官領域検出部は、
前記顔領域における互いに異なる複数の画像領域を順に判定対象画像領域に設定する判定対象設定部と、
前記判定対象画像領域について、顔の器官の画像に対応する画像領域であることの確からしさを表す少なくとも1つの評価値を算出する評価値算出部と、
前記評価値に基づき、前記判定対象画像領域が器官の画像に対応するか否かを判定する判定部と、
器官の画像に対応すると判定された1つまたは複数の互いに一部が重複する前記判定対象画像領域の位置および大きさに基づき、前記器官領域を設定する器官領域設定部と、を有し、
前記器官領域原信頼度算出部は、前記器官領域の設定の際に参照された前記判定対象画像領域の数と前記評価値との少なくとも1つに基づき、前記器官領域原信頼度を算出する、画像処理装置。
Application Example 6 The image processing apparatus according to any one of Application Example 2 to Application Example 5,
The organ region detection unit is
A determination target setting unit that sequentially sets a plurality of different image areas in the face area as a determination target image area;
An evaluation value calculation unit that calculates at least one evaluation value representing the probability of being an image region corresponding to an image of a facial organ for the determination target image region;
A determination unit that determines whether the determination target image region corresponds to an image of an organ based on the evaluation value;
An organ region setting unit that sets the organ region based on the position and size of the determination target image region that partially overlaps one or more determined to correspond to the image of the organ;
The organ region original reliability calculation unit calculates the organ region original reliability based on at least one of the number of the determination target image regions and the evaluation value referred to when the organ region is set. Image processing device.

この画像処理装置では、器官領域原信頼度を、検出された器官領域が真に顔の器官の画像に対応する画像領域であることの確からしさを表す指標値として算出することができる。   In this image processing apparatus, the organ region original reliability can be calculated as an index value representing the probability that the detected organ region is an image region that truly corresponds to an image of a facial organ.

[適用例7]適用例1ないし適用例6のいずれかに記載の画像処理装置であって、さらに、
前記対象画像データに、検出された前記顔領域の位置を示す顔位置情報と、前記顔領域信頼度と、を付加する情報付加部を備える、画像処理装置。
Application Example 7 The image processing apparatus according to any one of Application Examples 1 to 6, further comprising:
An image processing apparatus, comprising: an information adding unit that adds face position information indicating the position of the detected face area and the face area reliability to the target image data.

この画像処理装置では、対象画像データに付加された情報により、顔領域の位置と、より精度良く算出された顔領域検出における信頼度と、が特定されるため、対象画像データの表す画像における顔領域に基づき設定された画像領域に対する補正処理の結果をより自然なものとすることができる。   In this image processing apparatus, since the position of the face area and the reliability in the face area detection calculated with higher accuracy are specified by the information added to the target image data, the face in the image represented by the target image data The result of the correction process for the image area set based on the area can be made more natural.

[適用例8]適用例7に記載の画像処理装置であって、
前記情報付加部は、前記対象画像データに、さらに、検出された前記器官領域の位置を示す器官位置情報と、前記顔領域原信頼度と、前記器官領域原信頼度と、の少なくとも1つを付加する、画像処理装置。
[Application Example 8] The image processing apparatus according to Application Example 7,
The information adding unit further includes at least one of organ position information indicating the position of the detected organ region, the face region original reliability, and the organ region original reliability in the target image data. An image processing apparatus to be added.

[適用例9]適用例1ないし適用例7のいずれかに記載の画像処理装置であって、
前記顔の器官は、右目と左目と口との少なくとも1つである、画像処理装置。
Application Example 9 The image processing apparatus according to any one of Application Example 1 to Application Example 7,
The image processing apparatus, wherein the facial organ is at least one of a right eye, a left eye, and a mouth.

この画像処理装置では、顔領域の検出結果だけではなく、右目と左目と口との少なくとも1つである顔の器官に対応する画像領域としての器官領域の検出結果にも基づき顔領域信頼度が算出されるため、画像中の顔領域検出における信頼度をより精度良く算出することができる。   In this image processing apparatus, the face area reliability is based not only on the detection result of the face area but also on the detection result of the organ area as an image area corresponding to the facial organ that is at least one of the right eye, the left eye, and the mouth. Since it is calculated, the reliability in detecting the face area in the image can be calculated with higher accuracy.

なお、本発明は、種々の態様で実現することが可能であり、例えば、画像処理方法および装置、顔領域検出方法および装置、信頼度算出方法および装置、これらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。   Note that the present invention can be realized in various modes, for example, an image processing method and apparatus, a face area detection method and apparatus, a reliability calculation method and apparatus, and the functions of these methods or apparatuses. For example, a recording medium on which the computer program is recorded, a data signal that includes the computer program and is embodied in a carrier wave, and the like.

次に、本発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
A−1.画像処理装置の構成:
A−2.顔領域・器官領域検出処理:
A−3.信頼度算出の他の方法:
B.第2実施例:
C.変形例:
Next, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
A-1. Configuration of image processing device:
A-2. Face area / organ area detection processing:
A-3. Other methods of calculating reliability:
B. Second embodiment:
C. Variations:

A.第1実施例:
A−1.画像処理装置の構成:
図1は、本発明の第1実施例における画像処理装置としてのプリンタ100の構成を概略的に示す説明図である。本実施例のプリンタ100は、メモリカードMC等から取得した画像データに基づき画像を印刷する、いわゆるダイレクトプリントに対応したインクジェット式カラープリンタである。プリンタ100は、プリンタ100の各部を制御するCPU110と、ROMやRAMによって構成された内部メモリ120と、ボタンやタッチパネルにより構成された操作部140と、液晶ディスプレイにより構成された表示部150と、プリンタエンジン160と、カードインターフェース(カードI/F)170と、を備えている。プリンタ100は、さらに、他の機器(例えばデジタルスチルカメラやパーソナルコンピュータ)とのデータ通信を行うためのインターフェースを備えているとしてもよい。プリンタ100の各構成要素は、バスを介して互いに接続されている。
A. First embodiment:
A-1. Configuration of image processing device:
FIG. 1 is an explanatory diagram schematically showing the configuration of a printer 100 as an image processing apparatus according to the first embodiment of the present invention. The printer 100 of this embodiment is an ink jet color printer that supports so-called direct printing, in which an image is printed based on image data acquired from a memory card MC or the like. The printer 100 includes a CPU 110 that controls each unit of the printer 100, an internal memory 120 configured by a ROM and a RAM, an operation unit 140 configured by buttons and a touch panel, a display unit 150 configured by a liquid crystal display, and a printer. An engine 160 and a card interface (card I / F) 170 are provided. The printer 100 may further include an interface for performing data communication with other devices (for example, a digital still camera or a personal computer). Each component of the printer 100 is connected to each other via a bus.

プリンタエンジン160は、印刷データに基づき印刷を行う印刷機構である。カードインターフェース170は、カードスロット172に挿入されたメモリカードMCとの間でデータのやり取りを行うためのインターフェースである。なお、本実施例では、メモリカードMCに画像データを含む画像ファイルが格納されている。   The printer engine 160 is a printing mechanism that performs printing based on print data. The card interface 170 is an interface for exchanging data with the memory card MC inserted into the card slot 172. In this embodiment, an image file including image data is stored in the memory card MC.

内部メモリ120には、画像処理部200と、表示処理部310と、印刷処理部320と、が格納されている。画像処理部200は、所定のオペレーティングシステムの下で、後述する顔領域・器官領域検出処理等の処理を実行するためのコンピュータプログラムである。表示処理部310は、表示部150を制御して、表示部150上に処理メニューやメッセージ、画像等を表示させるディスプレイドライバである。印刷処理部320は、画像データから印刷データを生成し、プリンタエンジン160を制御して、印刷データに基づく画像の印刷を実行するためのコンピュータプログラムである。CPU110は、内部メモリ120から、これらのプログラムを読み出して実行することにより、これら各部の機能を実現する。   The internal memory 120 stores an image processing unit 200, a display processing unit 310, and a print processing unit 320. The image processing unit 200 is a computer program for executing processing such as face region / organ region detection processing, which will be described later, under a predetermined operating system. The display processing unit 310 is a display driver that controls the display unit 150 to display processing menus, messages, images, and the like on the display unit 150. The print processing unit 320 is a computer program for generating print data from image data, controlling the printer engine 160, and printing an image based on the print data. The CPU 110 implements the functions of these units by reading and executing these programs from the internal memory 120.

画像処理部200は、プログラムモジュールとして、領域検出部210と、信頼度算出部220と、情報付加部230と、を含んでいる。領域検出部210は、対象画像データの表す対象画像における所定の画像(例えば顔の画像や顔の器官の画像)に対応する画像領域の検出を行う。領域検出部210は、判定対象設定部212と、評価値算出部214と、判定部216と、領域設定部218と、を含んでいる。これら各部の機能については、後述の顔領域・器官領域検出処理の説明において詳述する。なお、後述するように、領域検出部210は、顔の画像に対応する顔領域の検出および顔の器官の画像に対応する器官領域の検出を行うため、本発明における顔領域検出部および器官領域検出部に相当する。   The image processing unit 200 includes an area detection unit 210, a reliability calculation unit 220, and an information addition unit 230 as program modules. The area detection unit 210 detects an image area corresponding to a predetermined image (for example, a face image or a face organ image) in the target image represented by the target image data. The region detection unit 210 includes a determination target setting unit 212, an evaluation value calculation unit 214, a determination unit 216, and a region setting unit 218. The functions of these parts will be described in detail in the description of the face area / organ area detection processing described later. As will be described later, the area detection unit 210 detects the face area corresponding to the face image and the organ area corresponding to the face organ image. It corresponds to a detection unit.

信頼度算出部220は、領域検出部210により所定の画像(例えば顔の画像や顔の器官の画像)に対応する画像領域として検出された画像領域が、真に当該所定の画像に対応する画像領域であることの確からしさを表す信頼度を算出する。信頼度算出部220は、原信頼度算出部222を含んでいる。原信頼度算出部222の機能については、後述の顔領域・器官領域検出処理の説明において詳述する。なお、原信頼度算出部222は、後述の顔領域原信頼度の算出および器官領域原信頼度の算出を行うため、本発明における顔領域原信頼度算出部および器官領域原信頼度算出部に相当する。   The reliability calculation unit 220 is an image in which an image region detected by the region detection unit 210 as an image region corresponding to a predetermined image (for example, a face image or a facial organ image) truly corresponds to the predetermined image. A reliability representing the certainty of being an area is calculated. The reliability calculation unit 220 includes an original reliability calculation unit 222. The function of the original reliability calculation unit 222 will be described in detail in the description of the face area / organ area detection process described later. Note that the original reliability calculation unit 222 calculates the face region original reliability and the organ region original reliability described later, so that the face region original reliability calculation unit and the organ region original reliability calculation unit according to the present invention are used. Equivalent to.

情報付加部230は、対象画像データを含む画像ファイルに後述する所定の情報(例えば顔領域および器官領域の位置を示す情報)を付加する。   The information adding unit 230 adds predetermined information (for example, information indicating the positions of the face area and the organ area) described later to the image file including the target image data.

内部メモリ120には、また、領域検出部210による領域検出に用いられる顔学習データFLDおよび顔器官学習データOLDが格納されている。顔学習データFLDおよび顔器官学習データOLDの内容については、後述の顔領域・器官領域検出処理の説明において詳述する。   The internal memory 120 also stores face learning data FLD and face organ learning data OLD used for region detection by the region detection unit 210. The contents of the face learning data FLD and the face organ learning data OLD will be described in detail in the description of the face area / organ area detection processing described later.

A−2.顔領域・器官領域検出処理:
図2は、顔領域・器官領域検出処理の流れを示すフローチャートである。顔領域・器官領域検出処理は、対象画像データの表す対象画像における顔の画像に対応する画像領域である顔領域の検出を行うと共に、検出された顔領域における顔の器官の画像に対応する画像領域である器官領域の検出を行う処理である。本実施例では、顔の器官とは、右目と左目と口との3つの器官を意味している。
A-2. Face area / organ area detection processing:
FIG. 2 is a flowchart showing the flow of face area / organ area detection processing. The face area / organ area detection process detects a face area, which is an image area corresponding to a face image in the target image represented by the target image data, and an image corresponding to the face organ image in the detected face area. This is a process for detecting an organ region which is a region. In the present embodiment, the facial organ means three organs of the right eye, the left eye, and the mouth.

ステップS110では、画像処理部200(図1)が、対象画像を表す対象画像データを取得する。本実施例のプリンタ100では、カードスロット172にメモリカードMCが挿入されると、メモリカードMCに格納された画像ファイルのサムネイル画像が表示部150に表示される。ユーザは、表示されたサムネイル画像を参照しつつ、操作部140を介して処理の対象となる1つまたは複数の画像を選択する。画像処理部200は、選択された1つまたは複数の画像に対応した画像データを対象画像データに設定し、対象画像データを含む画像ファイルをメモリカードMCより取得して内部メモリ120の所定の領域に格納する。   In step S110, the image processing unit 200 (FIG. 1) acquires target image data representing the target image. In the printer 100 of this embodiment, when the memory card MC is inserted into the card slot 172, thumbnail images of the image files stored in the memory card MC are displayed on the display unit 150. The user selects one or more images to be processed via the operation unit 140 while referring to the displayed thumbnail images. The image processing unit 200 sets image data corresponding to one or more selected images as target image data, acquires an image file including the target image data from the memory card MC, and stores a predetermined area in the internal memory 120. To store.

ステップS120(図2)では、領域検出部210(図1)が、対象画像データの表す対象画像における顔の画像に対応する画像領域である顔領域の検出を行う。図3は、顔領域検出処理の流れを示すフローチャートである。また、図4は、顔領域検出処理の概要を示す説明図である。図4の最上段には対象画像データの表す対象画像TImgの一例を示している。   In step S120 (FIG. 2), the area detection unit 210 (FIG. 1) detects a face area that is an image area corresponding to the face image in the target image represented by the target image data. FIG. 3 is a flowchart showing the flow of face area detection processing. FIG. 4 is an explanatory diagram showing an outline of the face area detection process. FIG. 4 shows an example of the target image TImg represented by the target image data.

顔領域検出処理(図3)におけるステップS310では、領域検出部210(図1)が、対象画像データから顔検出用画像FDImgを表す顔検出用画像データを生成する。本実施例では、図4に示すように、顔検出用画像FDImgは横320画素×縦240画素のサイズの画像である。領域検出部210は、必要により対象画像データの解像度変換を行うことにより、顔検出用画像FDImgを表す顔検出用画像データを生成する。   In step S310 in the face area detection process (FIG. 3), the area detection unit 210 (FIG. 1) generates face detection image data representing the face detection image FDImg from the target image data. In the present embodiment, as shown in FIG. 4, the face detection image FDImg is an image having a size of horizontal 320 pixels × vertical 240 pixels. The area detection unit 210 generates face detection image data representing the face detection image FDImg by performing resolution conversion of the target image data as necessary.

ステップS320(図3)では、判定対象設定部212(図1)が、判定対象画像(後述)の設定に用いるウィンドウSWのサイズを初期値に設定する。ステップS330では、判定対象設定部212が、ウィンドウSWを顔検出用画像FDImg上の初期位置に配置する。ステップS340では、判定対象設定部212が、顔検出用画像FDImg上に配置されたウィンドウSWにより規定される画像領域を、顔の画像に対応する顔領域であるか否かの判定(以下「顔判定」とも呼ぶ)の対象となる判定対象画像領域JIAに設定する。図4の中段には、顔検出用画像FDImg上に初期値のサイズのウィンドウSWが初期位置に配置され、ウィンドウSWにより規定される画像領域が判定対象画像領域JIAに設定された様子を示している。本実施例では、後述するように、正方形形状のウィンドウSWのサイズおよび位置が変更されつつ判定対象画像領域JIAの設定が順に行われるが、ウィンドウSWのサイズの初期値は最大サイズである横240画素×縦240画素であり、ウィンドウSWの初期位置はウィンドウSWの左上の頂点が顔検出用画像FDImgの左上の頂点に重なるような位置である。   In step S320 (FIG. 3), the determination target setting unit 212 (FIG. 1) sets the size of the window SW used for setting the determination target image (described later) to an initial value. In step S330, the determination target setting unit 212 arranges the window SW at the initial position on the face detection image FDImg. In step S340, the determination target setting unit 212 determines whether the image area defined by the window SW arranged on the face detection image FDImg is a face area corresponding to the face image (hereinafter referred to as “face”). It is also set in a determination target image area JIA that is a target of determination. The middle part of FIG. 4 shows a state in which a window SW having an initial value size is arranged at an initial position on the face detection image FDImg, and an image area defined by the window SW is set as the determination target image area JIA. Yes. In this embodiment, as will be described later, the determination target image area JIA is sequentially set while changing the size and position of the square-shaped window SW, but the initial value of the size of the window SW is the horizontal size 240. The initial position of the window SW is such that the upper left vertex of the window SW overlaps the upper left vertex of the face detection image FDImg.

ステップS350(図3)では、評価値算出部214(図1)が、判定対象画像領域JIAについて、顔判定に用いる累計評価値Tvを算出する。なお、本実施例では、顔判定は予め設定された特定顔傾き毎に実行される。すなわち、特定顔傾き毎に、判定対象画像領域JIAが当該特定顔傾き分だけ傾いた顔の画像に対応する画像領域であるか否かの判定が行われる。そのため、累計評価値Tvも特定顔傾き毎に算出される。ここで、特定顔傾きとは、画像面内(インプレーン)における顔の画像の回転角度を意味している。本実施例では、特定顔傾きとして、画像の上下方向に沿って顔の画像が位置している状態(頭が上方向を向き顎が下方向を向いた状態)を基準(特定顔傾き=0度)とし、顔の画像の傾きを時計回りに30度ずつ増加させた計12個の傾き(0度、30度、60度、・・・、330度)が設定されている。   In step S350 (FIG. 3), the evaluation value calculation unit 214 (FIG. 1) calculates a cumulative evaluation value Tv used for face determination for the determination target image area JIA. In the present embodiment, face determination is executed for each specific face inclination set in advance. That is, for each specific face inclination, it is determined whether or not the determination target image area JIA is an image area corresponding to a face image inclined by the specific face inclination. Therefore, the cumulative evaluation value Tv is also calculated for each specific face inclination. Here, the specific face inclination means a rotation angle of the face image in the image plane (in-plane). In this embodiment, the specific face inclination is based on the state where the face image is positioned along the vertical direction of the image (the state where the head faces upward and the jaw faces downward) (specific face inclination = 0). 12 degrees (0 degrees, 30 degrees, 60 degrees,..., 330 degrees) are set by increasing the inclination of the face image by 30 degrees clockwise.

図5は、顔判定に用いる累計評価値Tvの算出方法の概要を示す説明図である。本実施例では、累計評価値Tvの算出にN個のフィルタ(フィルタ1〜フィルタN)が用いられる。各フィルタの外形はウィンドウSWと同じアスペクト比を有しており(すなわち正方形形状であり)、各フィルタにはプラス領域paとマイナス領域maとが設定されている。評価値算出部214は、判定対象画像領域JIAにフィルタX(X=1,2,・・・,N)を順に適用して評価値vX(すなわちv1〜vN)を算出する。具体的には、評価値vXは、フィルタXのプラス領域paに対応する判定対象画像領域JIA上の領域内に位置する画素の輝度値の合計から、マイナス領域maに対応する判定対象画像領域JIA上の領域内に位置する画素の輝度値の合計を差し引いた値である。   FIG. 5 is an explanatory diagram showing an outline of a method of calculating the cumulative evaluation value Tv used for face determination. In this embodiment, N filters (filter 1 to filter N) are used to calculate the cumulative evaluation value Tv. The external shape of each filter has the same aspect ratio as that of the window SW (that is, has a square shape), and a positive region pa and a negative region ma are set for each filter. The evaluation value calculation unit 214 applies the filter X (X = 1, 2,..., N) in order to the determination target image area JIA to calculate the evaluation value vX (that is, v1 to vN). Specifically, the evaluation value vX is determined from the sum of the luminance values of pixels located in the area on the determination target image area JIA corresponding to the plus area pa of the filter X, based on the determination target image area JIA corresponding to the minus area ma. This is a value obtained by subtracting the sum of the luminance values of the pixels located in the upper region.

算出された評価値vXは、各評価値vXに対応して設定された閾値thX(すなわちth1〜thN)と比較される。本実施例では、評価値vXが閾値thX以上である場合には、フィルタXに関しては判定対象画像領域JIAが顔の画像に対応する画像領域であると判定され、フィルタXの出力値として値「1」が設定される。一方、評価値vXが閾値thXより小さい場合には、フィルタXに関しては判定対象画像領域JIAが顔の画像に対応するとは考えられない画像領域であると判定され、フィルタXの出力値として値「0」が設定される。各フィルタXには重み係数WeX(すなわちWe1〜WeN)が設定されており、すべてのフィルタについての出力値と重み係数WeXとの積の合計が、累計評価値Tvとして算出される。   The calculated evaluation value vX is compared with a threshold thX (that is, th1 to thN) set corresponding to each evaluation value vX. In this embodiment, when the evaluation value vX is equal to or greater than the threshold thX, it is determined that the determination target image area JIA is an image area corresponding to the face image for the filter X, and the value “ 1 "is set. On the other hand, when the evaluation value vX is smaller than the threshold thX, it is determined that the determination target image area JIA is an image area that is not considered to correspond to the face image with respect to the filter X, and the value “ “0” is set. Weight coefficients WeX (that is, We1 to WeN) are set for each filter X, and the sum of products of output values and weight coefficients WeX for all filters is calculated as a cumulative evaluation value Tv.

なお、顔判定に用いられるフィルタXの態様や閾値thX、重み係数WeX、後述の閾値THは、上記12個の特定顔傾きのそれぞれについて予め設定されており、顔学習データFLD(図1)として内部メモリ120に格納されている。顔学習データFLDは、サンプル画像を用いた学習によって設定される。図6は、学習に用いられるサンプル画像の一例を示す説明図である。学習には、顔の画像に対応した画像であることが予めわかっている複数の顔サンプル画像によって構成された顔サンプル画像群と、顔の画像に対応した画像ではないことが予めわかっている複数の非顔サンプル画像によって構成された非顔サンプル画像群と、が用いられる。   Note that the aspect of the filter X used for face determination, the threshold thX, the weighting coefficient WeX, and the threshold TH described below are set in advance for each of the 12 specific face inclinations, and are used as face learning data FLD (FIG. 1). Stored in the internal memory 120. The face learning data FLD is set by learning using a sample image. FIG. 6 is an explanatory diagram illustrating an example of a sample image used for learning. For learning, a face sample image group composed of a plurality of face sample images that are known in advance to be images corresponding to face images, and a plurality of information that is known in advance to be images that do not correspond to face images. A non-face sample image group composed of non-face sample images.

学習による顔学習データFLDの設定は特定顔傾き毎に実行されるため、図6に示すように、顔サンプル画像群は、12個の特定顔傾きのそれぞれに対応したものが準備される。例えば0度の特定顔傾きについての顔学習データFLDの設定は、0度の特定顔傾きに対応した顔サンプル画像群と非顔サンプル画像群とを用いて実行され、30度の特定顔傾きについての顔学習データFLDの設定は、30度の特定顔傾きに対応した顔サンプル画像群と非顔サンプル画像群とを用いて実行される。   Since the setting of the face learning data FLD by learning is executed for each specific face inclination, as shown in FIG. 6, a face sample image group corresponding to each of 12 specific face inclinations is prepared. For example, the setting of the face learning data FLD for the 0 degree specific face inclination is executed using the face sample image group and the non-face sample image group corresponding to the 0 degree specific face inclination. The face learning data FLD is set using a face sample image group and a non-face sample image group corresponding to a specific face inclination of 30 degrees.

各特定顔傾きに対応した顔サンプル画像群は、画像サイズに対する顔の画像の大きさの比が所定の値の範囲内であると共に顔の画像の傾きが特定顔傾きに等しい複数の顔サンプル画像(以下、「基本顔サンプル画像」とも呼ぶ)を含む。また、顔サンプル画像群は、少なくとも1つの基本サンプル画像について、基本サンプル画像を例えば1.2倍から0.8倍までの範囲の所定の倍率で拡大および縮小した画像(例えば図6における画像FIaおよびFIb)や、基本顔サンプル画像を時計回りおよび反時計回りに例えば15度の範囲で所定の角度だけ回転させた画像(例えば図6における画像FIcおよびFId)をも含む。   The face sample image group corresponding to each specific face inclination includes a plurality of face sample images in which the ratio of the face image size to the image size is within a predetermined value range and the face image inclination is equal to the specific face inclination. (Hereinafter also referred to as “basic face sample image”). The face sample image group is an image obtained by enlarging and reducing the basic sample image at a predetermined magnification in the range of, for example, 1.2 to 0.8 times (for example, the image FIa in FIG. 6) for at least one basic sample image. And FIb) and images (for example, images FIc and FId in FIG. 6) obtained by rotating the basic face sample image clockwise and counterclockwise by a predetermined angle within a range of, for example, 15 degrees.

サンプル画像を用いた学習は、例えばニューラルネットワークを用いた方法や、ブースティング(例えばアダブースティング)を用いた方法、サポートベクターマシーンを用いた方法等により実行される。例えば学習がニューラルネットワークを用いた方法により実行される場合には、各フィルタX(すなわちフィルタ1〜フィルタN、図5参照)について、ある特定顔傾きに対応した顔サンプル画像群と非顔サンプル画像群とに含まれるすべてのサンプル画像を用いて評価値vX(すなわちv1〜vN)が算出され、所定の顔検出率を達成する閾値thX(すなわちth1〜thN)が設定される。ここで、顔検出率とは、顔サンプル画像群を構成する顔サンプル画像の総数に対する、評価値vXによる閾値判定によって顔の画像に対応する画像であると判定される顔サンプル画像の数の割合を意味している。   Learning using a sample image is executed by, for example, a method using a neural network, a method using boosting (for example, adaboost), a method using a support vector machine, or the like. For example, when learning is performed by a method using a neural network, for each filter X (that is, filter 1 to filter N, see FIG. 5), a face sample image group and a non-face sample image corresponding to a specific face inclination. An evaluation value vX (that is, v1 to vN) is calculated using all sample images included in the group, and a threshold value thX (that is, th1 to thN) that achieves a predetermined face detection rate is set. Here, the face detection rate is the ratio of the number of face sample images determined to be an image corresponding to a face image by threshold determination based on the evaluation value vX with respect to the total number of face sample images constituting the face sample image group. Means.

次に、各フィルタXに設定された重み係数WeX(すなわちWe1〜WeN)が初期値に設定され、顔サンプル画像群および非顔サンプル画像群の中から選択された1つのサンプル画像についての累計評価値Tvが算出される。後述するように、顔判定においては、ある画像について算出された累計評価値Tvが所定の閾値TH以上の場合には、当該画像は顔の画像に対応する画像であると判定される。学習においては、選択されたサンプル画像(顔サンプル画像または非顔サンプル画像)について算出された累計評価値Tvによる閾値判定結果の正誤に基づき、各フィルタXに設定された重み係数WeXの値が修正される。以降、サンプル画像の選択と、選択されたサンプル画像について算出された累計評価値Tvによる閾値判定、および判定結果の正誤に基づく重み係数WeXの値の修正が、顔サンプル画像群および非顔サンプル画像群に含まれるすべてのサンプル画像について繰り返し実行される。以上の処理が特定顔傾き毎に実行されることにより、特定顔傾き毎の顔学習データFLDが設定される。   Next, the weight coefficient WeX (that is, We1 to WeN) set for each filter X is set to an initial value, and cumulative evaluation is performed on one sample image selected from the face sample image group and the non-face sample image group. A value Tv is calculated. As will be described later, in the face determination, when the cumulative evaluation value Tv calculated for a certain image is equal to or greater than a predetermined threshold TH, the image is determined to be an image corresponding to the face image. In learning, the value of the weighting coefficient WeX set for each filter X is corrected based on the correctness of the threshold determination result based on the cumulative evaluation value Tv calculated for the selected sample image (face sample image or non-face sample image). Is done. Thereafter, the selection of the sample image, the threshold value determination based on the cumulative evaluation value Tv calculated for the selected sample image, and the correction of the value of the weighting coefficient WeX based on the correctness of the determination result are the face sample image group and the non-face sample image. It is repeatedly executed for all the sample images included in the group. By executing the above processing for each specific face inclination, face learning data FLD for each specific face inclination is set.

判定対象画像領域JIAについて特定顔傾き毎に累計評価値Tvが算出されると(図3のステップS350)、判定部216(図1)は、累計評価値Tvを特定顔傾き毎に設定された閾値THと比較する(ステップS360)。ある特定顔傾きについて累計評価値Tvが閾値TH以上である場合には、領域検出部210が、判定対象画像領域JIAは当該特定顔傾き分だけ傾いた顔の画像に対応する画像領域であるとして、判定対象画像領域JIAの位置、すなわち現在設定されているウィンドウSWの座標と、当該特定顔傾きと、を記憶する(ステップS370)。一方、いずれの特定顔傾きについても累計評価値Tvが閾値THより小さい場合には、ステップS370の処理はスキップされる。   When the cumulative evaluation value Tv is calculated for each specific face inclination for the determination target image area JIA (step S350 in FIG. 3), the determination unit 216 (FIG. 1) sets the cumulative evaluation value Tv for each specific face inclination. The threshold value TH is compared (step S360). When the cumulative evaluation value Tv is greater than or equal to the threshold value TH for a specific face inclination, the area detection unit 210 determines that the determination target image area JIA is an image area corresponding to a face image inclined by the specific face inclination. The position of the determination target image area JIA, that is, the coordinates of the currently set window SW and the specific face inclination are stored (step S370). On the other hand, if the cumulative evaluation value Tv is smaller than the threshold value TH for any specific face inclination, the process of step S370 is skipped.

ステップS380(図3)では、領域検出部210(図1)が、現在設定されているサイズのウィンドウSWにより顔検出用画像FDImg全体がスキャンされたか否かを判定する。未だ顔検出用画像FDImg全体がスキャンされていないと判定された場合には、判定対象設定部212(図1)が、ウィンドウSWを所定の方向に所定の移動量だけ移動する(ステップS390)。図4の下段には、ウィンドウSWが移動した様子を示している。本実施例では、ステップS390において、ウィンドウSWがウィンドウSWの水平方向の大きさの2割分の移動量で右方向に移動するものとしている。また、ウィンドウSWがさらに右方向には移動できない位置に配置されている場合には、ステップS390において、ウィンドウSWが顔検出用画像FDImgの左端まで戻ると共に、ウィンドウSWの垂直方向の大きさの2割分の移動量で下方向に移動するものとしている。ウィンドウSWがさらに下方向には移動できない位置に配置されている場合には、顔検出用画像FDImg全体がスキャンされたこととなる。ウィンドウSWの移動(ステップS390)の後には、移動後のウィンドウSWについて、上述のステップS340以降の処理が実行される。   In step S380 (FIG. 3), the area detection unit 210 (FIG. 1) determines whether or not the entire face detection image FDImg has been scanned by the window SW having the currently set size. If it is determined that the entire face detection image FDImg has not been scanned yet, the determination target setting unit 212 (FIG. 1) moves the window SW in a predetermined direction by a predetermined movement amount (step S390). The lower part of FIG. 4 shows how the window SW has moved. In this embodiment, in step S390, the window SW is moved to the right by a movement amount corresponding to 20% of the horizontal size of the window SW. If the window SW is arranged at a position where it cannot move further to the right, the window SW returns to the left end of the face detection image FDImg in step S390, and the window SW has a size of 2 in the vertical direction. It is assumed that it moves downwards by the amount of movement of the percentage. When the window SW is arranged at a position where it cannot move further downward, the entire face detection image FDImg is scanned. After the movement of the window SW (step S390), the processes after the above-described step S340 are executed for the moved window SW.

ステップS380(図3)において現在設定されているサイズのウィンドウSWにより顔検出用画像FDImg全体がスキャンされたと判定された場合には、ウィンドウSWの所定のサイズがすべて使用されたか否かが判定される(ステップS400)。本実施例では、ウィンドウSWのサイズとして、初期値(最大サイズ)である横240画素×縦240画素の他に、横213画素×縦213画素、横178画素×縦178画素、横149画素×縦149画素、横124画素×縦124画素、横103画素×縦103画素、横86画素×縦86画素、横72画素×縦72画素、横60画素×縦60画素、横50画素×縦50画素、横41画素×縦41画素、横35画素×縦35画素、横29画素×縦29画素、横24画素×縦24画素、横20画素×縦20画素(最小サイズ)、の合計15個のサイズが設定されている。未だ使用されていないウィンドウSWのサイズがあると判定された場合には、判定対象設定部212(図1)が、ウィンドウSWのサイズを現在設定されているサイズの次に小さいサイズに変更する(ステップS410)。すなわち、ウィンドウSWのサイズは、最初に最大サイズに設定され、その後、順に小さいサイズに変更されていく。ウィンドウSWのサイズの変更(ステップS410)の後には、変更後のサイズのウィンドウSWについて、上述のステップS330以降の処理が実行される。   If it is determined in step S380 (FIG. 3) that the entire face detection image FDImg has been scanned by the window SW having the currently set size, it is determined whether or not all the predetermined sizes of the window SW have been used. (Step S400). In this embodiment, as the size of the window SW, in addition to the initial value (maximum size) of 240 horizontal pixels × vertical 240 pixels, horizontal 213 pixels × vertical 213 pixels, horizontal 178 pixels × vertical 178 pixels, horizontal 149 pixels × 149 pixels vertically, 124 pixels horizontally × 124 pixels vertically, 103 pixels horizontally × 103 pixels vertically, 86 pixels wide × 86 pixels high, 72 pixels wide × 72 pixels high, 60 pixels wide × 60 pixels high, 50 pixels wide × 50 vertical Total of 15 pixels: 41 pixels wide x 41 pixels wide, 35 pixels wide x 35 pixels wide, 29 pixels wide x 29 pixels wide, 24 pixels wide x 24 pixels high, 20 pixels wide x 20 pixels high (minimum size) The size of is set. If it is determined that there is a size of the window SW that is not yet used, the determination target setting unit 212 (FIG. 1) changes the size of the window SW to the next smaller size than the currently set size (see FIG. 1). Step S410). That is, the size of the window SW is first set to the maximum size, and then changed to a smaller size in order. After the change of the size of the window SW (step S410), the processing after step S330 described above is executed for the window SW having the changed size.

ステップS400(図3)においてウィンドウSWの所定のサイズがすべて使用されたと判定された場合には、領域設定部218(図1)が、顔領域設定処理を実行する(ステップS420)。図7および図8は、顔領域設定処理の概要を示す説明図である。領域設定部218は、図3のステップS360において累計評価値Tvが閾値TH以上であると判定されステップS370において記憶されたウィンドウSWの座標と特定顔傾きとに基づき、顔の画像に対応する画像領域としての顔領域FAを設定する。具体的には、特定顔傾きが0度である場合には、ウィンドウSWにより規定される画像領域(すなわち判定対象画像領域JIA(図4参照))が、そのまま顔領域FAとして設定される。一方、特定顔傾きが0度以外である場合には、ウィンドウSWにより規定される画像領域(判定対象画像領域JIA)を所定の点(例えばウィンドウSWの重心)を中心として時計回りに特定顔傾き分だけ回転させた画像領域が顔領域FAとして設定される。例えば図7(a)に示すように、30度の特定顔傾きについて累計評価値Tvが閾値TH以上であると判定された場合には、図7(b)に示すように、ウィンドウSWにより規定される画像領域をウィンドウSWの重心を中心として時計回りに30度回転させた画像領域が顔領域FAとして設定される。   If it is determined in step S400 (FIG. 3) that all of the predetermined size of the window SW has been used, the area setting unit 218 (FIG. 1) executes a face area setting process (step S420). 7 and 8 are explanatory diagrams showing an outline of the face area setting process. The area setting unit 218 determines that the cumulative evaluation value Tv is equal to or greater than the threshold value TH in step S360 of FIG. 3, and based on the coordinates of the window SW and the specific face inclination stored in step S370, an image corresponding to the face image. A face area FA as an area is set. Specifically, when the specific face inclination is 0 degree, the image area defined by the window SW (that is, the determination target image area JIA (see FIG. 4)) is set as the face area FA as it is. On the other hand, when the specific face inclination is other than 0 degrees, the specific face inclination is clockwise around a predetermined point (for example, the center of gravity of the window SW) about the image area defined by the window SW (determination target image area JIA). The image area rotated by the amount is set as the face area FA. For example, as shown in FIG. 7A, when it is determined that the cumulative evaluation value Tv is greater than or equal to the threshold value TH for a specific face inclination of 30 degrees, it is defined by the window SW as shown in FIG. An image area obtained by rotating the image area to be rotated 30 degrees clockwise around the center of gravity of the window SW is set as the face area FA.

また、領域設定部218は、ステップS370において、ある特定顔傾きについて互いに一部が重複する複数のウィンドウSWが記憶された場合には、各ウィンドウSWにおける所定の点(例えばウィンドウSWの重心)の座標の平均の座標を重心とし、各ウィンドウSWのサイズの平均のサイズを有する1つの新たなウィンドウ(以下、「平均ウィンドウAW」とも呼ぶ)を設定する。例えば図8(a)に示すように、互いに一部が重複する4つのウィンドウSW(SW1〜SW4)が記憶された場合には、図8(b)に示すように、4つのウィンドウSWのそれぞれの重心の座標の平均の座標を重心とし、4つのウィンドウSWのそれぞれのサイズの平均のサイズを有する1つの平均ウィンドウAWが定義される。このとき、上述したのと同様に、特定顔傾きが0度である場合には、平均ウィンドウAWにより規定される画像領域がそのまま顔領域FAとして設定される。一方、特定顔傾きが0度以外である場合には、平均ウィンドウAWにより規定される画像領域を所定の点(例えば平均ウィンドウAWの重心)を中心として時計回りに特定顔傾き分だけ回転させた画像領域が顔領域FAとして設定される(図8(c)参照)。   In step S370, when a plurality of windows SW that partially overlap each other with respect to a specific face inclination are stored, the region setting unit 218 determines a predetermined point (for example, the center of gravity of the window SW) of each window SW. One new window (hereinafter also referred to as “average window AW”) having an average size of the coordinates of each window SW is set with the average coordinate of the coordinates as the center of gravity. For example, as shown in FIG. 8A, when four windows SW (SW1 to SW4) that partially overlap each other are stored, as shown in FIG. 8B, each of the four windows SW is stored. One average window AW having an average size of the sizes of the four windows SW is defined with the average coordinate of the coordinates of the center of gravity of the four windows SW as the center of gravity. At this time, as described above, when the specific face inclination is 0 degree, the image area defined by the average window AW is set as the face area FA as it is. On the other hand, when the specific face inclination is other than 0 degrees, the image area defined by the average window AW is rotated clockwise by a specific face inclination around a predetermined point (for example, the center of the average window AW). The image area is set as the face area FA (see FIG. 8C).

なお、図7に示したように、他のウィンドウSWと重複しない1つのウィンドウSWが記憶された場合にも、図8に示した互いに一部が重複する複数のウィンドウSWが記憶された場合と同様に、1つのウィンドウSW自身が平均ウィンドウAWであると解釈することも可能である。   As shown in FIG. 7, even when one window SW not overlapping with other windows SW is stored, a plurality of windows SW partially overlapping each other shown in FIG. 8 are stored. Similarly, one window SW itself can be interpreted as the average window AW.

本実施例では、学習の際に用いられる顔サンプル画像群(図6参照)に、基本顔サンプル画像を例えば1.2倍から0.8倍までの範囲の所定の倍率で拡大および縮小した画像(例えば図6における画像FIaおよびFIb)が含まれているため、ウィンドウSWの大きさに対する顔の画像の大きさが基本サンプル画像と比べてわずかに大きかったり小さかったりする場合にも、顔領域FAが検出されうる。従って、本実施例では、ウィンドウSWのサイズとして上述した15個の離散的なサイズのみが設定されているが、あらゆる大きさの顔の画像について顔領域FAが検出されうる。同様に、本実施例では、学習の際に用いられる顔サンプル画像群に、基本顔サンプル画像を時計回りおよび反時計回りに例えば15度の範囲で所定の角度だけ回転させた画像(例えば図6における画像FIcおよびFId)が含まれているため、ウィンドウSWに対する顔の画像の傾きが基本サンプル画像とはわずかに異なっている場合にも、顔領域FAが検出されうる。従って、本実施例では、特定顔傾きとして上述した12個の離散的な角度のみが設定されているが、あらゆる角度の顔の画像について顔領域FAが検出されうる。   In the present embodiment, an image obtained by enlarging and reducing the basic face sample image at a predetermined magnification in a range from 1.2 times to 0.8 times, for example, in the face sample image group (see FIG. 6) used for learning. (For example, the images FIa and FIb in FIG. 6), the face area FA is also obtained when the size of the face image relative to the size of the window SW is slightly larger or smaller than the basic sample image. Can be detected. Therefore, in the present embodiment, only the 15 discrete sizes described above are set as the size of the window SW, but the face area FA can be detected for face images of any size. Similarly, in this embodiment, an image obtained by rotating the basic face sample image clockwise and counterclockwise by a predetermined angle within a range of, for example, 15 degrees (for example, FIG. 6) is used for the face sample image group used for learning. Therefore, even when the inclination of the face image with respect to the window SW is slightly different from the basic sample image, the face area FA can be detected. Therefore, in the present embodiment, only the 12 discrete angles described above are set as the specific face inclination, but the face area FA can be detected for the face images of all angles.

顔領域検出処理(図2のステップS120)において、顔領域FAが検出されなかった場合には(ステップS130:No)、顔領域・器官領域検出処理は終了する。一方、少なくとも1つの顔領域FAが検出された場合には(ステップS130:Yes)、信頼度算出部220の原信頼度算出部222(図1)が、検出された顔領域FAについての顔領域原信頼度を算出する(ステップS140)。顔領域原信頼度は、顔領域検出処理の結果に基づき算出される指標であって、顔領域検出処理により検出された顔領域FAが真に顔の画像に対応する画像領域であることの確からしさを表す指標である。顔領域検出処理では、顔の画像に対応しない画像領域、すなわち、顔の画像をまったく含まない画像領域や顔の画像の一部を含むが顔の画像に真に対応する画像領域ではない画像領域が、誤って顔領域FAとして検出される可能性がある。顔領域原信頼度は、顔領域検出処理が、誤検出ではなく正しい検出であることの確からしさを表している。   When the face area FA is not detected in the face area detection process (step S120 in FIG. 2) (step S130: No), the face area / organ area detection process ends. On the other hand, when at least one face area FA is detected (step S130: Yes), the original reliability calculation unit 222 (FIG. 1) of the reliability calculation unit 220 determines the face area for the detected face area FA. The original reliability is calculated (step S140). The face area original reliability is an index calculated based on the result of the face area detection process, and it is certain that the face area FA detected by the face area detection process is an image area that truly corresponds to the face image. It is an index that represents the uniqueness. In face area detection processing, an image area that does not correspond to a face image, that is, an image area that does not include a face image at all, or an image area that includes a part of a face image but is not an image area that truly corresponds to a face image. May be erroneously detected as the face area FA. The face area original reliability indicates the certainty that the face area detection process is not a false detection but a correct detection.

本実施例では、重複ウィンドウ数を最大重複ウィンドウ数で除した値を顔領域原信頼度として用いている。ここで、重複ウィンドウ数は、各顔領域FAの設定の際に参照された判定対象画像領域JIAの数、すなわち判定対象画像領域JIAを規定するウィンドウSWの数である。例えば、図8(c)に示した顔領域FAの設定の際には、図8(a)および(b)に示した互いに一部が重複する4つのウィンドウSW(SW1〜SW4)が参照されているため、重複ウィンドウ数は4となる。また、最大重複ウィンドウ数は、顔領域検出処理において顔検出用画像FDImg(図4参照)上に配置されたすべてのウィンドウSWの内、少なくとも一部が平均ウィンドウAW(図8(b)参照)に重複するウィンドウSWの数である。最大重複ウィンドウ数は、ウィンドウSWの移動ピッチやサイズ変更のピッチにより一義的に定まる。   In this embodiment, a value obtained by dividing the number of overlapping windows by the maximum number of overlapping windows is used as the face area original reliability. Here, the number of overlapping windows is the number of determination target image areas JIA referred to when setting each face area FA, that is, the number of windows SW defining the determination target image area JIA. For example, when setting the face area FA shown in FIG. 8C, the four windows SW (SW1 to SW4) partially overlapping each other shown in FIGS. 8A and 8B are referred to. Therefore, the number of overlapping windows is 4. The maximum number of overlapping windows is such that at least a part of all the windows SW arranged on the face detection image FDImg (see FIG. 4) in the face area detection process is an average window AW (see FIG. 8B). Is the number of windows SW that overlap. The maximum number of overlapping windows is uniquely determined by the movement pitch of the window SW and the size change pitch.

検出された顔領域FAが真に顔の画像に対応する画像領域である場合には、位置およびサイズが互いに近似する複数のウィンドウSWについて、判定対象画像領域JIAが顔の画像に対応する顔領域であると判定される可能性が高い。一方、検出された顔領域FAが顔の画像に対応する画像領域ではなく誤検出である場合には、あるウィンドウSWについては判定対象画像領域JIAが顔の画像に対応する顔領域であると判定されたとしても、当該ウィンドウSWに位置およびサイズが近似する別のウィンドウSWについては判定対象画像領域JIAが顔の画像に対応する顔領域ではないと判定される可能性が高い。そのため、本実施例では、重複ウィンドウ数を最大重複ウィンドウ数で除した値を顔領域原信頼度として用いている。   When the detected face area FA is an image area that truly corresponds to a face image, the determination target image area JIA corresponds to the face image for a plurality of windows SW whose positions and sizes approximate each other. Is likely to be determined. On the other hand, when the detected face area FA is not an image area corresponding to the face image but a false detection, it is determined that the determination target image area JIA is a face area corresponding to the face image for a certain window SW. Even if this is done, there is a high possibility that the determination target image area JIA is not a face area corresponding to the face image for another window SW whose position and size approximate to the window SW. Therefore, in this embodiment, a value obtained by dividing the number of overlapping windows by the maximum number of overlapping windows is used as the face area original reliability.

ステップS150(図2)では、領域検出部210(図1)が、ステップS120において検出された顔領域FAの1つを選択する。ステップS160では、領域検出部210が、選択された顔領域FAにおける顔の器官の画像に対応する画像領域である器官領域の検出を行う。上述したように、本実施例では、顔の器官とは、右目と左目と口との3つの器官を意味している。図9は、器官領域検出処理の流れを示すフローチャートである。また、図10は、器官領域検出処理の概要を示す説明図である。図10の最上段には、顔検出処理に用いられた顔検出用画像FDImg(図4参照)の一例を示している。   In step S150 (FIG. 2), the area detection unit 210 (FIG. 1) selects one of the face areas FA detected in step S120. In step S160, the area detection unit 210 detects an organ area that is an image area corresponding to an image of a facial organ in the selected face area FA. As described above, in this embodiment, the facial organ means three organs of the right eye, the left eye, and the mouth. FIG. 9 is a flowchart showing the flow of the organ region detection process. FIG. 10 is an explanatory diagram showing an outline of the organ region detection process. 10 shows an example of the face detection image FDImg (see FIG. 4) used in the face detection process.

器官領域検出処理(図9)におけるステップS510では、領域検出部210(図1)が、顔検出用画像FDImgを表す顔検出用画像データから器官検出用画像ODImgを表す器官検出用画像データを生成する。本実施例では、図10に示すように、器官検出用画像ODImgは、顔検出用画像FDImgにおける顔領域FAに対応した画像であって、横60画素×縦60画素のサイズの画像である。領域検出部210は、必要により顔検出用画像データのトリミング、アフィン変換、解像度変換を行うことにより、器官検出用画像ODImgを表す器官検出用画像データを生成する。   In step S510 in the organ region detection process (FIG. 9), the region detection unit 210 (FIG. 1) generates organ detection image data representing the organ detection image ODImg from the face detection image data representing the face detection image FDImg. To do. In this embodiment, as shown in FIG. 10, the organ detection image ODImg is an image corresponding to the face area FA in the face detection image FDImg, and is an image having a size of 60 pixels wide × 60 pixels vertical. The area detection unit 210 generates organ detection image data representing the organ detection image ODImg by performing face detection image data trimming, affine transformation, and resolution conversion as necessary.

器官検出用画像ODImgからの器官領域の検出は、上述した顔検出用画像FDImgからの顔領域FAの検出と同様に行われる。すなわち、図10に示すように、正方形形状のウィンドウSWがそのサイズおよび位置が変更されつつ器官検出用画像ODImg上に配置され(図9のステップS520,S530,S580〜S610)、配置されたウィンドウSWにより規定される画像領域が顔の器官の画像に対応する器官領域であるか否かの判定(以下「器官判定」とも呼ぶ)の対象となる判定対象画像領域JIAとして設定される(図9のステップS540)。設定された判定対象画像領域JIAについて、顔器官学習データOLD(図1)を用いて、器官(右目、左目、口)毎に、器官判定に用いられる累計評価値Tvが算出される(図9のステップS550)。顔器官学習データOLDは、累計評価値Tvの算出や器官判定に用いられるフィルタXの態様や閾値thX、重み係数WeX、閾値TH(図5参照)を規定するデータである。なお、顔器官学習データOLDの設定のための学習は、顔学習データFLDの設定のための学習と同様に、顔の器官の画像を含むことが予めわかっている複数の器官サンプル画像によって構成された器官サンプル画像群と、顔の器官の画像を含まないことが予めわかっている複数の非器官サンプル画像によって構成された非器官サンプル画像群と、を用いて実行される。   The detection of the organ area from the organ detection image ODImg is performed in the same manner as the detection of the face area FA from the face detection image FDImg described above. That is, as shown in FIG. 10, a square-shaped window SW is arranged on the organ detection image ODImg while changing its size and position (steps S520, S530, S580 to S610 in FIG. 9), and the arranged windows An image area defined by SW is set as a determination target image area JIA that is a target of determination of whether or not the image area is an organ area corresponding to an image of a facial organ (hereinafter also referred to as “organ determination”) (FIG. 9). Step S540). For the set determination target image area JIA, a cumulative evaluation value Tv used for organ determination is calculated for each organ (right eye, left eye, mouth) using the facial organ learning data OLD (FIG. 1) (FIG. 9). Step S550). The facial organ learning data OLD is data that defines the form of the filter X used for calculation of the cumulative evaluation value Tv and the organ determination, the threshold thX, the weighting coefficient WeX, and the threshold TH (see FIG. 5). Note that the learning for setting the facial organ learning data OLD is composed of a plurality of organ sample images that are known in advance to include facial organ images, as in the learning for setting the facial learning data FLD. The organ sample image group and the non-organ sample image group composed of a plurality of non-organ sample images that are known in advance not to include facial organ images.

なお、顔領域FAの検出(図3)においては累計評価値Tvが特定顔傾き毎に算出され、特定顔傾き毎に顔判定が行われるのに対し、器官検出用画像ODImgからの器官領域の検出では、累計評価値Tvは1つの判定対象画像領域JIAについて傾き0度に対応した1つの値のみが算出され、傾き0度に対応した器官の画像についての器官判定のみが行われる。これは、顔の器官の傾きは、顔全体の傾きに概ね一致するものと考えられるからである。ただし、器官領域の検出においても、所定の傾き毎に累計評価値Tvが算出され、所定の傾き毎に器官判定が行われるものとしてもよい。   In the detection of the face area FA (FIG. 3), the cumulative evaluation value Tv is calculated for each specific face inclination and the face determination is performed for each specific face inclination, whereas the organ area from the organ detection image ODImg is determined. In the detection, as the cumulative evaluation value Tv, only one value corresponding to the inclination of 0 degrees is calculated for one determination target image area JIA, and only the organ determination is performed for the organ image corresponding to the inclination of 0 degrees. This is because the inclination of the organ of the face is considered to substantially match the inclination of the entire face. However, in the detection of the organ region, the cumulative evaluation value Tv may be calculated for each predetermined inclination, and the organ determination may be performed for each predetermined inclination.

器官毎に算出された累計評価値Tvが所定の閾値TH以上である場合には、判定対象画像領域JIAは顔の当該器官の画像に対応する画像領域であるとして、判定対象画像領域JIAの位置、すなわち現在設定されているウィンドウSWの座標が記憶される(図9のステップS570)。一方、累計評価値Tvが閾値THより小さい場合には、ステップS570の処理はスキップされる。ウィンドウSWの所定のサイズのすべてについて、ウィンドウSWにより器官検出用画像ODImg全体がスキャンされた後に、器官領域設定処理が実行される(図9のステップS620)。器官領域設定処理は、顔領域設定処理(図8参照)と同様に、平均ウィンドウAWを設定して、平均ウィンドウAWにより規定される画像領域を器官領域として設定する処理である。   When the cumulative evaluation value Tv calculated for each organ is equal to or greater than a predetermined threshold TH, the determination target image area JIA is determined to be an image area corresponding to the image of the organ of the face, and the position of the determination target image area JIA That is, the coordinates of the currently set window SW are stored (step S570 in FIG. 9). On the other hand, when the cumulative evaluation value Tv is smaller than the threshold value TH, the process of step S570 is skipped. For all the predetermined sizes of the window SW, after the entire organ detection image ODImg is scanned by the window SW, an organ region setting process is executed (step S620 in FIG. 9). Similar to the face area setting process (see FIG. 8), the organ area setting process is a process of setting an average window AW and setting an image area defined by the average window AW as an organ area.

以上の処理により、器官検出用画像ODImgにおいて、右目の画像に対応する画像領域である右目領域EA(r)と、左目の画像に対応する画像領域である左目領域EA(l)と、口の画像に対応する画像領域である口領域MAと、の検出が行われる。図11は、器官領域の検出結果の一例を示す説明図である。   With the above processing, in the organ detection image ODImg, the right eye area EA (r) which is an image area corresponding to the right eye image, the left eye area EA (l) which is an image area corresponding to the left eye image, and the mouth The mouth area MA, which is an image area corresponding to the image, is detected. FIG. 11 is an explanatory diagram showing an example of the detection result of the organ region.

ステップS160(図2)において少なくとも1つの器官領域が検出された場合には(ステップS170:Yes)、信頼度算出部220の原信頼度算出部222(図1)が、検出された器官領域(右目領域EA(r)、左目領域EA(l)、口領域MA)についての器官領域原信頼度を算出する(ステップS180)。器官領域原信頼度は、器官領域検出処理の結果に基づき算出される指標であって、器官領域検出処理により検出されたある器官についての器官領域が真に顔の当該器官の画像に対応する画像領域であることの確からしさを表す指標である。器官領域検出処理では、顔の器官の画像に対応しない画像領域、すなわち、顔の器官の画像をまったく含まない画像領域や顔の器官の画像の一部を含むが顔の器官の画像に真に対応する画像領域ではない画像領域が、誤って器官領域として検出される場合がある。器官領域原信頼度は、器官領域検出処理が、誤検出ではなく正しい検出であることの確からしさを表している。   When at least one organ region is detected in step S160 (FIG. 2) (step S170: Yes), the original reliability calculation unit 222 (FIG. 1) of the reliability calculation unit 220 detects the detected organ region (FIG. 1). The organ area original reliability for the right eye area EA (r), left eye area EA (l), mouth area MA) is calculated (step S180). The organ region original reliability is an index that is calculated based on the result of the organ region detection process, and an image in which the organ region of a certain organ detected by the organ region detection process truly corresponds to the image of the organ concerned. It is an index representing the certainty of being an area. In the organ region detection process, an image region that does not correspond to the facial organ image, that is, an image region that does not include the facial organ image at all or a part of the facial organ image, is included in the facial organ image. An image area that is not a corresponding image area may be erroneously detected as an organ area. The organ region original reliability indicates the certainty that the organ region detection process is not a false detection but a correct detection.

本実施例では、上述した顔領域原信頼度と同様に、候補重複ウィンドウ数を最大重複ウィンドウ数で除した値が器官領域原信頼度として用いられる。なお、ステップS160において器官領域が検出されなかった場合には(ステップS170:No)、ステップS180の処理はスキップされる。   In this embodiment, similarly to the face area original reliability described above, a value obtained by dividing the number of candidate overlapping windows by the maximum number of overlapping windows is used as the organ area original reliability. In addition, when an organ area | region is not detected in step S160 (step S170: No), the process of step S180 is skipped.

ステップS190(図2)では、信頼度算出部220(図1)が、顔領域の検出結果、すなわちステップS140において算出された顔領域原信頼度と、器官領域の検出結果、すなわちステップS160における器官領域の検出の成否およびステップS180において算出された器官領域原信頼度と、に基づき、顔領域総合信頼度を算出する。顔領域総合信頼度は、顔領域の検出結果(顔領域原信頼度)に加えて器官領域の検出結果(器官領域の検出の成否および器官領域原信頼度)を考慮して算出される、顔領域FAが真に顔の画像に対応する画像領域であることの確からしさを表す指標である。顔領域総合信頼度は、本発明における顔領域信頼度に相当する。   In step S190 (FIG. 2), the reliability calculation unit 220 (FIG. 1) causes the face area detection result, that is, the face area original reliability calculated in step S140, and the organ area detection result, that is, the organ in step S160. The face area total reliability is calculated based on the success or failure of the area detection and the organ area original reliability calculated in step S180. The face area total reliability is calculated in consideration of the detection result of the organ area (success / failure of detection of the organ area and the original reliability of the organ area) in addition to the detection result of the face area (original reliability of the face area). This is an index representing the certainty that the area FA is an image area that truly corresponds to a face image. The face area total reliability corresponds to the face area reliability in the present invention.

本実施例では、顔領域総合信頼度は、顔領域原信頼度に各器官領域(右目領域EA(r)、左目領域EA(l)、口領域MA)についての器官領域原信頼度を加算した値である。このとき、ステップS160において検出されなかった器官領域についての器官領域原信頼度はゼロとする。すなわち、すべての器官(右目、左目、口)についての器官領域が検出されなかった場合には、顔領域総合信頼度は顔領域原信頼度に等しい。   In this embodiment, the face area total reliability is obtained by adding the organ area original reliability for each organ area (right eye area EA (r), left eye area EA (l), mouth area MA) to the face area original reliability. Value. At this time, the organ region original reliability for the organ region not detected in step S160 is set to zero. That is, when organ regions for all organs (right eye, left eye, mouth) are not detected, the face region total reliability is equal to the face region original reliability.

検出された顔領域FAが真に顔の画像に対応する画像領域である場合には、顔領域FAに器官の画像が含まれている可能性が高いため、顔領域FAにおいて器官領域が検出される可能性が高く、また器官領域原信頼度が大きいと考えられる。一方、検出された顔領域FAが顔の画像に対応する画像領域ではなく誤検出である場合には、顔領域FAに器官の画像が含まれていないため、顔領域FAにおいて器官領域が検出される可能性は低く、仮に器官領域が検出された場合にも、その検出は誤検出であるため器官領域原信頼度は小さいと考えられる。そのため、顔領域原信頼度に各器官領域についての器官領域原信頼度を加算した値を顔領域総合信頼度として用いることにより、対象画像中の顔領域FAの検出における信頼度をより精度良く算出することができる。   If the detected face area FA is an image area that truly corresponds to the face image, the organ area is detected in the face area FA because the face area FA is likely to contain an organ image. The organ region original reliability is considered high. On the other hand, when the detected face area FA is not an image area corresponding to the face image but an erroneous detection, the organ area is detected in the face area FA because the face area FA does not include an organ image. Even if an organ region is detected, the detection of the organ region is a false detection, so the organ region original reliability is considered to be small. Therefore, by using the value obtained by adding the organ area original reliability for each organ area to the face area original reliability as the face area total reliability, the reliability in detecting the face area FA in the target image can be calculated more accurately. can do.

ステップS150(図2)において選択された顔領域FAについての顔領域総合信頼度の算出(ステップS190)の完了後、ステップS120において検出された顔領域FAでステップS150における選択が未だなされていない顔領域FAが存在するか否かが判定される(ステップS200)。未だ選択されていない顔領域FAが存在すると判定された場合には(ステップS200:No)、ステップS150に戻って未選択の顔領域FAの1つが選択され、ステップS160以降の処理が実行される。一方、検出されたすべての顔領域FAが選択されたと判定された場合には(ステップS200:Yes)、処理はステップS210に進む。   After completion of calculation of the face area total reliability for the face area FA selected in step S150 (FIG. 2) (step S190), faces that have not been selected in step S150 for the face area FA detected in step S120 It is determined whether or not the area FA exists (step S200). If it is determined that there is an unselected face area FA (step S200: No), the process returns to step S150, and one of the unselected face areas FA is selected, and the processes after step S160 are executed. . On the other hand, if it is determined that all the detected face areas FA have been selected (step S200: Yes), the process proceeds to step S210.

ステップS210(図2)では、情報付加部230(図1)が、対象画像における検出された顔領域FAおよび器官領域(右目領域EA(r)、左目領域EA(l)、口領域MA)の位置(座標)を示す情報と、算出された顔領域原信頼度、器官領域原信頼度および顔領域総合信頼度とを、対象画像データを含む画像ファイルに付属情報として付加する。これにより、対象画像データと、対象画像における顔領域および器官領域の位置(座標)を示す情報と、顔領域原信頼度、器官領域原信頼度および顔領域総合信頼度とが含まれた画像ファイルが生成される。   In step S210 (FIG. 2), the information addition unit 230 (FIG. 1) performs the detection of the detected face area FA and organ area (right eye area EA (r), left eye area EA (l), mouth area MA) in the target image. Information indicating the position (coordinates) and the calculated face area original reliability, organ area original reliability, and face area total reliability are added to the image file including the target image data as attached information. Thereby, the image file including the target image data, the information indicating the position (coordinates) of the face region and the organ region in the target image, the face region original reliability, the organ region original reliability, and the face region total reliability. Is generated.

生成された画像ファイルに含まれる種々の情報は、種々の用途に利用可能である。例えば、顔領域FA、あるいは顔領域FAに基づき設定された画像領域を対象画像領域として所定の補正処理を行う場合に、顔領域総合信頼度に基づき補正処理内容を設定することが可能である。例えば、所定の補正処理が対象画像領域内の画像の変形である場合には、顔領域総合信頼度が比較的小さいときの変形量が、顔領域総合信頼度が比較的大きいときの変形量より小さい値に設定される。あるいは、顔領域総合信頼度が所定の閾値より小さい場合には、画像の変形が実行されない(すなわち変形量がゼロに設定される)。このようにすれば、対象画像領域に対する変形処理の結果をより自然なものとすることができる。一般に、顔領域総合信頼度が比較的小さい場合には、顔領域総合信頼度が比較的大きい場合より、所定の補正処理における補正量が小さい値に設定されることが好ましい。   Various kinds of information included in the generated image file can be used for various purposes. For example, when a predetermined correction process is performed using the face area FA or an image area set based on the face area FA as a target image area, it is possible to set the correction process content based on the face area total reliability. For example, when the predetermined correction processing is deformation of the image in the target image area, the deformation amount when the face area total reliability is relatively small is larger than the deformation amount when the face area total reliability is relatively large. Set to a small value. Alternatively, when the face area total reliability is smaller than a predetermined threshold, the image is not deformed (that is, the deformation amount is set to zero). In this way, the result of the deformation process for the target image area can be made more natural. Generally, when the face area total reliability is relatively small, it is preferable that the correction amount in the predetermined correction process is set to a smaller value than when the face area total reliability is relatively large.

以上説明したように、第1実施例のプリンタ100では、顔領域の検出結果(すなわちステップS140において算出された顔領域原信頼度)と、器官領域の検出結果(すなわちステップS160における器官領域の検出の成否およびステップS180において算出された器官領域原信頼度)と、に基づき、顔領域FAが真に顔の画像に対応する画像領域であることの確からしさを表す指標である顔領域総合信頼度が算出される。そのため、第1実施例のプリンタ100では、対象画像中の顔領域FAの検出における信頼度をより精度良く算出することができる。   As described above, in the printer 100 of the first embodiment, the detection result of the face area (that is, the original reliability of the face area calculated in step S140) and the detection result of the organ area (that is, detection of the organ area in step S160). , The organ area original reliability calculated in step S180), and the face area total reliability that is an index representing the likelihood that the face area FA is an image area that truly corresponds to the face image. Is calculated. Therefore, in the printer 100 of the first embodiment, the reliability in detecting the face area FA in the target image can be calculated with higher accuracy.

A−3.信頼度算出の他の方法:
上述した顔領域原信頼度および器官領域原信頼度(以下、まとめて「原信頼度」とも呼ぶ)の算出方法は種々変形可能である。例えば、顔領域検出処理(図3)のステップS350や器官領域検出処理(図9)のステップS550において算出された累計評価値Tv(図5参照)を原信頼度(顔領域原信頼度、器官領域原信頼度)として用いるとしてもよい。顔領域(または器官領域)が真に顔の画像(または顔の器官の画像)に対応する画像領域である場合には累計評価値Tvは大きい値になる可能性が高いため、累計評価値Tvを原信頼度として用いることが可能である。なお、顔領域や器官領域の設定の際に複数のウィンドウSWが考慮された場合には(図8参照)、各ウィンドウSWに対応した判定対象画像領域JIAについて算出された累計評価値Tvの平均を原信頼度として用いればよい。
A-3. Other methods of calculating reliability:
The calculation method of the face area original reliability and the organ area original reliability (hereinafter collectively referred to as “original reliability”) can be variously modified. For example, the cumulative evaluation value Tv (see FIG. 5) calculated in step S350 of the face area detection process (FIG. 3) or step S550 of the organ area detection process (FIG. 9) is used as the original reliability (face area original reliability, organ The original area reliability may be used. If the face region (or organ region) is an image region that truly corresponds to a face image (or facial organ image), the cumulative evaluation value Tv is likely to be a large value, and therefore the cumulative evaluation value Tv Can be used as the original reliability. When a plurality of windows SW are considered in setting the face area and the organ area (see FIG. 8), the average of the cumulative evaluation values Tv calculated for the determination target image area JIA corresponding to each window SW. May be used as the original reliability.

また、累計評価値Tvの算出のために算出された各フィルタXについての評価値vX(図5参照)を用いて原信頼度を算出するとしてもよい。すなわち、累計評価値Tvの算出の際には、評価値vXは、閾値thXとの比較判定によって1または0の値に変換された後に重み係数WeXを乗じられていたが、評価値vXそのものと重み係数WeXとを乗算し、その積の合計を原信頼度として用いるとしてもよい。顔領域(または器官領域)が真に顔の画像(または顔の器官の画像)に対応する画像領域である場合には上記積の合計は大きい値になる可能性が高いため、上記積の合計を原信頼度として用いることが可能である。なお、顔領域や器官領域の設定の際に複数のウィンドウSWが考慮された場合には、各ウィンドウSWに対応した判定対象画像領域JIAについて算出された評価値vXと重み係数WeXとの積の合計の平均を原信頼度として用いればよい。   Alternatively, the original reliability may be calculated using the evaluation value vX (see FIG. 5) for each filter X calculated for calculating the cumulative evaluation value Tv. That is, when calculating the cumulative evaluation value Tv, the evaluation value vX has been converted to a value of 1 or 0 by comparison with the threshold thX and then multiplied by the weighting coefficient WeX. The weight coefficient WeX may be multiplied and the sum of the products may be used as the original reliability. If the face region (or organ region) is an image region that truly corresponds to the face image (or facial organ image), the sum of the products is likely to be a large value. Can be used as the original reliability. When a plurality of windows SW are taken into account when setting the face area and the organ area, the product of the evaluation value vX calculated for the determination target image area JIA corresponding to each window SW and the weighting coefficient WeX. The average of the total may be used as the original reliability.

また、顔領域原信頼度については、ある特定顔傾きについて設定された顔領域FAに重複する他の特定顔傾きについて設定された顔領域FAの数を顔領域原信頼度として用いるとしてもよい。この場合に、特定顔傾きの差が所定値以上の場合には、重複数に含めないとすることが好ましい。   As for the face area original reliability, the number of face areas FA set for other specific face inclinations overlapping with the face area FA set for a specific face inclination may be used as the face area original reliability. In this case, when the difference in specific face inclination is greater than or equal to a predetermined value, it is preferable not to include it in the overlapping number.

また、上記実施例のように、候補重複ウィンドウ数を最大重複ウィンドウ数で除した値を原信頼度(顔領域原信頼度、器官領域原信頼度)として用いる場合に、候補重複ウィンドウ数が所定数以上となった場合には、原信頼度は最大値であるとみなし、それ以降、重複する位置にウィンドウSWを配置しないようにしてもよい。このようにすれば、処理の高速化を図ることができる。   Further, as in the above embodiment, when the value obtained by dividing the number of candidate overlapping windows by the maximum number of overlapping windows is used as the original reliability (facial area original reliability, organ area original reliability), the number of candidate overlapping windows is predetermined. If the number is greater than or equal to the number, the original reliability is regarded as the maximum value, and thereafter, the window SW may not be arranged at the overlapping position. In this way, the processing speed can be increased.

上述した顔領域総合信頼度の算出方法も種々変形可能である。例えば、顔領域原信頼度に各器官領域(右目領域EA(r)、左目領域EA(l)、口領域MA)についての器官領域原信頼度に応じて設定された値(器官領域原信頼度が大きいほど小さく設定される値)を減算した値を顔領域総合信頼度として用いるとしてもよい。このとき、ステップS160において少なくとも1つの顔の器官についての器官領域が検出されなかった場合には、顔領域総合信頼度をゼロとするとしてもよい。また、顔領域原信頼度と各器官領域についての器官領域原信頼度との平均値を顔領域総合信頼度として用いるとしてもよい。   The calculation method of the face area total reliability described above can be variously modified. For example, a value (organ area original reliability) set in accordance with the organ area original reliability for each organ area (right eye area EA (r), left eye area EA (l), mouth area MA) in the face area original reliability A value obtained by subtracting a value that is set to be smaller as the value is larger may be used as the face region total reliability. At this time, if an organ area for at least one facial organ is not detected in step S160, the total reliability of the face area may be set to zero. The average value of the face area original reliability and the organ area original reliability for each organ area may be used as the face area total reliability.

また、上記実施例では、器官領域原信頼度は、顔の器官(右目、左目、口)毎に算出されているが、すべての顔の器官に対応した1つの器官領域原信頼度が算出されるとしてもよい。   In the above embodiment, the organ region original reliability is calculated for each facial organ (right eye, left eye, mouth), but one organ region original reliability corresponding to all facial organs is calculated. It may be.

B.第2実施例:
図12は、本発明の第2実施例における画像処理装置としてのプリンタ100aの構成を概略的に示す説明図である。第2実施例のプリンタ100aは、画像処理部200の構成が図1に示した第1実施例のプリンタ100と異なっている。すなわち、第2実施例のプリンタ100aの画像処理部200は、信頼度算出部220(図1参照)を含まず、原信頼度算出部222が信頼度算出部220から独立した要素となっている。また、第2実施例のプリンタ100aの画像処理部200は、情報付加部230(図1参照)を含まず、補正処理部240を含んでいる。プリンタ100aのその他の構成は、第1実施例のプリンタ100と同じである。
B. Second embodiment:
FIG. 12 is an explanatory diagram schematically showing the configuration of a printer 100a as an image processing apparatus in the second embodiment of the present invention. The printer 100a of the second embodiment is different from the printer 100 of the first embodiment in the configuration of the image processing unit 200 shown in FIG. That is, the image processing unit 200 of the printer 100a of the second embodiment does not include the reliability calculation unit 220 (see FIG. 1), and the original reliability calculation unit 222 is an element independent of the reliability calculation unit 220. . Further, the image processing unit 200 of the printer 100a according to the second embodiment does not include the information adding unit 230 (see FIG. 1) but includes a correction processing unit 240. Other configurations of the printer 100a are the same as those of the printer 100 of the first embodiment.

補正処理部240は、領域検出部210により検出された顔領域FA(図7および図8参照)に基づき設定された対象画像領域を対象に、所定の補正処理を実行する。具体的には、補正処理部240は、顔領域FAそのものを対象画像領域として、肌の画像に対応した画像領域の色を好ましい肌色に補正する肌色補正を実行する。   The correction processing unit 240 performs a predetermined correction process on the target image area set based on the face area FA (see FIGS. 7 and 8) detected by the area detection unit 210. Specifically, the correction processing unit 240 performs skin color correction that corrects the color of the image area corresponding to the skin image to a preferable skin color using the face area FA itself as the target image area.

図13は、顔領域補正処理の流れを示すフローチャートである。顔領域補正処理は、対象画像データの表す対象画像における顔の画像に対応する画像領域である顔領域の検出を行うと共に、検出された顔領域を対象画像領域として、肌色補正を実行する処理である。顔領域補正処理は、ユーザにより操作部140を介した処理の対象となる1つまたは複数の画像の選択に応じて開始される。   FIG. 13 is a flowchart showing the flow of the face area correction process. The face area correction process is a process of detecting a face area that is an image area corresponding to a face image in the target image represented by the target image data, and performing skin color correction using the detected face area as the target image area. is there. The face area correction process is started in response to selection of one or a plurality of images to be processed by the user via the operation unit 140.

顔領域補正処理(図13)のステップS110からS200までの処理内容は、第1実施例における顔領域・器官領域検出処理(図2)のステップS110からS200までの処理内容と同じである。ただし、第2実施例の顔領域補正処理では、第1実施例の顔領域・器官領域検出処理における顔領域原信頼度算出のステップ(図2のステップS140)と顔領域総合信頼度算出のステップ(図2のステップS190)とは実行されない。すなわち、第2実施例の顔領域補正処理では、算出される信頼度は、ステップS180において算出される器官領域原信頼度のみである。   The processing contents of steps S110 to S200 of the face area correction process (FIG. 13) are the same as the processing contents of steps S110 to S200 of the face area / organ area detection process (FIG. 2) in the first embodiment. However, in the face area correction process of the second embodiment, the face area original reliability calculation step (step S140 in FIG. 2) and the face area total reliability calculation step in the face area / organ area detection process of the first embodiment. (Step S190 in FIG. 2) is not executed. That is, in the face area correction process of the second embodiment, the calculated reliability is only the organ area original reliability calculated in step S180.

第2実施例の顔領域補正処理における顔領域検出(図13のステップS120)では、顔の器官(右目、左目、口)の少なくとも1つが遮蔽物(例えばマスクやサングラス)で遮蔽された顔の画像のように、顔の器官の少なくとも1つが表現されていない画像であっても、顔領域FAとして検出されうる。図14および図15は、顔の器官の少なくとも1つが表現されていない画像の一例を示す説明図である。図14(a)には、口がマスクで遮蔽された顔の画像に対応して検出された顔領域FAの例を示しており、図14(b)には、顔領域FAにおいて検出された右目領域EA(r)および左目領域EA(l)の例を示している。図14(b)の例では、口領域MAは検出されていない。また、図15(a)には、両目がサングラスで遮蔽された顔の画像に対応して検出された顔領域FAの例を示しており、図15(b)には、顔領域FAにおいて検出された口領域MAの例を示している。図15(b)の例では、右目領域EA(r)および左目領域EA(l)は検出されていない。第2実施例では、顔学習データFLD(図1)を設定するための学習に用いられる顔サンプル画像群(図6参照)に、例えば口がマスクで遮蔽された顔のサンプル画像や両目がサングラスで遮蔽された顔のサンプル画像が含まれているため、顔領域検出において、顔の器官の少なくとも1つが表現されていない画像であっても、顔領域FAとして検出可能となっている。   In the face area detection (step S120 in FIG. 13) in the face area correction process of the second embodiment, at least one of the facial organs (right eye, left eye, mouth) is covered with a shield (for example, a mask or sunglasses). Even an image in which at least one of the facial organs is not represented as in the image can be detected as the face area FA. 14 and 15 are explanatory diagrams illustrating an example of an image in which at least one of facial organs is not represented. FIG. 14A shows an example of the face area FA detected corresponding to the face image whose mouth is shielded by the mask, and FIG. 14B shows the face area FA detected in the face area FA. Examples of the right eye area EA (r) and the left eye area EA (l) are shown. In the example of FIG. 14B, the mouth area MA is not detected. FIG. 15A shows an example of a face area FA detected corresponding to an image of a face whose eyes are shielded by sunglasses. FIG. 15B shows a detection in the face area FA. An example of the mouth area MA is shown. In the example of FIG. 15B, the right eye area EA (r) and the left eye area EA (l) are not detected. In the second embodiment, a face sample image group (see FIG. 6) used for learning for setting the face learning data FLD (FIG. 1) includes, for example, a sample image of a face whose mouth is shielded by a mask and both eyes are sunglasses. Since the sample image of the face shielded by is included in the face area detection, even an image in which at least one of the facial organs is not expressed can be detected as the face area FA.

顔領域補正処理におけるステップS230(図13)では、補正処理部240(図12)が、検出された顔領域FAを対象画像領域として、顔領域補正としての肌色補正を実行する。このとき補正処理部240は、器官領域の検出結果に基づき、肌色補正における補正内容を設定する。具体的には、補正処理部240は、器官領域(右目領域EA(r)、左目領域EA(l)、口領域MA)の少なくとも1つの検出が成功しなかった場合には、肌色補正における補正量をゼロ(すなわち補正しない)に設定する。一方、補正処理部240は、すべての器官領域の検出が成功した場合には、顔領域FA内の画素値に基づき肌色補正の補正量を設定する。   In step S230 (FIG. 13) in the face area correction process, the correction processing unit 240 (FIG. 12) performs skin color correction as face area correction using the detected face area FA as a target image area. At this time, the correction processing unit 240 sets the correction content in the skin color correction based on the detection result of the organ region. Specifically, the correction processing unit 240 corrects the skin color correction when at least one of the organ areas (the right eye area EA (r), the left eye area EA (l), and the mouth area MA) is not successfully detected. Set the amount to zero (ie no correction). On the other hand, when the detection of all the organ areas is successful, the correction processing unit 240 sets the correction amount for the skin color correction based on the pixel values in the face area FA.

以上説明したように、第2実施例のプリンタ100aによる顔領域補正処理では、器官領域の検出結果に基づき、肌色補正における補正内容が設定される。具体的には、器官領域(右目領域EA(r)、左目領域EA(l)、口領域MA)の少なくとも1つの検出が成功しなかった場合には、肌色補正における補正量はゼロに設定され、肌色補正は実行されない。検出された顔領域FAにおいて器官領域の少なくとも1つの検出が成功しなかった場合には、当該顔領域FAは真に顔の画像に対応する画像領域ではあるものの、検出されなかった顔の器官が例えば遮蔽物で遮蔽され画像上に表現されていない可能性がある。このような場合に顔領域FAを対象として肌色補正のような補正処理を行うと、画像中の当該遮蔽物の画像の影響により補正結果が不自然なものとなる恐れがある。第2実施例の顔領域補正処理では、器官領域の少なくとも1つの検出が成功しなかった場合には肌色補正は実行されないため、補正結果が不自然なものとなる事態の発生を抑制することができる。   As described above, in the face area correction process by the printer 100a of the second embodiment, the correction contents in the skin color correction are set based on the detection result of the organ area. Specifically, when the detection of at least one of the organ areas (right eye area EA (r), left eye area EA (l), mouth area MA) is not successful, the correction amount in the skin color correction is set to zero. , Skin color correction is not executed. If at least one of the organ areas is not successfully detected in the detected face area FA, the face area FA is an image area that truly corresponds to the face image, but an undetected face organ is present. For example, there is a possibility that it is shielded by a shielding object and is not represented on the image. If correction processing such as skin color correction is performed on the face area FA in such a case, the correction result may be unnatural due to the influence of the image of the shielding object in the image. In the face area correction process according to the second embodiment, skin color correction is not executed if detection of at least one of the organ areas is not successful, so that occurrence of a situation in which the correction result becomes unnatural can be suppressed. it can.

C.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variations:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

C1.変形例1:
上記第1実施例では、情報付加部230により、対象画像における検出された顔領域FAおよび器官領域(右目領域EA(r)、左目領域EA(l)、口領域MA)の位置(座標)を示す情報と、算出された顔領域原信頼度、器官領域原信頼度および顔領域総合信頼度とが、対象画像データを含む画像ファイルに付属情報として付加されているが、必ずしも画像ファイルにこのような情報がすべて付加される必要はなく、このような情報の一部のみが付加されるものとしてもよい。例えば、顔領域FAの位置を示す情報と顔領域総合信頼度とのみが、付属情報として画像ファイルに付加されるとしてもよい。また、顔領域FAの位置を示す情報と算出された顔領域総合信頼度とに加えて、器官領域の位置を示す情報と、顔領域原信頼度と、器官領域原信頼度と、の少なくとも1つが、付属情報として画像ファイルに付加されるとしてもよい。また、顔領域FAおよび器官領域の位置を示す情報、顔領域原信頼度、器官領域原信頼度、顔領域総合信頼度は、1つまたは複数のデータファイルとして内部メモリ120に格納され、画像ファイルと関連づけられるものとしてもよい。
C1. Modification 1:
In the first embodiment, the position (coordinates) of the detected face area FA and organ area (right eye area EA (r), left eye area EA (l), mouth area MA) in the target image by the information adding unit 230 are determined. The information shown and the calculated face area original reliability, organ area original reliability, and face area total reliability are added as attached information to the image file including the target image data. It is not necessary to add all the information, and only a part of such information may be added. For example, only the information indicating the position of the face area FA and the face area total reliability may be added to the image file as attached information. Further, in addition to the information indicating the position of the face area FA and the calculated face area total reliability, at least one of the information indicating the position of the organ area, the face area original reliability, and the organ area original reliability However, it may be added to the image file as attached information. The information indicating the positions of the face area FA and the organ area, the face area original reliability, the organ area original reliability, and the face area total reliability are stored in the internal memory 120 as one or a plurality of data files, and are stored in an image file. It may be associated with

C2.変形例2:
上記第2実施例では、器官領域(右目領域EA(r)、左目領域EA(l)、口領域MA)の少なくとも1つの検出が成功しなかった場合には、肌色補正における補正量がゼロに設定され、肌色補正は実行されないとしているが、器官領域の少なくとも1つの検出が成功しなかった場合にも、すべての器官領域の検出が成功した場合における肌色補正の補正量と比較して小さい補正量で肌色補正が実行されるとしてもよい。
C2. Modification 2:
In the second embodiment, if the detection of at least one of the organ areas (right eye area EA (r), left eye area EA (l), mouth area MA) is not successful, the correction amount in skin color correction is zero. Although it is set and skin color correction is not executed, even if at least one detection of the organ area is not successful, the correction is smaller than the correction amount of the skin color correction when the detection of all the organ areas is successful The skin color correction may be executed by the amount.

また、上記第2実施例では、器官領域の検出結果に基づき顔領域補正処理における肌色補正の補正量が設定されているが、本発明は、他の補正処理における補正内容の設定に適用可能である。例えば、顔領域FAを所定の倍率で拡大または縮小した画像領域が変形領域として設定され、補正処理として変形領域の画像変形が行われる場合に、器官領域の検出結果に基づき画像変形の変形量が設定されるとしてもよい。例えば、器官領域の少なくとも1つの検出が成功しなかった場合には、すべての器官領域の検出が成功した場合における変形量と比較して小さい変形量で画像変形が行われるとしてもよいし、変形量がゼロに設定され画像変形が行われないものとしてもよい。   In the second embodiment, the correction amount of the skin color correction in the face area correction process is set based on the detection result of the organ area. However, the present invention can be applied to the setting of correction contents in other correction processes. is there. For example, when an image area obtained by enlarging or reducing the face area FA at a predetermined magnification is set as a deformation area, and the image deformation of the deformation area is performed as correction processing, the deformation amount of the image deformation is based on the detection result of the organ area. It may be set. For example, when at least one of the organ regions is not successfully detected, the image deformation may be performed with a small deformation amount compared to the deformation amount when all the organ regions are successfully detected. The amount may be set to zero and no image deformation may be performed.

また、上記第2実施例では、器官領域の少なくとも1つの検出が成功しなかった場合に、肌色補正における補正量がゼロに設定され、肌色補正は実行されないとしているが、器官領域のすべての検出が成功しなかった場合にのみ肌色補正が実行されないものとしてもよい。あるいは、右目領域EA(r)と左目領域EA(l)とが共に検出されなかった場合にのみ肌色補正が実行されないものとしてもよい。   In the second embodiment, when at least one detection of the organ area is not successful, the correction amount in the skin color correction is set to zero and the skin color correction is not executed. It is also possible that the skin color correction is not executed only when the above is not successful. Alternatively, the skin color correction may not be executed only when both the right eye area EA (r) and the left eye area EA (l) are not detected.

また、上記第2実施例において、検出された器官領域の器官領域原信頼度に基づき、肌色補正における補正量が設定されるとしてもよい。例えば、すべての器官領域の検出が成功した場合であっても、各器官領域の器官領域原信頼度が小さいほど補正量が小さくなるように、補正量が設定されるとしてもよい。   In the second embodiment, the correction amount in the skin color correction may be set based on the organ area original reliability of the detected organ area. For example, the correction amount may be set so that the correction amount becomes smaller as the organ region original reliability of each organ region is smaller even when all the organ regions are successfully detected.

また、上記第2実施例において、器官領域原信頼度の算出(図13のステップS180)は必ずしも実行される必要はない。   In the second embodiment, the calculation of the organ region original reliability (step S180 in FIG. 13) is not necessarily executed.

C3.変形例3:
上記各実施例における顔領域検出処理(図3)や器官領域検出処理(図9)の態様はあくまで一例であり、種々変更可能である。例えば顔検出用画像FDImg(図4参照)のサイズは320画素×240画素に限られず、他のサイズであってもよいし、対象画像TImgそのものを顔検出用画像FDImgとして用いることも可能である。同様に、器官検出用画像ODImg(図10参照)のサイズは60画素×60画素に限られず、他のサイズであってもよいし、顔検出用画像FDImgにおける顔領域FAのサイズそのものを器官検出用画像ODImgのサイズとして用いることも可能である。また、使用されるウィンドウSWのサイズやウィンドウSWの移動方向および移動量(移動ピッチ)は上述したものに限られない。また、上記各実施例では、顔検出用画像FDImgおよび器官検出用画像ODImgのサイズが固定され、複数種類のサイズのウィンドウSWが顔検出用画像FDImgおよび器官検出用画像ODImg上に配置されることにより複数サイズの判定対象画像領域JIAが設定されているが、複数種類のサイズの顔検出用画像FDImgおよび器官検出用画像ODImgが生成され、固定サイズのウィンドウSWが顔検出用画像FDImgおよび器官検出用画像ODImg上に配置されることにより複数サイズの判定対象画像領域JIAが設定されるものとしてもよい。
C3. Modification 3:
The aspects of the face area detection process (FIG. 3) and the organ area detection process (FIG. 9) in each of the above embodiments are merely examples, and various changes can be made. For example, the size of the face detection image FDImg (see FIG. 4) is not limited to 320 pixels × 240 pixels, and may be other sizes, or the target image TImg itself can be used as the face detection image FDImg. . Similarly, the size of the organ detection image ODImg (see FIG. 10) is not limited to 60 × 60 pixels, and may be any other size, and the size of the face area FA in the face detection image FDImg itself may be detected. It can also be used as the size of the image ODImg for use. Further, the size of the window SW used, the moving direction and the moving amount (moving pitch) of the window SW are not limited to those described above. In each of the above embodiments, the sizes of the face detection image FDImg and the organ detection image ODImg are fixed, and a plurality of types of windows SW are arranged on the face detection image FDImg and the organ detection image ODImg. A plurality of sizes of determination target image areas JIA are set, but a plurality of types of face detection images FDImg and organ detection images ODImg are generated, and a fixed size window SW is used for the face detection image FDImg and organ detection The determination target image area JIA having a plurality of sizes may be set by being arranged on the image ODImg.

また、上記各実施例では、累計評価値Tvを閾値THと比較することにより顔判定および器官判定を行っているが(図5参照)、顔判定および器官判定を複数の判別器を用いた判別等の他の方法によって行ってもよい。顔判定および器官判定の方法に応じて、顔学習データFLDおよび顔器官学習データOLDの設定に用いられる学習方法も変更される。また、顔判定および器官判定は、必ずしも学習を用いた判別方法により行われる必要はなく、パターンマッチング等の他の方法により行われるとしてもよい。   In each of the above embodiments, the face evaluation and the organ determination are performed by comparing the cumulative evaluation value Tv with the threshold value TH (see FIG. 5), but the face determination and the organ determination are performed using a plurality of discriminators. Other methods may be used. The learning method used for setting the face learning data FLD and the facial organ learning data OLD is also changed according to the face determination and organ determination methods. Further, the face determination and the organ determination are not necessarily performed by a determination method using learning, and may be performed by other methods such as pattern matching.

また、上記各実施例では、30度刻みの12種類の特定顔傾き(図6参照)が設定されているが、より多くの種類の特定顔傾きが設定されてもよいし、より少ない種類の特定顔傾きが設定されてもよい。また、必ずしも特定顔傾きが設定される必要はなく、0度の顔傾きについての顔判定が行われるとしてもよい。また、上記各実施例では、顔サンプル画像群に基本サンプル画像を拡大・縮小した画像や回転させた画像が含まれるとしているが、顔サンプル画像群に必ずしもこのような画像が含まれる必要はない。   In each of the above embodiments, 12 types of specific face inclinations (see FIG. 6) in increments of 30 degrees are set. However, more types of specific face inclinations may be set, or fewer types of specific face inclinations may be set. A specific face inclination may be set. In addition, the specific face inclination does not necessarily need to be set, and face determination may be performed for a 0 degree face inclination. In each of the above embodiments, the face sample image group includes an image obtained by enlarging or reducing the basic sample image or a rotated image. However, the face sample image group does not necessarily include such an image. .

上記各実施例において、あるサイズのウィンドウSWにより規定される判定対象画像領域JIAについての顔判定(または器官判定)で顔の画像(または顔の器官の画像)に対応する画像領域であると判定された場合には、当該サイズより所定の比率以上小さいサイズのウィンドウSWを配置する場合には、顔の画像に対応する画像領域であると判定された判定対象画像領域JIAを避けて配置するものとしてもよい。このようにすれば、処理の高速化を図ることができる。   In each of the above embodiments, the face determination (or organ determination) for the determination target image area JIA defined by the window SW of a certain size is determined to be an image area corresponding to the face image (or facial organ image). If the window SW having a size smaller than the size by a predetermined ratio or more is arranged, the window SW is arranged avoiding the determination target image area JIA determined to be the image area corresponding to the face image. It is good. In this way, the processing speed can be increased.

上記各実施例では、顔領域検出処理(図2のステップS120)が完了した後に顔領域原信頼度の算出(図2のステップS140)が実行されるとしているが、顔領域原信頼度の算出は顔領域検出処理の途中で実行されるとしてもよい。例えば、顔領域検出処理においてウィンドウSWのサイズ毎に顔領域設定処理(図3のステップS420)が行われ、設定された顔領域FAについての顔領域原信頼度の算出が実行されるとしてもよい。器官領域原信頼度の算出(図2のステップS180)についても同様に変形可能である。   In each of the above embodiments, the calculation of the face area original reliability (step S140 in FIG. 2) is executed after the face area detection process (step S120 in FIG. 2) is completed. May be executed during the face area detection process. For example, the face area setting process (step S420 in FIG. 3) is performed for each size of the window SW in the face area detection process, and the calculation of the face area original reliability for the set face area FA may be executed. . The calculation of the organ region original reliability (step S180 in FIG. 2) can be similarly modified.

上記各実施例では、メモリカードMCに格納された画像データが対象画像データに設定されているが、対象画像データはメモリカードMCに格納された画像データに限らず、例えばネットワークを介して取得された画像データであってもよい。   In each of the above embodiments, the image data stored in the memory card MC is set as the target image data. However, the target image data is not limited to the image data stored in the memory card MC, and is acquired via, for example, a network. It may be image data.

上記各実施例では、顔の器官として、右目と左目と口とが設定されており、器官領域として、右目領域EA(r)と左目領域EA(l)と口領域MAとの検出が行われるが、顔の器官として顔のどの器官を設定するかは変更可能である。例えば、顔の器官として、右目と左目と口とのいずれか1つまたは2つのみが設定されるとしてもよい。また、顔の器官として、右目と左目と口とに加えて、または右目と左目と口との少なくとも1つに代わり、顔のその他の器官(例えば鼻や眉)が設定され、器官領域としてこのような器官の画像に対応する領域が検出されるとしてもよい。   In each of the above embodiments, the right eye, the left eye, and the mouth are set as the facial organs, and the right eye area EA (r), the left eye area EA (l), and the mouth area MA are detected as the organ areas. However, it is possible to change which organ of the face is set as the facial organ. For example, only one or two of the right eye, the left eye, and the mouth may be set as the facial organ. In addition to the right eye, the left eye, and the mouth, or in place of at least one of the right eye, the left eye, and the mouth, other organs of the face (for example, the nose and eyebrows) are set as the organs of the face. A region corresponding to such an organ image may be detected.

上記各実施例では、顔領域FAおよび器官領域は矩形の領域であるが、顔領域FAおよび器官領域は矩形以外の形状の領域であってもよい。   In each of the above embodiments, the face area FA and the organ area are rectangular areas, but the face area FA and the organ area may be areas having a shape other than a rectangle.

上各記実施例では、画像処理装置としてのプリンタ100(または100a)による顔領域・器官領域検出処理(または顔領域補正処理)を説明したが、処理の一部または全部がパーソナルコンピュータやデジタルスチルカメラ、デジタルビデオカメラ等の他の種類の画像処理装置により実行されるものとしてもよい。また、プリンタ100(または100a)はインクジェットプリンタに限らず、他の方式のプリンタ、例えばレーザプリンタや昇華型プリンタであるとしてもよい。   In the above embodiments, the face area / organ area detection process (or face area correction process) by the printer 100 (or 100a) as the image processing apparatus has been described. However, part or all of the process may be performed by a personal computer or a digital still. It may be executed by another type of image processing apparatus such as a camera or a digital video camera. The printer 100 (or 100a) is not limited to an ink jet printer, and may be another type of printer, such as a laser printer or a sublimation printer.

上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。   In each of the above embodiments, a part of the configuration realized by hardware may be replaced with software, and conversely, a part of the configuration realized by software may be replaced by hardware. .

また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータプログラム)は、コンピュータ読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピュータ内の内部記憶装置や、ハードディスク等のコンピュータに固定されている外部記憶装置も含んでいる。   In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, and the like. An external storage device fixed to the computer is also included.

本発明の第1実施例における画像処理装置としてのプリンタ100の構成を概略的に示す説明図である。1 is an explanatory diagram schematically showing the configuration of a printer 100 as an image processing apparatus in a first embodiment of the present invention. FIG. 顔領域・器官領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a face area | region / organ area | region detection process. 顔領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a face area | region detection process. 顔領域検出処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of a face area | region detection process. 顔判定に用いる累計評価値Tvの算出方法の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the calculation method of accumulated evaluation value Tv used for face determination. 学習に用いられるサンプル画像の一例を示す説明図である。It is explanatory drawing which shows an example of the sample image used for learning. 顔領域設定処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of a face area | region setting process. 顔領域設定処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of a face area | region setting process. 器官領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an organ area | region detection process. 器官領域検出処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of an organ area | region detection process. 器官領域の検出結果の一例を示す説明図である。It is explanatory drawing which shows an example of the detection result of an organ area | region. 本発明の第2実施例における画像処理装置としてのプリンタ100aの構成を概略的に示す説明図である。It is explanatory drawing which shows roughly the structure of the printer 100a as an image processing apparatus in 2nd Example of this invention. 顔領域補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a face area correction process. 顔の器官の少なくとも1つが表現されていない画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image in which at least 1 of the organ of the face is not expressed. 顔の器官の少なくとも1つが表現されていない画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image in which at least 1 of the organ of the face is not expressed.

符号の説明Explanation of symbols

100…プリンタ
110…CPU
120…内部メモリ
140…操作部
150…表示部
160…プリンタエンジン
170…カードインターフェース
172…カードスロット
200…画像処理部
210…領域検出部
212…判定対象設定部
214…評価値算出部
216…判定部
218…領域設定部
220…信頼度算出部
222…原信頼度算出部
230…情報付加部
240…補正処理部
310…表示処理部
320…印刷処理部
100 ... Printer 110 ... CPU
DESCRIPTION OF SYMBOLS 120 ... Internal memory 140 ... Operation part 150 ... Display part 160 ... Printer engine 170 ... Card interface 172 ... Card slot 200 ... Image processing part 210 ... Area | region detection part 212 ... Determination target setting part 214 ... Evaluation value calculation part 216 ... Determination part 218: Area setting unit 220 ... Reliability calculation unit 222 ... Original reliability calculation unit 230 ... Information addition unit 240 ... Correction processing unit 310 ... Display processing unit 320 ... Print processing unit

Claims (11)

画像処理装置であって、
対象画像データの表す対象画像における顔の画像に対応する画像領域である顔領域の検出を行う顔領域検出部と、
検出された前記顔領域における顔の器官の画像に対応する画像領域である器官領域の検出を行う器官領域検出部と、
検出された前記顔領域について、前記顔領域の検出結果と前記器官領域の検出結果とに基づき、前記顔領域が真に顔の画像に対応する画像領域であることの確からしさを表す顔領域信頼度を算出する信頼度算出部と、を備える、画像処理装置。
An image processing apparatus,
A face area detection unit that detects a face area that is an image area corresponding to a face image in the target image represented by the target image data;
An organ region detector that detects an organ region that is an image region corresponding to an image of a facial organ in the detected face region;
For the detected face area, based on the detection result of the face area and the detection result of the organ area, the face area reliability that represents the probability that the face area is an image area that truly corresponds to a face image An image processing apparatus comprising: a reliability calculation unit that calculates the degree.
請求項1に記載の画像処理装置であって、
前記信頼度算出部は、
前記顔領域の検出結果に基づき、検出された前記顔領域が真に顔の画像に対応する画像領域であることの確からしさを表す顔領域原信頼度を算出する顔領域原信頼度算出部と、
前記器官領域の検出結果に基づき、検出された前記器官領域が真に器官の画像に対応する画像領域であることの確からしさを表す器官領域原信頼度を算出する器官領域原信頼度算出部と、を有すると共に、
算出された前記顔領域原信頼度と、前記器官領域の検出における検出成否と、前記器官領域の検出が成功した場合における算出された前記器官領域原信頼度と、に基づき、前記顔領域信頼度を算出する、画像処理装置。
The image processing apparatus according to claim 1,
The reliability calculation unit includes:
A face area original reliability calculation unit for calculating a face area original reliability indicating the certainty that the detected face area is an image area that truly corresponds to a face image based on the detection result of the face area; ,
An organ region original reliability calculation unit for calculating an organ region original reliability representing the certainty that the detected organ region is an image region that truly corresponds to an image of the organ based on the detection result of the organ region; And having
Based on the calculated face area original reliability, detection success / failure in detection of the organ area, and calculated organ area original reliability when the detection of the organ area is successful, the face area reliability An image processing apparatus for calculating
請求項2に記載の画像処理装置であって、
前記信頼度算出部は、前記器官領域の検出が成功しなかった場合の前記顔領域信頼度が前記器官領域の検出が成功した場合の前記顔領域信頼度より小さくなるように、前記顔領域信頼度を算出する、画像処理装置。
The image processing apparatus according to claim 2,
The reliability calculation unit is configured so that the face area reliability when the detection of the organ area is not successful is smaller than the face area reliability when the detection of the organ area is successful. An image processing apparatus that calculates the degree.
請求項2または請求項3に記載の画像処理装置であって、
前記信頼度算出部は、前記器官領域原信頼度が小さいほど前記顔領域信頼度が小さくなるように、前記顔領域信頼度を算出する、画像処理装置。
The image processing apparatus according to claim 2, wherein:
The reliability calculation unit is an image processing device that calculates the face area reliability so that the face area reliability decreases as the organ area original reliability decreases.
請求項2ないし請求項4のいずれかに記載の画像処理装置であって、
前記顔領域検出部は、
前記対象画像における互いに異なる複数の画像領域を順に判定対象画像領域に設定する判定対象設定部と、
前記判定対象画像領域について、顔の画像に対応する画像領域であることの確からしさを表す少なくとも1つの評価値を算出する評価値算出部と、
前記評価値に基づき、前記判定対象画像領域が顔の画像に対応するか否かを判定する判定部と、
顔の画像に対応すると判定された1つまたは複数の互いに一部が重複する前記判定対象画像領域の位置および大きさに基づき、前記顔領域を設定する顔領域設定部と、を有し、
前記顔領域原信頼度算出部は、前記顔領域の設定の際に参照された前記判定対象画像領域の数と前記評価値との少なくとも1つに基づき、前記顔領域原信頼度を算出する、画像処理装置。
An image processing apparatus according to any one of claims 2 to 4,
The face area detection unit
A determination target setting unit that sequentially sets a plurality of different image areas in the target image as a determination target image area;
An evaluation value calculation unit that calculates at least one evaluation value representing the certainty that the determination target image region is an image region corresponding to a face image;
A determination unit that determines whether the determination target image region corresponds to a face image based on the evaluation value;
A face area setting unit that sets the face area based on the position and size of the determination target image area that partially overlaps one or more determined to correspond to a face image;
The face area original reliability calculation unit calculates the face area original reliability based on at least one of the number of the determination target image areas and the evaluation value referred to when the face area is set. Image processing device.
請求項2ないし請求項5のいずれかに記載の画像処理装置であって、
前記器官領域検出部は、
前記顔領域における互いに異なる複数の画像領域を順に判定対象画像領域に設定する判定対象設定部と、
前記判定対象画像領域について、顔の器官の画像に対応する画像領域であることの確からしさを表す少なくとも1つの評価値を算出する評価値算出部と、
前記評価値に基づき、前記判定対象画像領域が器官の画像に対応するか否かを判定する判定部と、
器官の画像に対応すると判定された1つまたは複数の互いに一部が重複する前記判定対象画像領域の位置および大きさに基づき、前記器官領域を設定する器官領域設定部と、を有し、
前記器官領域原信頼度算出部は、前記器官領域の設定の際に参照された前記判定対象画像領域の数と前記評価値との少なくとも1つに基づき、前記器官領域原信頼度を算出する、画像処理装置。
An image processing apparatus according to any one of claims 2 to 5,
The organ region detector is
A determination target setting unit that sequentially sets a plurality of different image areas in the face area as a determination target image area;
An evaluation value calculation unit that calculates at least one evaluation value representing the probability of being an image region corresponding to an image of a facial organ for the determination target image region;
A determination unit that determines whether the determination target image region corresponds to an image of an organ based on the evaluation value;
An organ region setting unit configured to set the organ region based on the position and size of one or more of the determination target image regions determined to correspond to an image of an organ, and
The organ region original reliability calculation unit calculates the organ region original reliability based on at least one of the number of the determination target image regions and the evaluation value referred to when the organ region is set. Image processing device.
請求項1ないし請求項6のいずれかに記載の画像処理装置であって、さらに、
前記対象画像データに、検出された前記顔領域の位置を示す顔位置情報と、前記顔領域信頼度と、を付加する情報付加部を備える、画像処理装置。
The image processing apparatus according to any one of claims 1 to 6, further comprising:
An image processing apparatus, comprising: an information adding unit that adds face position information indicating the position of the detected face area and the face area reliability to the target image data.
請求項7に記載の画像処理装置であって、
前記情報付加部は、前記対象画像データに、さらに、検出された前記器官領域の位置を示す器官位置情報と、前記顔領域原信頼度と、前記器官領域原信頼度と、の少なくとも1つを付加する、画像処理装置。
The image processing apparatus according to claim 7,
The information adding unit further includes at least one of organ position information indicating the position of the detected organ region, the face region original reliability, and the organ region original reliability in the target image data. An image processing apparatus to be added.
請求項1ないし請求項8のいずれかに記載の画像処理装置であって、
前記顔の器官は、右目と左目と口との少なくとも1つである、画像処理装置。
An image processing apparatus according to any one of claims 1 to 8,
The image processing apparatus, wherein the facial organ is at least one of a right eye, a left eye, and a mouth.
画像処理方法であって、
(a)対象画像データの表す対象画像における顔の画像に対応する画像領域である顔領域の検出を行う工程と、
(b)検出された前記顔領域における顔の器官の画像に対応する画像領域である器官領域の検出を行う工程と、
(c)検出された前記顔領域について、前記顔領域の検出結果と前記器官領域の検出結果とに基づき、前記顔領域が真に顔の画像に対応する画像領域であることの確からしさを表す顔領域信頼度を算出する工程と、を備える、画像処理方法。
An image processing method comprising:
(A) detecting a face area which is an image area corresponding to a face image in the target image represented by the target image data;
(B) detecting an organ region that is an image region corresponding to an image of a facial organ in the detected face region;
(C) The probability that the detected face area is an image area that truly corresponds to a face image is represented based on the detection result of the face area and the detection result of the organ area. Calculating a face area reliability.
画像処理のためのコンピュータプログラムであって、
対象画像データの表す対象画像における顔の画像に対応する画像領域である顔領域の検出を行う顔領域検出機能と、
検出された前記顔領域における顔の器官の画像に対応する画像領域である器官領域の検出を行う器官領域検出機能と、
検出された前記顔領域について、前記顔領域の検出結果と前記器官領域の検出結果とに基づき、前記顔領域が真に顔の画像に対応する画像領域であることの確からしさを表す顔領域信頼度を算出する信頼度算出機能と、を、コンピュータに実現させる、コンピュータプログラム。
A computer program for image processing,
A face area detection function for detecting a face area that is an image area corresponding to a face image in the target image represented by the target image data;
An organ region detection function for detecting an organ region which is an image region corresponding to an image of a facial organ in the detected face region;
For the detected face area, based on the detection result of the face area and the detection result of the organ area, the face area reliability that represents the probability that the face area is an image area that truly corresponds to a face image A computer program that causes a computer to realize a reliability calculation function for calculating a degree.
JP2008061387A 2008-03-11 2008-03-11 Calculation for reliability in detecting face region in image Withdrawn JP2009217607A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008061387A JP2009217607A (en) 2008-03-11 2008-03-11 Calculation for reliability in detecting face region in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008061387A JP2009217607A (en) 2008-03-11 2008-03-11 Calculation for reliability in detecting face region in image

Publications (1)

Publication Number Publication Date
JP2009217607A true JP2009217607A (en) 2009-09-24

Family

ID=41189377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008061387A Withdrawn JP2009217607A (en) 2008-03-11 2008-03-11 Calculation for reliability in detecting face region in image

Country Status (1)

Country Link
JP (1) JP2009217607A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039231A1 (en) * 2019-08-30 2021-03-04 オムロン株式会社 Image analysis device, image analysis method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137788A (en) * 1998-10-29 2000-05-16 Fuji Photo Film Co Ltd Image processing method, image processor, and record medium
JP2000149018A (en) * 1998-09-10 2000-05-30 Fuji Photo Film Co Ltd Image processing method, and device and recording medium thereof
JP2007219815A (en) * 2006-02-16 2007-08-30 Seiko Epson Corp Printer, image processor, printing method and image processing method
JP2008027058A (en) * 2006-07-19 2008-02-07 Sony Corp Image detection apparatus and image detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149018A (en) * 1998-09-10 2000-05-30 Fuji Photo Film Co Ltd Image processing method, and device and recording medium thereof
JP2000137788A (en) * 1998-10-29 2000-05-16 Fuji Photo Film Co Ltd Image processing method, image processor, and record medium
JP2007219815A (en) * 2006-02-16 2007-08-30 Seiko Epson Corp Printer, image processor, printing method and image processing method
JP2008027058A (en) * 2006-07-19 2008-02-07 Sony Corp Image detection apparatus and image detection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039231A1 (en) * 2019-08-30 2021-03-04 オムロン株式会社 Image analysis device, image analysis method, and program
JP2021039422A (en) * 2019-08-30 2021-03-11 オムロン株式会社 Image analysis apparatus, image analysis method and program
JP7276013B2 (en) 2019-08-30 2023-05-18 オムロン株式会社 Image analysis device, image analysis method, and program

Similar Documents

Publication Publication Date Title
CN110069767B (en) Typesetting method based on electronic book, electronic equipment and computer storage medium
JP2009237619A (en) Detection of face area and organ area in image
US20070071319A1 (en) Method, apparatus, and program for dividing images
US8249312B2 (en) Image processing device and image processing method
JP2010049578A (en) Image processor, image processing method, and image processing program
US9171218B2 (en) Image processing apparatus, image processing method, and computer readable medium that recognize overlapping elements in handwritten input
JP2010191592A (en) Image processing apparatus for detecting coordinate position of characteristic portion of face
US20090285457A1 (en) Detection of Organ Area Corresponding to Facial Organ Image in Image
JP2009211450A (en) Image processing apparatus, image processing method, and computer program for image processing
JP4957607B2 (en) Detection of facial regions in images
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2010160640A (en) Image processor, printer, image processing method and image processing program
JP2009282699A (en) Detection of organ area corresponding to image of organ of face in image
JP2010244251A (en) Image processor for detecting coordinate position for characteristic site of face
JP4985510B2 (en) Set the face area corresponding to the face image in the target image
RU2458396C1 (en) Method of editing static digital composite images, including images of several objects
JP2010102396A (en) Person detection device, person detection method, and program
JP2009237857A (en) Setting of organ area corresponding to facial organ image in image
JP2009217607A (en) Calculation for reliability in detecting face region in image
JP2010186268A (en) Image processor, printer, image processing method and image processing program
JP2009217609A (en) Processing for correcting image region set based on face region
WO2019065784A1 (en) Image processing device, image processing method, and computer-readable recording medium
JP2016167192A (en) Information processor, image reader and image display method
JP2009237618A (en) Detection of face area in image
JP4957608B2 (en) Detection of facial regions in images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20111220