JP2009059048A - Image processor, imaging device, image processing method, and program - Google Patents

Image processor, imaging device, image processing method, and program Download PDF

Info

Publication number
JP2009059048A
JP2009059048A JP2007224005A JP2007224005A JP2009059048A JP 2009059048 A JP2009059048 A JP 2009059048A JP 2007224005 A JP2007224005 A JP 2007224005A JP 2007224005 A JP2007224005 A JP 2007224005A JP 2009059048 A JP2009059048 A JP 2009059048A
Authority
JP
Japan
Prior art keywords
image
detection
reduced
face
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007224005A
Other languages
Japanese (ja)
Inventor
Shigeru Kafuku
滋 加福
Keisuke Shimada
敬輔 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007224005A priority Critical patent/JP2009059048A/en
Publication of JP2009059048A publication Critical patent/JP2009059048A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform more reliable image detection at high speed. <P>SOLUTION: When an image to be detected is detected on an input image by means of identification action using a reference image, a storage unit 250 stores a normal reference image as well as a contracted reference image such that a feature portion shown by the normal reference image is contracted. An image conversion unit 211 contracts the input image stored in an image memory 230. A second discriminator 215 performs a discriminating action using the contracted reference image over the image contracted by the image conversion unit 211. A discrimination result determining unit 216 specifies the position of the target image that has been detected on the contracted image to be detected. A discrimination area setting unit 213 detects the image to be detected on the input image by performing a discriminating action using the normal reference image, at a position on the input image that corresponds to the position specified. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置、撮像装置、画像処理方法、および、プログラムに関し、特に、特定の画像部分の検出に好適な画像処理装置、撮像装置、画像処理方法、および、プログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing method, and a program, and more particularly, to an image processing device, an imaging device, an image processing method, and a program suitable for detecting a specific image portion.

デジタルスチルカメラなどの撮像装置においては、人物を被写体とした場合に、ファインダ画面上で顔を検出する技術が実現されている(例えば、特許文献1)。   In an imaging apparatus such as a digital still camera, a technique for detecting a face on a viewfinder screen when a person is a subject is realized (for example, Patent Document 1).

このような顔検出を用いることで、例えば、顔部分に合焦させたり、顔部分に合わせて露出調整やホワイトバランス調整をおこなったりすることができ、人物に最適化した撮影を容易におこなうことができる。   By using such face detection, for example, it is possible to focus on the face part, and to adjust exposure and white balance according to the face part, making it easy to shoot optimized for a person. Can do.

このような顔検出技術では、入力画像を順次縮小した複数の画像(いわゆる、画像ピラミッド)を生成し、各画像において、予め用意した顔画像(参照用画像)を用いた識別動作をおこなうことで、撮像画像内の顔部分の大きさが不定であっても、一定のサイズの参照用画像を用意しておけば、顔検出をおこなうことができる。
特開2003−36439号公報
In such a face detection technique, a plurality of images (so-called image pyramids) obtained by sequentially reducing an input image are generated, and a discrimination operation using a face image (reference image) prepared in advance is performed on each image. Even if the size of the face portion in the captured image is indefinite, if a reference image having a certain size is prepared, face detection can be performed.
JP 2003-36439 A

従来の画像ピラミッドによる顔検出においては、入力画像を順次縮小させた画像ピラミッドを用いるので、参照用画像が示す顔の大きさよりも大きい顔を検出することはできるが、入力画像において、顔部分が小さく現れている場合には、検出することができない。   In the face detection by the conventional image pyramid, an image pyramid obtained by sequentially reducing the input image is used. Therefore, it is possible to detect a face larger than the size of the face indicated by the reference image. If it appears small, it cannot be detected.

このため、例えば、撮像位置からの距離が異なる複数の被写体を撮像することで、種々の大きさの顔が撮像装置に現れている場合、小さい顔については検出されない場合があった。   For this reason, for example, when faces of various sizes appear on the imaging apparatus by imaging a plurality of subjects having different distances from the imaging position, a small face may not be detected.

このような不都合を解消するためには、入力画像を縮小せずに顔検出をおこなうことが考えられるが、画像上でサブウィンドウを移動させながら顔識別をおこなう方法では、画像サイズが大きくなるほど処理工数が増大してしまう。この結果、検出にかかる処理時間が長大となってしまい、ファインダ画面においてリアルタイムに顔を検出することができなくなるおそれがある。そして、撮像装置の性能向上により、入力画像の大型化と表示装置の高精細化が進む傾向にあり、確実な画像検出をリアルタイムにおこなうことがより困難となる。   In order to eliminate such inconvenience, it is conceivable to perform face detection without reducing the input image. However, in the method of performing face identification while moving the sub-window on the image, the processing man-hours increase as the image size increases. Will increase. As a result, the processing time required for detection becomes long, and there is a possibility that the face cannot be detected in real time on the finder screen. As the performance of the imaging device improves, the input image tends to become larger and the display device has a higher definition, making it more difficult to perform reliable image detection in real time.

本発明は、上記実状に鑑みてなされたものであり、より確実な画像検出を高速におこなうことのできる画像処理装置、撮像装置、画像処理方法、および、プログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an imaging apparatus, an image processing method, and a program capable of performing more reliable image detection at high speed.

上記目的を達成するため、本発明の第1の観点に係る画像処理装置は、
参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出する画像処理装置において、
前記参照用画像を格納する参照用画像格納手段と、
前記参照用画像格納手段に格納された参照用画像が示す特徴部分を縮小した縮小参照画像を格納する縮小参照画像格納手段と、
前記入力画像を縮小する画像縮小手段と、
前記画像縮小手段が縮小した画像上で、前記縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定手段と、
前記対象位置特定手段が特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to the first aspect of the present invention provides:
In an image processing apparatus for detecting a detection target image on an input image by an identification operation using a reference image,
Reference image storage means for storing the reference image;
Reduced reference image storage means for storing a reduced reference image obtained by reducing the characteristic portion indicated by the reference image stored in the reference image storage means;
Image reduction means for reducing the input image;
Target position specifying means for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image on the image reduced by the image reducing means;
Image detecting means for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified by the target position specifying means. When,
It is characterized by providing.

上記画像処理装置において、
前記画像検出手段は、前記対象位置特定手段が前記縮小した画像上で前記検出対象画像の位置を特定できない場合、前記入力画像上での識別動作をおこなわないことが望ましい。
In the image processing apparatus,
It is desirable that the image detection unit does not perform an identification operation on the input image when the target position specifying unit cannot specify the position of the detection target image on the reduced image.

上記画像処理装置において、
前記画像縮小手段は、前記入力画像を順次縮小し、
前記画像検出手段は、前記画像縮小手段が順次縮小する画像のそれぞれにおいて前記参照用画像を用いた識別動作をおこなって前記検出対象画像を検出することが望ましい。
In the image processing apparatus,
The image reduction means sequentially reduces the input image,
It is desirable that the image detection unit detects the detection target image by performing an identification operation using the reference image in each of the images sequentially reduced by the image reduction unit.

上記目的を達成するため、本発明の第2の観点にかかる撮像装置は、
参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出する撮像装置において、
撮像画像を入力画像として取得する入力画像取得手段と、
前記参照用画像を格納する参照用画像格納手段と、
前記参照用画像格納手段に格納された参照用画像が示す特徴部分を縮小した縮小参照画像を格納する縮小参照画像格納手段と、
前記入力画像を縮小する画像縮小手段と、
前記画像縮小手段が縮小した画像上で、前記縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定手段と、
前記対象位置特定手段が特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging apparatus according to a second aspect of the present invention provides:
In an imaging device that detects a detection target image on an input image by an identification operation using a reference image,
Input image acquisition means for acquiring a captured image as an input image;
Reference image storage means for storing the reference image;
Reduced reference image storage means for storing a reduced reference image obtained by reducing the characteristic portion indicated by the reference image stored in the reference image storage means;
Image reduction means for reducing the input image;
Target position specifying means for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image on the image reduced by the image reducing means;
Image detecting means for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified by the target position specifying means. When,
It is characterized by providing.

上記撮像装置において、
前記画像検出手段は、前記対象位置特定手段が前記縮小した画像上で前記検出対象画像の位置を特定できない場合、前記入力画像上での識別動作をおこなわないことが望ましい。
In the imaging apparatus,
It is desirable that the image detection unit does not perform an identification operation on the input image when the target position specifying unit cannot specify the position of the detection target image on the reduced image.

上記撮像装置において、
前記画像縮小手段は、前記入力画像を順次縮小し、
前記画像検出手段は、前記画像縮小手段が順次縮小する画像のそれぞれにおいて前記参照用画像を用いた識別動作をおこなって前記検出対象画像を検出することが望ましい。
In the imaging apparatus,
The image reduction means sequentially reduces the input image,
It is desirable that the image detection unit detects the detection target image by performing an identification operation using the reference image in each of the images sequentially reduced by the image reduction unit.

上記目的を達成するため、本発明の第3の観点にかかる画像処理方法は、
参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出するための画像処理方法であって、
前記入力画像を縮小する画像縮小ステップと、
前記画像縮小ステップで縮小した画像上で、前記参照用画像が示す特徴部分を縮小した縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定ステップと、
前記対象位置特定ステップで特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出ステップと、
を含むことを特徴とする。
In order to achieve the above object, an image processing method according to a third aspect of the present invention includes:
An image processing method for detecting a detection target image on an input image by an identification operation using a reference image,
An image reduction step for reducing the input image;
An object for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image obtained by reducing the characteristic portion indicated by the reference image on the image reduced in the image reduction step. A location step;
An image detection step of detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified in the target position specifying step. When,
It is characterized by including.

上記目的を達成するため、本発明の第4の観点にかかるプログラムは、
コンピュータに参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出させるプログラムであって、
前記コンピュータに、
前記入力画像を縮小する機能と、
前記縮小した画像上で、前記参照用画像が示す特徴部分を縮小した縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する機能と、
前記特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう機能と、
を実現させることを特徴とする。
In order to achieve the above object, a program according to the fourth aspect of the present invention is:
A program for causing a computer to detect a detection target image on an input image by an identification operation using a reference image,
In the computer,
A function of reducing the input image;
A function of identifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image obtained by reducing the feature portion indicated by the reference image on the reduced image;
A function for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the specified position;
It is characterized by realizing.

本発明によれば、より確実な画像検出を高速におこなうことができる。   According to the present invention, more reliable image detection can be performed at high speed.

本発明にかかる実施形態を、図面を参照して以下に説明する。本実施形態では、本発明をデジタルスチルカメラ(以下、デジタルカメラ)によって実現した場合を例示する。本実施形態にかかるデジタルカメラ1は、一般的なデジタルスチルカメラが有する機能に加え、ファインダ画面上で特定の被写体部分を検出し、検出された被写体部分に合わせた撮像設定をおこなう機能を備えているものとする。本実施形態では、ファインダ画面上にある人物の顔を被写体部分として検出するものとする。すなわち、本実施形態にかかるデジタルカメラ1は、いわゆる顔検出機能を備えたデジタルスチルカメラである。   Embodiments according to the present invention will be described below with reference to the drawings. In the present embodiment, a case where the present invention is realized by a digital still camera (hereinafter referred to as a digital camera) is illustrated. The digital camera 1 according to the present embodiment has a function of detecting a specific subject portion on the finder screen and performing an imaging setting in accordance with the detected subject portion, in addition to the function of a general digital still camera. It shall be. In this embodiment, it is assumed that the face of a person on the finder screen is detected as a subject part. That is, the digital camera 1 according to this embodiment is a digital still camera having a so-called face detection function.

図1は、本発明の実施形態にかかるデジタルカメラ1の構成を示すブロック図である。本実施形態にかかるデジタルカメラ1の概略的構成は、図示するように、撮像部100、データ処理部200、インタフェース(I/F)部300、などである。   FIG. 1 is a block diagram showing a configuration of a digital camera 1 according to an embodiment of the present invention. The schematic configuration of the digital camera 1 according to the present embodiment includes an imaging unit 100, a data processing unit 200, an interface (I / F) unit 300, and the like as illustrated.

撮像部100は、デジタルカメラ1の撮像動作をおこなう部分であり、図示するように、光学装置110やイメージセンサ部120などから構成されている。   The imaging unit 100 is a part that performs an imaging operation of the digital camera 1, and includes an optical device 110, an image sensor unit 120, and the like as illustrated.

光学装置110は、例えば、レンズ、絞り機構、シャッタ機構、などを含み、撮像にかかる光学的動作をおこなう。すなわち、光学装置110の動作により、入射光が集光されるとともに、焦点距離、絞り、シャッタスピードなどといった、画角やピント、露出などにかかる光学的要素の調整がなされる。なお、光学装置110に含まれるシャッタ機構はいわゆる機械式のシャッタ装置であり、イメージセンサによってシャッタ動作をおこなう場合には、光学装置110にシャッタ機構が含まれていなくてもよい。また、光学装置110は、後述する制御部210による制御によって動作する。   The optical device 110 includes, for example, a lens, a diaphragm mechanism, a shutter mechanism, and the like, and performs an optical operation related to imaging. In other words, the operation of the optical device 110 collects incident light and adjusts optical elements related to the angle of view, focus, exposure, and the like, such as focal length, aperture, and shutter speed. Note that the shutter mechanism included in the optical device 110 is a so-called mechanical shutter device, and when the shutter operation is performed by the image sensor, the optical device 110 may not include the shutter mechanism. The optical device 110 operates under the control of the control unit 210 described later.

イメージセンサ部120は、光学装置110によって集光された入射光に応じた電気信号を生成する、例えば、CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementally Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサから構成される。イメージセンサ部120は、光電変換をおこなうことで、受光に応じた電気信号を発生してデータ処理部200に出力する。   The image sensor unit 120 generates an electrical signal corresponding to the incident light collected by the optical device 110, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). (Semiconductor) image sensor. The image sensor unit 120 performs photoelectric conversion to generate an electrical signal corresponding to the received light and output it to the data processing unit 200.

なお、デジタルカメラ1のビューファインダとして、液晶画面(後述する表示部310など)やEVF(Electronic View Finder)などが用いられる場合、イメージセンサ部120が低解像度の画像信号を常時出力することで、いわゆるライブビュー画像(レックスルー画像)がファインダ画面として表示されるものとする。本実施形態では、後述する表示部310をファインダ画面として用いるものとし、デジタルカメラ1での撮像動作時には、レックスルー画像を表示部310のファインダ画面に表示してライブビュー機能が実現されるものとする。   When a liquid crystal screen (such as a display unit 310 to be described later) or EVF (Electronic View Finder) is used as a viewfinder of the digital camera 1, the image sensor unit 120 constantly outputs a low-resolution image signal. It is assumed that a so-called live view image (Rexro image) is displayed as a viewfinder screen. In the present embodiment, a display unit 310 to be described later is used as a finder screen, and a live view function is realized by displaying a Rexro image on the finder screen of the display unit 310 during an imaging operation with the digital camera 1. To do.

このようなライブビュー機能で表示されるレックスルー画像は、通常、画質より表示速度が重視されるので、処理負荷が低くなるよう比較的サイズの小さい画像(低解像度画像)を用いる。本実施形態では、シャッタ操作による撮像時以外は、640×480のVGA(Video Graphics Array)画像をイメージセンサ部120が出力するものとし、このVGA画像をライブビュー用のレックスルー画像として用いるものとする。なお、レックスルー画像のサイズ(解像度)は、ライブビュー画像を表示する表示装置の性能(解像度など)に応じて規定されるものとする。すなわち、出力する表示装置において、ファインダとして利用できる画像品質と表示速度が得られる程度の解像度(サイズ)とする。   Rexroux images displayed with such a live view function usually use display images that are relatively small in size (low-resolution images) so that the processing load is low because display speed is more important than image quality. In this embodiment, it is assumed that the image sensor unit 120 outputs a 640 × 480 VGA (Video Graphics Array) image except when imaging by a shutter operation, and this VGA image is used as a Rexro image for live view. To do. The size (resolution) of the Rexro image is defined according to the performance (resolution, etc.) of the display device that displays the live view image. In other words, the output display device has a resolution (size) enough to obtain image quality and display speed that can be used as a finder.

データ処理部200は、撮像部100による撮像動作によって生成された電気信号を処理し、撮像画像を示すデジタルデータを生成するとともに、撮像画像に対する画像処理などをおこなう。図1に示すように、データ処理部200は、制御部210、画像処理部220、画像メモリ230、画像出力部240、記憶部250、外部記憶部260、などから構成される。   The data processing unit 200 processes the electrical signal generated by the imaging operation by the imaging unit 100 to generate digital data indicating the captured image, and performs image processing on the captured image. As shown in FIG. 1, the data processing unit 200 includes a control unit 210, an image processing unit 220, an image memory 230, an image output unit 240, a storage unit 250, an external storage unit 260, and the like.

制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)などのプロセッサやRAM(Random Access Memory)などの主記憶装置などから構成され、後述する記憶部250などに格納されているプログラムを実行することで、デジタルカメラ1の各部を制御する。また、本実施形態では、所定のプログラムを実行することで、後述する各処理にかかる機能が制御部210によって実現される。   The control unit 210 includes, for example, a processor such as a CPU (Central Processing Unit), a main storage device such as a RAM (Random Access Memory), and the like, and is stored in a storage unit 250 described later. By executing the above, each part of the digital camera 1 is controlled. Further, in the present embodiment, by executing a predetermined program, a function related to each process described later is realized by the control unit 210.

画像処理部220は、例えば、ADC(Analog-Digital Converter:アナログ−デジタル変換器)、バッファメモリ、画像処理用のプロセッサ(いわゆる、画像処理エンジン)などから構成され、撮像部100によって生成された電気信号に基づいて、撮像画像を示すデジタルデータを生成する。   The image processing unit 220 includes, for example, an ADC (Analog-Digital Converter), a buffer memory, an image processing processor (a so-called image processing engine), and the like. Based on the signal, digital data indicating a captured image is generated.

すなわち、イメージセンサ部120から出力されたアナログ電気信号をADCがデジタル信号に変換して順次バッファメモリに格納すると、画像処理エンジンがバッファされたデジタルデータに対し、いわゆる現像処理などをおこなうことで、画質の調整やデータ圧縮などをおこなう。   That is, when the analog electric signal output from the image sensor unit 120 is converted into a digital signal by the ADC and sequentially stored in the buffer memory, the image processing engine performs so-called development processing on the buffered digital data, Adjust image quality and compress data.

画像メモリ230は、例えば、RAMやフラッシュメモリなどの記憶装置から構成され、画像処理部220によって生成された撮像画像データや、制御部210によって処理される画像データなどを一時的に格納する。本実施形態では、ファインダ用のライブビュー画像としてイメージセンサ部120から出力された画像データを一時的に格納し、格納した画像データを用いて顔検出のための処理がおこなわれるものとする。   The image memory 230 includes, for example, a storage device such as a RAM or a flash memory, and temporarily stores captured image data generated by the image processing unit 220, image data processed by the control unit 210, and the like. In the present embodiment, it is assumed that image data output from the image sensor unit 120 is temporarily stored as a live view image for a finder, and processing for face detection is performed using the stored image data.

画像出力部240は、例えば、RGB信号の生成回路などから構成され、画像メモリ230に展開された画像データをRGB信号などに変換して表示画面(後述する表示部310など)に出力する。   The image output unit 240 includes, for example, an RGB signal generation circuit and the like, converts the image data expanded in the image memory 230 into an RGB signal and the like, and outputs the RGB signal to a display screen (a display unit 310 to be described later).

記憶部250は、例えば、ROM(Read Only Memory)やフラッシュメモリなどの記憶装置から構成され、デジタルカメラ1の動作に必要なプログラムやデータなどを格納する。本実施形態では、制御部210などが実行する動作プログラムなどが記憶部250に格納されているものとする。   The storage unit 250 includes a storage device such as a ROM (Read Only Memory) or a flash memory, and stores programs and data necessary for the operation of the digital camera 1. In the present embodiment, it is assumed that an operation program executed by the control unit 210 or the like is stored in the storage unit 250.

外部記憶部260は、例えば、メモリカードなどといった、デジタルカメラ1に着脱可能な記憶装置から構成され、デジタルカメラ1で撮像した画像データなどを格納する。   The external storage unit 260 includes a storage device that can be attached to and detached from the digital camera 1 such as a memory card, and stores image data captured by the digital camera 1.

インタフェース部300は、デジタルカメラ1とその使用者あるいは外部装置とのインタフェースにかかる構成であり、図1に示すように、表示部310、外部インタフェース(I/F)部320、操作部330、などから構成される。   The interface unit 300 has a configuration related to an interface between the digital camera 1 and its user or an external device. As shown in FIG. 1, the display unit 310, an external interface (I / F) unit 320, an operation unit 330, etc. Consists of

表示部310は、例えば、液晶表示装置などから構成され、デジタルカメラ1を操作するために必要な種々の画面や、撮影時のライブビュー画像、撮像画像、などを表示出力する。本実施形態では、画像出力部240からの画像信号(RGB信号)などに基づいて撮像画像等の表示出力がおこなわれる。   The display unit 310 includes, for example, a liquid crystal display device, and displays and outputs various screens necessary for operating the digital camera 1, live view images at the time of shooting, captured images, and the like. In the present embodiment, display output of a captured image or the like is performed based on an image signal (RGB signal) from the image output unit 240.

外部インタフェース部320は、例えば、USB(Universal Serial Bus)コネクタやビデオ出力端子などから構成され、外部のコンピュータ装置への画像データの出力や、外部のモニタ装置への撮像画像の表示出力などをおこなう。   The external interface unit 320 includes, for example, a USB (Universal Serial Bus) connector, a video output terminal, and the like, and performs output of image data to an external computer device, display output of a captured image to an external monitor device, and the like. .

操作部330は、デジタルカメラ1の外面上に構成されている各種ボタンなどによって構成され、デジタルカメラ1の使用者による操作に応じた入力信号を生成して制御部210に入力する。操作部330を構成するボタンとして、例えば、シャッタ動作を指示するためのシャッタボタンや、デジタルカメラ1のもつ動作モードを指定するためのモードボタン、各種設定をおこなうための十字キーや機能ボタン、などが含まれているものとする。   The operation unit 330 includes various buttons configured on the outer surface of the digital camera 1, generates an input signal corresponding to an operation by the user of the digital camera 1, and inputs the input signal to the control unit 210. As buttons constituting the operation unit 330, for example, a shutter button for instructing a shutter operation, a mode button for designating an operation mode of the digital camera 1, a cross key and a function button for performing various settings, and the like Is included.

ここで、データ処理部200の画像メモリ230についての詳細を、図2(a)を参照して説明する。ここでは、デジタルカメラ1の顔検出機能にかかる処理に必要となる画像メモリ230の構成を説明する。つまり、デジタルカメラ1で顔検出機能が実行される場合、本実施形態にかかる画像メモリ230には、図2(a)に示すような記憶領域が確保される。図示するように、画像メモリ230には、入力画像格納領域230a、検出用画像格納領域230b、検出用画像格納領域230c、などの記憶領域が用意され、各記憶領域に応じた画像データが格納される。   Here, details of the image memory 230 of the data processing unit 200 will be described with reference to FIG. Here, the configuration of the image memory 230 necessary for processing related to the face detection function of the digital camera 1 will be described. That is, when the face detection function is executed by the digital camera 1, a storage area as shown in FIG. 2A is secured in the image memory 230 according to the present embodiment. As shown in the drawing, storage areas such as an input image storage area 230a, a detection image storage area 230b, and a detection image storage area 230c are prepared in the image memory 230, and image data corresponding to each storage area is stored. The

入力画像格納領域230aは、イメージセンサ部120から出力されるライブビュー用のVGA画像を順次格納する記憶領域である。   The input image storage area 230a is a storage area for sequentially storing VGA images for live view output from the image sensor unit 120.

検出用画像格納領域230bは、顔検出機能にかかる顔検出をおこなうための検出用画像を格納する記憶領域である。本実施形態では、入力画像格納領域230aにライブビュー用のレックスルー画像(スルー画像)として格納したVGA画像を輝度画像に変換したもの(以下、「検出用スルー画像PL」とする)が検出用画像格納領域230bに格納される。検出用画像格納領域230bに格納される検出用スルー画像PLの例を図3に示す。   The detection image storage area 230b is a storage area for storing a detection image for performing face detection related to the face detection function. In the present embodiment, a VGA image stored as a live view Rexro image (through image) in the input image storage area 230a is converted into a luminance image (hereinafter referred to as “detection through image PL”). It is stored in the image storage area 230b. An example of the detection through image PL stored in the detection image storage area 230b is shown in FIG.

検出用画像格納領域230cは、顔検出機能にかかる顔検出をおこなうための、よりサイズの小さい検出用画像を格納する記憶領域である。本実施形態では、検出用画像格納領域230bに格納した検出用スルー画像PLをより小さいサイズ(すなわち、VGAより小さいサイズ)に縮小変換したもの(以下、検出用縮小画像PS」とする)が検出用画像格納領域230cに格納される。検出用画像格納領域230cに格納される検出用縮小画像PSの例を図3に示す。   The detection image storage area 230c is a storage area for storing a detection image having a smaller size for performing face detection related to the face detection function. In the present embodiment, a detection through image PL stored in the detection image storage area 230b is reduced and converted to a smaller size (that is, a size smaller than VGA) (hereinafter referred to as a detection reduced image PS). Stored in the image storage area 230c. An example of the reduced detection image PS stored in the detection image storage area 230c is shown in FIG.

本実施形態では、この検出用画像格納領域230cに格納された検出用縮小画像PSによって、従来の顔検出技術で用いられているような画像ピラミッドを作成する。したがって、検出用画像格納領域230cには、VGAより小さいサイズとして、例えば、320×240のQVGA(Quarter-VGA)画像が格納されるとともに、図3に示すように、画像ピラミッドを作成する処理の進行に応じて、QVGA画像をさらに縮小した画像が順次格納される。ここでは、QVGAサイズの検出用縮小画像PSを検出用縮小画像PSとし、以下、縮小をおこなった回数に応じて、検出用縮小画像PS、検出用縮小画像PS…、検出用縮小画像PSと表す。 In the present embodiment, an image pyramid as used in the conventional face detection technology is created from the reduced detection image PS stored in the detection image storage area 230c. Therefore, for example, a 320 × 240 QVGA (Quarter-VGA) image is stored in the detection image storage area 230c as a size smaller than the VGA, and an image pyramid is created as shown in FIG. As the progress progresses, images obtained by further reducing the QVGA image are sequentially stored. Here, the detection reduced image PS of QVGA size is defined as a detection reduced image PS 0, and hereinafter, the detection reduced image PS 1 , the detection reduced image PS 2 ..., The detection reduced image according to the number of times of reduction. It is expressed as PS n .

次に、データ処理部200の記憶部250についての詳細を、図2(b)を参照して説明する。ここでは、デジタルカメラ1の顔検出機能にかかる処理に必要となる記憶部250の構成を説明する。つまり、デジタルカメラ1で顔検出機能を実現するために、本実施形態にかかる記憶部250には、図2(b)に示すような記憶領域が確保される。   Next, details of the storage unit 250 of the data processing unit 200 will be described with reference to FIG. Here, the configuration of the storage unit 250 necessary for processing related to the face detection function of the digital camera 1 will be described. That is, in order to realize the face detection function with the digital camera 1, a storage area as shown in FIG. 2B is secured in the storage unit 250 according to the present embodiment.

図示するように、記憶部250には、参照用画像格納領域250a、参照用画像格納領域250b、プログラム格納領域250c、などの記憶領域が用意され、各記憶領域に応じた画像データが格納される。   As illustrated, the storage unit 250 includes storage areas such as a reference image storage area 250a, a reference image storage area 250b, and a program storage area 250c, and stores image data corresponding to each storage area. .

参照用画像格納領域250aおよび参照用画像格納領域250bは、顔検出をおこなう際に参照される参照用画像を格納する記憶領域である。ここで、本実施形態にかかる顔検出機能は、従来の顔検出技術と同様、予め用意されている顔画像を参照画像とし、検出用画像上に設定したサブウィンドウの画像と参照画像が示す特徴部分とを比較することで、検出用画像上に顔に相当する部分があるか検索する。参照用画像格納領域250aおよび参照用画像格納領域250bは、このときに参照される顔画像を予め格納したものである。   The reference image storage area 250a and the reference image storage area 250b are storage areas for storing reference images that are referred to when face detection is performed. Here, the face detection function according to the present embodiment uses the face image prepared in advance as a reference image, as in the conventional face detection technology, and the feature portion indicated by the sub window image and the reference image set on the detection image. Is searched for a portion corresponding to the face on the detection image. The reference image storage area 250a and the reference image storage area 250b are prestored face images to be referred to at this time.

本実施形態では、顔検出の際に参照される顔画像を示した参照用画像を2種類用意し、それぞれ参照用画像格納領域250aと参照用画像格納領域250bに格納する。ここで、参照用画像格納領域250aに格納されている参照用画像の例を図4(a)に示す。   In the present embodiment, two types of reference images indicating face images to be referred to in face detection are prepared and stored in the reference image storage area 250a and the reference image storage area 250b, respectively. An example of the reference image stored in the reference image storage area 250a is shown in FIG.

図示するように、参照用画像格納領域250aには、例えば、検出時に設定されるサブウィンドウサイズ(例えば、24×24ドット)の顔画像が複数格納される。ここで、参照用画像格納領域250aに格納される参照用画像は、図4(a)に示すような、サブウィンドウのほぼ全体を顔部分(特徴部分)が占めるような画像であるものとする。このような画像は、従来の顔検出技術で通常用いられている参照用画像(以下、「通常参照画像FL」とする)である。   As shown in the drawing, in the reference image storage area 250a, for example, a plurality of face images having a sub window size (for example, 24 × 24 dots) set at the time of detection are stored. Here, it is assumed that the reference image stored in the reference image storage area 250a is an image in which the face portion (feature portion) occupies almost the entire subwindow as shown in FIG. Such an image is a reference image (hereinafter referred to as “normal reference image FL”) that is normally used in the conventional face detection technology.

参照用画像格納領域250bには、このような通常参照画像FLとは異なる種類の参照用画像が格納される。本実施形態では、通常参照画像FLと同じ顔画像であるが、顔部分(特徴部分)の大きさが通常参照画像FLよりも小さい画像(以下、「縮小参照画像FS」とする)が参照用画像格納領域250bに格納されるものとする。このような縮小参照画像FSの例を図4(b)に示す。   In the reference image storage area 250b, a different type of reference image from the normal reference image FL is stored. In the present embodiment, an image that is the same face image as the normal reference image FL, but whose face part (feature part) is smaller than the normal reference image FL (hereinafter referred to as “reduced reference image FS”) is for reference. It is assumed that it is stored in the image storage area 250b. An example of such a reduced reference image FS is shown in FIG.

図示するように、縮小参照画像FSは、通常参照画像FLと同様に、サブウィンドウサイズと同サイズ(例えば、24×24ドット)の画像であり、図示するように、顔全体を示す部分のすべてが領域の中心部で示されている画像である。参照用画像格納領域250bには、このような縮小参照画像FSが複数格納されている。   As shown in the figure, the reduced reference image FS is an image having the same size as the sub-window size (for example, 24 × 24 dots), like the normal reference image FL. It is the image shown by the center part of the area | region. A plurality of such reduced reference images FS are stored in the reference image storage area 250b.

プログラム格納領域250cは、制御部210が実行する動作プログラムを格納する記憶領域である。   The program storage area 250c is a storage area for storing an operation program executed by the control unit 210.

本実施形態では、記憶部250のプログラム格納領域250cに格納されている動作プログラムを制御部210が実行することで、後述する各処理が実現されるが、この場合に制御部210によって実現される機能を、図5を参照して説明する。   In the present embodiment, the control unit 210 executes the operation program stored in the program storage area 250c of the storage unit 250, thereby realizing each process described later. In this case, the control unit 210 implements each process. The function will be described with reference to FIG.

図5は、本発明にかかる機能を実行する際に制御部210によって実現される機能を示した機能ブロック図である。なお、図5に示す機能は、顔検出機能を実行する際に必要となる機能を示すものである。   FIG. 5 is a functional block diagram showing functions realized by the control unit 210 when executing the functions according to the present invention. Note that the functions shown in FIG. 5 indicate functions that are required when the face detection function is executed.

すなわち、撮像時のファインダ画面(ライブビュー画面)上で顔検出をおこなう際、制御部210によって図5に示すような機能が実現される。図示するように、制御部210は、画像変換部211、対象画像選択部212、識別領域設定部213、第1の識別器214、第2の識別器215、識別結果判定部216、出力処理部217、などとして機能する。   That is, when performing face detection on the finder screen (live view screen) at the time of imaging, the function shown in FIG. As illustrated, the control unit 210 includes an image conversion unit 211, a target image selection unit 212, an identification area setting unit 213, a first classifier 214, a second classifier 215, an identification result determination unit 216, and an output processing unit. 217, etc.

画像変換部211は、イメージセンサ部120がライブビュー用に出力したレックスルー画像を、顔検出処理で用いる画像に変換する。すなわち、入力画像格納領域230aに格納されたVGA画像を輝度画像に変換し、検出用スルー画像PLとして検出用画像格納領域230bに格納するとともに、検出用スルー画像PLをQVGAサイズ以下の検出用縮小画像PSに変換して検出用画像格納領域230cに格納する。なお、画像変換部211による画像変換は、既知の画像変換アルゴリズムなどによってなされるものとする。   The image conversion unit 211 converts the Rexro image output by the image sensor unit 120 for live view into an image used in face detection processing. That is, the VGA image stored in the input image storage area 230a is converted into a luminance image, stored as a detection through image PL in the detection image storage area 230b, and the detection through image PL is reduced for detection less than the QVGA size. The image is converted into an image PS and stored in the detection image storage area 230c. Note that the image conversion by the image conversion unit 211 is performed by a known image conversion algorithm or the like.

対象画像選択部212は、顔検出にかかる処理対象となる画像を選択する。すなわち、検出用画像格納領域230bおよび検出用画像格納領域230cに格納された検出用画像のいずれかを処理対象画像として選択する。   The target image selection unit 212 selects an image to be processed for face detection. That is, one of the detection images stored in the detection image storage area 230b and the detection image storage area 230c is selected as a processing target image.

識別領域設定部213は、対象画像選択部212が選択した画像上で、顔部分を識別するための識別領域(サブウィンドウ)を設定する。本実施形態では、24×24ドットのサブウィンドウが選択された画面上に設定されるものとする。また、識別領域設定部213は、検出用縮小画像PSで設定したサブウィンドウで顔部分が検出された場合、検出用スルー画像PL上でサブウィンドウを設定するための拡張領域を設定する。   The identification area setting unit 213 sets an identification area (subwindow) for identifying a face portion on the image selected by the target image selection unit 212. In this embodiment, it is assumed that a 24 × 24 dot sub-window is set on the selected screen. Further, when a face portion is detected in the subwindow set in the detection reduced image PS, the identification area setting unit 213 sets an extension area for setting the subwindow on the detection through image PL.

第1の識別器214は、識別領域設定部213が設定したサブウィンドウの画像と、参照用画像格納領域250bに格納されている縮小参照画像FS(小サイズ画像)とを比較し、当該サブウィンドウの画像が顔部分を示すものであるか否かを識別する。   The first discriminator 214 compares the subwindow image set by the discrimination area setting unit 213 with the reduced reference image FS (small size image) stored in the reference image storage area 250b, and the image of the subwindow. Identifies whether or not indicates a face portion.

第2の識別器215は、識別領域設定部213が設定したサブウィンドウの画像と、参照用画像格納領域250aに格納されている通常参照画像FL(通常サイズ画像)とを比較し、当該サブウィンドウの画像が顔部分を示すものであるか否かを識別する。   The second classifier 215 compares the image of the subwindow set by the identification area setting unit 213 with the normal reference image FL (normal size image) stored in the reference image storage area 250a, and the image of the subwindow. Identifies whether or not indicates a face portion.

本実施形態にかかる第1の識別器214および第2の識別器215は、いずれも既知の顔検出識別器のアルゴリズム(例えば、ニューラルネット(NN)、アダブースト(Adaboost)、サポートベクターマシン(SVM)、など)を用いて顔部分の識別をおこなうものとする。なお、このようなアルゴリズムによって顔検出をおこなう場合において、参照用画像として顔部分以外の画像も用いる場合は、必要に応じて参照用画像格納領域250aや参照用画像格納領域250bに格納されているものとする。   The first classifier 214 and the second classifier 215 according to the present embodiment are all known face detection classifier algorithms (for example, neural network (NN), Adaboost, support vector machine (SVM)). , Etc.) to identify the face portion. When performing face detection using such an algorithm, if an image other than the face portion is used as the reference image, it is stored in the reference image storage area 250a or the reference image storage area 250b as necessary. Shall.

識別結果判定部216は、第1の識別器214および第2の識別器215による識別結果を統合することで、入力されたレックスルー画像上に示されている顔部分の位置を判定する。   The identification result determination unit 216 determines the position of the face portion shown on the input Rexroh image by integrating the identification results obtained by the first classifier 214 and the second classifier 215.

出力処理部217は、識別結果判定部216が判定した顔部分の位置に基づいて、表示部310に表示するレックスルー画像(ライブビュー画像)上に、検出された顔部分を明示する表示をおこなう。ここでは、例えば、図6に示すような矩形の枠画像を、検出された顔部分の位置に表示する。   Based on the position of the face portion determined by the identification result determination unit 216, the output processing unit 217 displays the detected face portion clearly on the Rexroux image (live view image) displayed on the display unit 310. . Here, for example, a rectangular frame image as shown in FIG. 6 is displayed at the position of the detected face portion.

以上が顔検出機能の動作時に制御部210によって実現される機能である。なお、本実施形態では、制御部210がプログラムを実行することによる論理的処理で上述した各機能が実現されるものとするが、これらの機能を、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などのハードウェアによって構成してもよい。この場合、図5に示した機能のうち、画像処理にかかる機能については、画像処理部220によって実現されてもよい。   The above is the function realized by the control unit 210 during the operation of the face detection function. In the present embodiment, each function described above is realized by a logical process performed by the control unit 210 executing a program. These functions are, for example, ASIC (Application Specific Integrated Circuit). Or an integrated circuit). In this case, among the functions shown in FIG. 5, the functions related to image processing may be realized by the image processing unit 220.

以上説明したデジタルカメラ1の構成は、本発明を実現するために必要な構成であり、デジタルカメラとしての基本機能や種々の付加機能に用いられる構成は必要に応じて備えられているものとする。特に、顔検出機能にかかる構成については、本実施形態では、検出された顔部分に枠画像を表示するまでに必要なものを示すが、デジタルカメラ1の顔検出機能には、このように検出された顔位置に合わせた撮像動作なども含まれているものとする。つまり、検出された顔部分にピントや露出を合わせて撮像する動作に必要な構成や処理などは既知の顔検出技術を用いて適宜実現されるものとし、本実施形態ではその説明は省略する。   The configuration of the digital camera 1 described above is a configuration necessary for realizing the present invention, and a configuration used for a basic function and various additional functions as a digital camera is provided as necessary. . In particular, regarding the configuration related to the face detection function, in this embodiment, what is necessary until a frame image is displayed on the detected face portion is shown. In the face detection function of the digital camera 1, detection is performed in this way. It is also assumed that an imaging operation in accordance with the face position is included. That is, it is assumed that a configuration and processing necessary for an operation of capturing an image by adjusting the focus and exposure to the detected face part are appropriately realized using a known face detection technique, and description thereof is omitted in the present embodiment.

このような構成のデジタルカメラ1による動作を以下に説明する。ここでは、顔検出機能を用いて撮像する際にデジタルカメラ1で実行される「顔検出処理」を、図7に示すフローチャートを参照して説明する。この顔検出処理は、例えば、デジタルカメラ1の使用者が操作部330を操作することで、デジタルカメラ1の顔検出機能を有効にしたことを契機に開始されるものとする。   The operation of the digital camera 1 having such a configuration will be described below. Here, “face detection processing” executed by the digital camera 1 when imaging using the face detection function will be described with reference to the flowchart shown in FIG. This face detection process is started when the user of the digital camera 1 activates the face detection function of the digital camera 1 by operating the operation unit 330, for example.

処理が開始されると、画像変換部211は、入力画像格納領域230aに格納された入力画像(VGAのレックスルー画像)を取り込み(ステップS101)、同サイズ(すなわち、VGA)の輝度画像に変換し、検出用スルー画像PLとして検出用画像格納領域230bに格納する(ステップS102)。   When the process is started, the image conversion unit 211 captures the input image (VGA Rexro image) stored in the input image storage area 230a (step S101), and converts it into a luminance image of the same size (that is, VGA). Then, it is stored in the detection image storage area 230b as a detection through image PL (step S102).

画像変換部211は、ステップS101で検出用画像格納領域230bに格納した検出用スルー画像PLのサイズをVGAからQVGAに変換し、検出用縮小画像PSとして検出用画像格納領域230cに格納する(ステップS103)。   The image conversion unit 211 converts the size of the detection through image PL stored in the detection image storage area 230b in step S101 from VGA to QVGA, and stores it as a detection reduced image PS in the detection image storage area 230c (step S101). S103).

このようにして、入力画像と同サイズ(例えば、VGA)の検出用画像と、縮小したサイズ(例えば、QVGA)の検出用画像が生成されると、画像変換部211は、その旨を対象画像選択部212に通知する。対象画像選択部212は、画像変換部211からの通知に応じて、「拡大方向顔検出処理(1)」と「拡大方向顔検出処理(2)」を順次実行する(ステップS200、ステップS300)。   When the detection image having the same size (for example, VGA) as the input image and the detection image having the reduced size (for example, QVGA) are generated in this way, the image conversion unit 211 notifies the target image. Notify the selection unit 212. The target image selection unit 212 sequentially executes “enlargement direction face detection process (1)” and “enlargement direction face detection process (2)” in response to the notification from the image conversion unit 211 (steps S200 and S300). .

ここで、拡大方向顔検出とは、縮小した検出用画像(検出用縮小画像PS)上で、縮小参照画像FSを用いた顔識別によって顔検出をおこない、検出された位置に相当する検出用スルー画像PL上の位置において、通常参照画像FLを用いた顔識別をおこなうものである。すなわち、処理の前段において縮小サイズ画像を用いた顔検出をおこなって顔位置の推定をおこなった後に、その結果に基づき、画像サイズが拡大方向となる通常サイズの画像上で顔検出を後段でおこなう。この場合の前段にかかる処理が「拡大方向顔検出処理(1)」であり、後段にかかる処理が「拡大方向顔検出処理(2)」である。   Here, the enlargement direction face detection means that a face is detected by face identification using the reduced reference image FS on the reduced detection image (detection reduced image PS), and the detection through corresponding to the detected position is performed. Face recognition using the normal reference image FL is performed at a position on the image PL. That is, after face detection using a reduced size image is performed in the first stage of processing and the face position is estimated, face detection is performed in the subsequent stage based on the result on a normal size image whose image size is the enlargement direction. . In this case, the process in the former stage is “enlargement direction face detection process (1)”, and the process in the latter stage is “enlargement direction face detection process (2)”.

ここで実行される「拡大方向顔検出処理(1)」を、図8に示すフローチャートを参照して説明する。   The “enlargement direction face detection process (1)” executed here will be described with reference to the flowchart shown in FIG.

上述したように、拡大方向顔検出処理の前段では、縮小した検出用画像を用いるので、対象画像選択部212は、検出用画像格納領域230cに格納されている、QVGAに縮小された検出用縮小画像PSを対象画像として選択し、制御部210のRAMなどに展開されるワークエリアに読み出す(ステップS201)。   As described above, since the reduced detection image is used in the preceding stage of the enlargement direction face detection process, the target image selection unit 212 stores the detection reduction reduced to QVGA stored in the detection image storage area 230c. The image PS is selected as a target image and read out to a work area developed in the RAM of the control unit 210 (step S201).

対象画像選択部212は、対象画像を読み出すと、その旨を識別領域設定部213に通知する。識別領域設定部213は、対象画像選択部212からの通知に応じ、ワークエリアに読み出された検出用縮小画像PSに、識別領域(サブウィンドウ)を設定する。本実施形態では、従来の顔検出技術と同様、対象画像上に、所定の大きさの識別領域を設定し、それを順次移動させながら、顔部分の検出をおこなう。よって、このような識別領域の移動においては、移動経路が予め規定されている。本実施形態では、例えば、図11(a)に示すように、画像の左上角部を開始位置とし、そこから識別領域SWを右方向に所定ステップずつ移動させる。識別領域SWが画像の右端に到達したら下方向に1ステップ分移動させた後に左方向に1ステップずつ移動させる。そして、識別領域SWが画像端部に到達する毎に、1ステップ分下方向に移動してから、逆方向に移動する動作を繰り返すことで、画像の全域に渡って識別領域SWを移動させる。   When the target image selection unit 212 reads the target image, the target image selection unit 212 notifies the identification region setting unit 213 to that effect. In response to the notification from the target image selection unit 212, the identification region setting unit 213 sets an identification region (subwindow) in the reduced detection image PS read to the work area. In the present embodiment, as in the conventional face detection technique, an identification area having a predetermined size is set on the target image, and the face portion is detected while sequentially moving the identification area. Therefore, in such movement of the identification area, a movement route is defined in advance. In the present embodiment, for example, as shown in FIG. 11A, the upper left corner of the image is set as the start position, and the identification area SW is moved to the right by a predetermined step from there. When the identification area SW reaches the right end of the image, it is moved downward by one step and then moved leftward by one step. Then, every time the identification area SW reaches the edge of the image, the identification area SW is moved over the whole area of the image by repeating the operation of moving downward by one step and then moving in the reverse direction.

したがって、本実施形態にかかる識別領域設定部213は、上述した識別開始位置(すなわち、画像左上角部)に、例えば、24×24ドットの大きさとなる識別領域SWを設定し(ステップS202)、設定した識別領域SWにおいて検出用縮小画像PSの切り出しをおこなう(ステップS203)。   Therefore, the identification area setting unit 213 according to the present embodiment sets, for example, an identification area SW having a size of 24 × 24 dots at the above-described identification start position (that is, the upper left corner of the image) (step S202). The detection reduced image PS is cut out in the set identification area SW (step S203).

識別領域設定部213は、設定した識別領域SWの画像切り出しをおこなうと、切り出した画像を第2の識別器215に入力する。上述したように、第2の識別器215は、例えば、ニューラルネットなどの顔識別アルゴリズムを用いて、参照用画像格納領域250bに格納されている縮小参照画像FSと入力画像との比較から、当該入力画像が顔部分を示しているか識別する。したがって、第2の識別器215は、図4(b)に示したような縮小参照画像FSを用いて、検出用縮小画像PSから切り出された入力画像についての顔識別をおこなう(ステップS204)。   The identification area setting unit 213 inputs the clipped image to the second classifier 215 when the image of the set identification area SW is cut out. As described above, the second classifier 215 uses, for example, a face identification algorithm such as a neural network to compare the reduced reference image FS stored in the reference image storage area 250b with the input image. Identify whether the input image shows a face. Accordingly, the second discriminator 215 performs face identification on the input image cut out from the detection reduced image PS using the reduced reference image FS as shown in FIG. 4B (step S204).

ここで、例えば、顔識別アルゴリズムとしてニューラルネットを採用した場合、第2の識別器215は、顔の場合は1、非顔の場合は−1となるような教師信号を出力する。このような教師信号は、既知のニューラルネット技術に基づくものであり、第2の識別器215(第1の識別器214)の学習による重み付けがおこなわれることで、随時設定される。   Here, for example, when a neural network is employed as the face identification algorithm, the second discriminator 215 outputs a teacher signal that is 1 for a face and −1 for a non-face. Such a teacher signal is based on a known neural network technique, and is set as needed by weighting by learning of the second discriminator 215 (first discriminator 214).

このようなニューラルネットを顔検出アルゴリズムとした場合、ステップS204の顔識別において、入力画像が顔を示すのであれば1に近い値が出力され、非顔であれば−1に近い値が出力されることになる。第2の識別器215は、採用している顔検出アルゴリズムに応じた出力信号を生成し、識別結果判定部216に出力する。   When such a neural network is used as a face detection algorithm, a value close to 1 is output if the input image shows a face in face identification in step S204, and a value close to -1 is output if it is a non-face. Will be. The second discriminator 215 generates an output signal corresponding to the employed face detection algorithm and outputs the output signal to the discrimination result determination unit 216.

識別結果判定部216は、第2の識別器215からの出力に基づいて、識別領域SWで検出用縮小画像PSから切り出された画像で顔が検出されたか否かを判別する(ステップS205)。   Based on the output from the second discriminator 215, the discrimination result determination unit 216 discriminates whether or not a face is detected in the image cut out from the detection reduced image PS in the discrimination area SW (step S205).

顔が検出された場合(ステップS205:Yes)、識別結果判定部216は、当該識別領域SWの位置を、例えば、ワークエリア上に記録する(ステップS206)。ここでは、例えば、図11(b)に示すような検出結果テーブルがワークエリア上に作成され、検出用縮小画像PS上で、縮小参照画像FSに基づいて顔が検出された識別領域SWの位置が記録される。この場合、例えば、識別領域SWの中心位置を示す検出用縮小画像PS上の座標が、識別領域SWの位置情報として記録される。   When a face is detected (step S205: Yes), the identification result determination unit 216 records the position of the identification area SW on, for example, a work area (step S206). Here, for example, a detection result table as shown in FIG. 11B is created on the work area, and the position of the identification region SW where the face is detected based on the reduced reference image FS on the detection reduced image PS. Is recorded. In this case, for example, coordinates on the detection reduced image PS indicating the center position of the identification area SW are recorded as position information of the identification area SW.

一方、第2の識別器215の識別結果が、当該識別領域SWは顔ではない場合(ステップS205:No)、識別結果判定部216は、識別領域SWの位置情報の記録をおこなわない。   On the other hand, when the identification result of the second classifier 215 indicates that the identification area SW is not a face (step S205: No), the identification result determination unit 216 does not record the position information of the identification area SW.

このようにして、識別結果判定部216が識別結果の判定をおこなうと、その旨を識別領域設定部213に通知する。識別領域設定部213は、識別結果判定部216からの通知に応じて、現在設定した識別領域SWの位置が、検出用縮小画像PS上の識別終了位置であるか否かを判別し(ステップS207)、終了位置での識別がおこなわれるまで(ステップS207:No)、識別領域SWを1ステップずつ移動させる(ステップS208)。ここで、検出用縮小画像PSでの顔識別における識別領域SWの移動ステップは、例えば、4ドット分であるものとする。つまり、拡大方向顔検出処理(1)では、図11(a)に示したような経路で識別領域SWを4ドットずつ移動させながら、各識別領域SWに対応する部分を切り出し、縮小参照画像FSを用いた顔識別をおこなう(ステップS203〜ステップS206)。   In this way, when the identification result determination unit 216 determines the identification result, it notifies the identification region setting unit 213 to that effect. In response to the notification from the identification result determination unit 216, the identification region setting unit 213 determines whether or not the currently set position of the identification region SW is the identification end position on the detection reduced image PS (step S207). ) Until the identification at the end position is performed (step S207: No), the identification area SW is moved step by step (step S208). Here, the movement step of the identification area SW in the face identification in the detection reduced image PS is assumed to be, for example, 4 dots. That is, in the enlargement direction face detection process (1), while moving the identification area SW by 4 dots along the route as shown in FIG. 11A, a portion corresponding to each identification area SW is cut out, and the reduced reference image FS is extracted. Is used to identify the face (steps S203 to S206).

そして、終了位置での顔検出動作がおこなわれると(ステップS207:Yes)、本処理を終了し、図7に示す顔検出処理のフローに戻る。ここでは、拡大方向顔検出処理の前段が終了したので、後段の「拡大方向顔検出処理(2)」が続けて実行される。この拡大方向顔検出処理(2)を、図9に示すフローチャートを参照して説明する。   Then, when the face detection operation at the end position is performed (step S207: Yes), this process ends, and the process returns to the face detection process flow shown in FIG. Here, since the first stage of the enlargement direction face detection process has been completed, the subsequent "enlargement direction face detection process (2)" is continuously executed. The enlargement direction face detection process (2) will be described with reference to the flowchart shown in FIG.

処理が開始されると、識別結果判定部216は、前段の拡大方向顔検出処理(1)(ステップS200)の処理で、顔が検出されたか否かを判別する(ステップS301)。上述したように、拡大方向顔検出処理(1)においては、顔が検出された場合、その識別領域SWの位置情報がワークエリアに記録されるので、識別領域SWの位置情報が記録されているか否かをみることで、前段の処理で顔が検出されたか判別することができる。   When the process is started, the identification result determination unit 216 determines whether or not a face has been detected in the preceding enlargement direction face detection process (1) (step S200) (step S301). As described above, in the enlargement direction face detection process (1), when the face is detected, the position information of the identification area SW is recorded in the work area, so whether the position information of the identification area SW is recorded. By checking whether or not, it is possible to determine whether or not a face has been detected in the previous processing.

ここで、本実施形態にかかる拡大方向顔検出処理は、顔部分の小さい縮小参照画像FSを用いた顔検出を、本来のライブビュー画像よりもサイズの小さい検出用縮小画像PS上でまずおこなうことで、入力画像上で顔と推定される部分のあたりをつけておく。そして、実際のライブビュー画像と同サイズの検出用スルー画像PLについては、画像全域で顔識別をおこなわず、あたりをつけた位置の周辺で顔識別をおこなう。   Here, in the enlargement direction face detection processing according to the present embodiment, face detection using the reduced reference image FS with a small face portion is first performed on the detection reduced image PS that is smaller in size than the original live view image. Then, a portion that is estimated to be a face on the input image is given. For the detection through image PL having the same size as that of the actual live view image, face identification is not performed on the entire image area, but face identification is performed around the hit position.

本実施形態ではこのような処理手順としているので、上述した拡大方向顔検出処理(1)は、入力画像上で顔と推定される部分のあたりをつけるまでの処理ということになる。そして、現在実行されている拡大方向顔検出処理(2)は、前段の処理であたりをつけた位置で詳細な顔識別動作をおこなうものである。よって、拡大方向顔検出処理(1)において、顔と推定される部分が検出されなかった場合、拡大方向顔検出処理(2)をおこなう必要はない。よって、前段の拡大方向顔検出処理(1)(ステップS200)で顔の検出がなされなかった場合(ステップS301:No)、そのまま本処理を終了する。この場合、拡大方向顔検出処理(2)(ステップS300)は、実質的に実行されなかったことになる。   In the present embodiment, such a processing procedure is used, and thus the above-described enlargement direction face detection process (1) is a process up to hitting a portion estimated to be a face on the input image. The enlargement direction face detection process (2) that is currently being performed is a detailed face identification operation at the position hit in the previous process. Therefore, in the enlargement direction face detection process (1), when the part estimated to be a face is not detected, it is not necessary to perform the enlargement direction face detection process (2). Therefore, when the face is not detected in the preceding enlargement direction face detection process (1) (step S200) (step S301: No), this process is terminated as it is. In this case, the enlargement direction face detection process (2) (step S300) is not substantially executed.

一方、拡大方向顔検出処理(1)で顔が検出されている場合(ステップS301:Yes)、識別結果判定部216は、その旨を対象画像選択部212に通知する。対象画像選択部212は、識別結果判定部216からの通知に応じて、VGAサイズの検出用スルー画像PLを処理対象として選択し、検出用画像格納領域230bからワークエリアに読み出す(ステップS302)。   On the other hand, when a face is detected in the enlargement direction face detection process (1) (step S301: Yes), the identification result determination unit 216 notifies the target image selection unit 212 to that effect. In response to the notification from the identification result determination unit 216, the target image selection unit 212 selects the VGA size detection through image PL as a processing target, and reads it from the detection image storage area 230b to the work area (step S302).

検出用スルー画像PLを読み出すと、対象画像選択部212はその旨を識別領域設定部213に通知する。識別領域設定部213は、対象画像選択部212からの通知に応じて、VGAの検出用スルー画像PL上で顔検出動作をおこなう領域である絞込検出領域を設定する(ステップS303)。ここでは、図11(b)に示したワークエリア上の検出結果テーブルを参照することで、識別領域設定部213は、前段の拡大方向顔検出処理(1)において顔が検出された識別領域SWの位置(以下、「顔検出部分」とする)を認識する。   When the detection through image PL is read, the target image selection unit 212 notifies the identification region setting unit 213 to that effect. In response to the notification from the target image selection unit 212, the identification region setting unit 213 sets a narrowed detection region that is a region where a face detection operation is performed on the VGA detection through image PL (step S303). Here, by referring to the detection result table on the work area shown in FIG. 11B, the identification area setting unit 213 identifies the identification area SW in which the face has been detected in the preceding-stage enlargement direction face detection process (1). Is recognized (hereinafter referred to as “face detection portion”).

ここで、前段の拡大方向顔検出処理(1)では、QVGAに縮小した検出用縮小画像PSを処理対象としていたので、識別領域設定部213は、検出用縮小画像PSにおける顔検出部分の相対的な位置を求め、求めた相対位置に基づいて、ステップS302で読み出した検出用スルー画像PL上に絞込検出領域を設定する。つまり、検出用縮小画像PSの画像サイズであるQVGAは、実際のライブビュー画像のサイズであるVGAの各辺の長さを1/2にしたもの(面積比1/4)であるので、検出用縮小画像PSと検出用スルー画像PLは相似形である。よって、一方の検出用縮小画像PSと、そこで検出された顔検出部分との相対的な位置関係が求まれば、相似する検出用スルー画像PL上でも、顔検出部分にあたる位置を相対的な位置関係によって特定することができる。   Here, in the enlargement direction face detection process (1) in the previous stage, the detection reduced image PS reduced to QVGA is the processing target, so the identification region setting unit 213 performs relative detection of the face detection portion in the detection reduced image PS. A narrow detection area is set on the through image for detection PL read in step S302 based on the obtained relative position. That is, QVGA, which is the image size of the detection reduced image PS, is obtained by halving the length of each side of the VGA, which is the actual size of the live view image (area ratio 1/4). The reduced image PS for detection and the through image PL for detection are similar in shape. Therefore, if the relative positional relationship between one of the detection reduced images PS and the face detection portion detected there is obtained, the position corresponding to the face detection portion is also a relative position on the similar detection through image PL. Can be specified by relationship.

このような、検出用縮小画像PSと検出用スルー画像PLにおける位置関係を、図12を参照して説明する。ここでは、図12(a)に示すような撮像画像が得られている場合を例に説明する。本実施形態では、撮像画像の画像サイズはVGAであるので、図12(a)に例示する画像はVGAの検出用スルー画像PLである。このようなVGAサイズの画像上において、図12(a)に示すような大きさで人物の被写体が撮像されているものとする。ここでは、図示するように、画像のサイズに比べ、被写体となっている人物が比較的小さく写っている場合を想定する。   The positional relationship between the reduced detection image PS and the detection through image PL will be described with reference to FIG. Here, a case where a captured image as shown in FIG. 12A is obtained will be described as an example. In the present embodiment, since the image size of the captured image is VGA, the image illustrated in FIG. 12A is a VGA detection through image PL. It is assumed that a human subject is imaged in such a VGA size image as shown in FIG. Here, as shown in the figure, it is assumed that the person who is the subject is relatively small compared to the size of the image.

このような撮像画像(検出用スルー画像PL)を、QVGAの検出用縮小画像PSに縮小した例を図12(b)に示す。画像全体が縮小されているので、そこに示されている被写体の大きさも、図12(a)に示した検出用スルー画像PLと比べ、相対的に小さくなっている。   FIG. 12B shows an example in which such a captured image (detection through image PL) is reduced to a QVGA detection reduced image PS. Since the entire image is reduced, the size of the subject shown there is also relatively smaller than the detection through image PL shown in FIG.

このような検出用縮小画像PSに対し、上述した拡大方向顔検出処理(1)を実施した場合に設定される識別領域SWの例を図12(c)に示す。上述したように、拡大方向顔検出処理(1)における顔識別では、図4(b)に示すような縮小参照画像FSを用いて顔識別をおこなっている。本実施形態では、縮小参照画像FSのサイズを識別領域SWと同じサイズ(24×24ドット)としているので、識別領域SWと被写体の大きさが図12(c)に示すようなものである場合、例えば、図12(d)に示すように、識別領域SWの移動経路に応じた複数位置における識別領域SWで顔が検出されることになる。   FIG. 12C shows an example of the identification region SW set when the above-described enlargement direction face detection process (1) is performed on such a detection reduced image PS. As described above, in the face identification in the enlargement direction face detection process (1), the face identification is performed using the reduced reference image FS as shown in FIG. In the present embodiment, since the size of the reduced reference image FS is the same size (24 × 24 dots) as the identification area SW, the identification area SW and the size of the subject are as shown in FIG. For example, as shown in FIG. 12D, a face is detected in the identification area SW at a plurality of positions according to the movement path of the identification area SW.

ステップS303で検出用スルー画像PL上に設定する絞込検出領域は、このような複数の識別領域SWをまとめた領域ということになる。したがって、前段の拡大方向顔検出処理(1)において、複数の識別領域SWで顔検出がなされた場合、ステップS303で設定される絞込検出領域は、少なくとも、識別領域SWの大きさ(本例では24×24ドット)よりも大きい領域となる。このような絞込検出領域(以下、「絞込検出領域SS」とする)を検出用スルー画像PL上に設定した場合の例を図13(a)に示す。   The narrowed-down detection area set on the detection through image PL in step S303 is an area in which such a plurality of identification areas SW are collected. Therefore, when face detection is performed in a plurality of identification areas SW in the preceding enlargement direction face detection process (1), the narrowing detection area set in step S303 is at least the size of the identification area SW (this example) In this case, the area is larger than 24 × 24 dots. FIG. 13A shows an example in which such a narrowing detection region (hereinafter referred to as “narrowing detection region SS”) is set on the detection through image PL.

つまり、図12(b)に示したような検出用縮小画像PSで識別領域SWを設定し、図12(d)に示すような複数位置で顔検出されたときの識別領域SWを統合した絞込検出領域SSを、図12(a)に示した検出用スルー画像PLに設定すると、検出用スルー画像PLに現れている被写体画像と絞込検出領域SSとの大きさや位置の関係は図13(a)に示すようなものになる。   That is, the identification area SW is set with the detection reduced image PS as shown in FIG. 12B, and the identification area SW when the face detection is performed at a plurality of positions as shown in FIG. If the detection area SS is set to the detection through image PL shown in FIG. 12A, the relationship between the size and the position of the subject image appearing in the detection through image PL and the narrowing detection area SS is shown in FIG. As shown in (a).

このように設定された絞込検出領域SS付近を拡大して図13(b)に示す。図示するように、前段の拡大方向顔検出処理(1)で顔が検出された複数の識別領域SWを統合して検出用スルー画像PL上に設定すると、被写体の顔部分の周辺に絞込検出領域SSが設定されることになる。ここで、図9に戻り、拡大方向顔検出処理(2)の説明を続ける。   FIG. 13B shows an enlarged view of the vicinity of the narrowing detection area SS set in this way. As shown in the drawing, when a plurality of identification areas SW in which faces are detected in the preceding enlargement direction face detection process (1) are integrated and set on the detection through image PL, narrowing detection is performed around the face portion of the subject. The area SS is set. Here, returning to FIG. 9, the explanation of the enlargement direction face detection process (2) will be continued.

図13(a)に示すような絞込検出領域SSがステップS303で設定されると、識別領域設定部213は、絞込検出領域SS内に識別領域SWを設定する(ステップS304)。ここでは、上述した拡大方向顔検出処理(1)における識別領域SWと同じサイズ(つまり、24×24ドット)の識別領域SWを設定する。ここでも、図11(a)で示した移動経路と同様の経路で識別領域SWを移動させるが、その移動ステップは、例えば、2ドットであるものとする。   When the narrowing detection area SS as shown in FIG. 13A is set in step S303, the identification area setting unit 213 sets the identification area SW in the narrowing detection area SS (step S304). Here, an identification area SW having the same size (that is, 24 × 24 dots) as the identification area SW in the enlargement direction face detection process (1) described above is set. Here again, the identification area SW is moved along a route similar to the moving route shown in FIG. 11A, and the moving step is assumed to be 2 dots, for example.

ここでは、図11(a)において矢印で示した移動経路とするので、ステップS304においては、絞込検出領域SSの左上角部を開始位置として、24×24ドットの識別領域SWが設定される。識別領域設定部213は、このように設定した識別領域SWに対応する部分を検出用スルー画像PLから切り出し(ステップS305)、第1の識別器214に入力する。   Here, since the movement path is indicated by an arrow in FIG. 11A, in step S304, a 24 × 24 dot identification area SW is set with the upper left corner of the narrowing detection area SS as a start position. . The identification area setting unit 213 cuts out a part corresponding to the identification area SW set in this way from the detection through image PL (step S305), and inputs it to the first classifier 214.

上述したように、第1の識別器214は、図4(a)に示したような通常参照画像FLを参照して顔識別をおこなう識別器である。図4(a)に示したように、通常参照画像FLは、識別領域SWと同じサイズの画像全体に顔部分が占めているので、QVGAの検出用縮小画像PSからVGAの検出用スルー画像PLに拡大して顔識別をおこなう本処理では、このような通常参照画像FLを使って絞込検出領域SS内で顔識別をおこなうことができる。   As described above, the first discriminator 214 is a discriminator that performs face discrimination with reference to the normal reference image FL as shown in FIG. As shown in FIG. 4 (a), the normal reference image FL has a face portion that occupies the entire image having the same size as the identification area SW. Therefore, the VGA detection through image PL is converted from the QVGA detection reduced image PS. In this processing for performing face identification by enlarging the face, it is possible to perform face identification within the narrowed down detection area SS using such a normal reference image FL.

第1の識別器214も、第2の識別器215と同様、所定の顔識別アルゴリズムによって、切り出された画像が顔部分であるか識別し、識別結果を示す信号を識別結果判定部216に出力する。   Similarly to the second discriminator 215, the first discriminator 214 discriminates whether the clipped image is a face portion by a predetermined face discrimination algorithm, and outputs a signal indicating the discrimination result to the discrimination result determination unit 216. To do.

識別結果判定部216は、第1の識別器214からの出力信号に基づいて顔が検出されたか否かを判別する(ステップS307)。そして、検出された場合(ステップS307:Yes)は、その識別領域SWの検出用スルー画像PL上での位置情報をワークエリアに記録し(ステップS308)、検出されなければ記録しない。   The identification result determination unit 216 determines whether a face is detected based on the output signal from the first classifier 214 (step S307). If detected (step S307: Yes), the position information of the identification area SW on the detection through image PL is recorded in the work area (step S308), and if not detected, it is not recorded.

ここで、識別領域SWの位置情報をワークエリアに記録する場合は、図11(c)に示すような検出結果テーブルがワークエリア内に作成され、識別領域SWの位置情報を記録する。   Here, when the position information of the identification area SW is recorded in the work area, a detection result table as shown in FIG. 11C is created in the work area, and the position information of the identification area SW is recorded.

このようにして識別結果の判定をおこなうと、識別結果判定部216は、その旨を識別領域設定部213に通知する。識別領域設定部213は、識別結果判定部216からの通知に応じて、現在の識別領域SWが絞込検出領域SS内での識別終了位置にあたるか否かを判別する(ステップS309)。そして、顔識別をおこなった識別領域SWが、絞込検出領域SS内での識別終了位置となるまで(ステップS309:No)、順次識別領域SWを2ドットずつ移動させ(ステップS310)、上述したステップS305〜ステップS308の動作を繰り返す。   When the identification result is determined in this way, the identification result determination unit 216 notifies the identification region setting unit 213 to that effect. In response to the notification from the identification result determination unit 216, the identification region setting unit 213 determines whether or not the current identification region SW is an identification end position in the narrowing detection region SS (step S309). Then, until the identification area SW that has performed face identification reaches an identification end position in the narrowing detection area SS (step S309: No), the identification area SW is sequentially moved by 2 dots (step S310), and the above-described The operations in steps S305 to S308 are repeated.

つまり、図13(b)に示すように、識別領域SWを移動させながら各位置で顔識別をおこない、顔が検出されたときの識別領域SWの位置情報を記録する。ここで、図13(b)に示すように、VGAの検出用スルー画像PL上においては、24×24ドットの識別領域SWは、被写体の顔部分の大きさとほぼ同じであり、また、顔識別の際に参照される通常参照画像FLも、24×24ドットの全体を顔部分が占めているものなので、ほぼ1カ所の識別領域SWにおいて顔が検出されることとなる。   That is, as shown in FIG. 13B, face identification is performed at each position while moving the identification area SW, and position information of the identification area SW when a face is detected is recorded. Here, as shown in FIG. 13B, on the VGA detection through image PL, the identification area SW of 24 × 24 dots is substantially the same as the size of the face portion of the subject, and the face identification is performed. In the normal reference image FL referred to in this case, since the face portion occupies the entire 24 × 24 dots, the face is detected in almost one identification area SW.

このようにして、VGAサイズの検出用スルー画像PL上に設定した絞込検出領域SSの全域で顔識別動作をおこなうと(ステップS309:Yes)、識別領域設定部213は、その旨を対象画像選択部212に通知し、本処理を終了する。この場合、図7に示す顔検出処理のフローに戻る。   In this way, when the face identification operation is performed over the entire narrowed detection area SS set on the VGA size detection through image PL (step S309: Yes), the identification area setting unit 213 informs the target image. The selection unit 212 is notified, and this process ends. In this case, the process returns to the face detection process flow shown in FIG.

顔検出処理においては、拡大方向顔検出処理(2)に続いて「縮小方向顔検出処理」(ステップS400)が実行される。この縮小方向顔検出処理は、従来の顔検出技術において一般的におこなわれている処理であり、入力画像を順次縮小した画像ピラミッド(図3参照)を生成し、一定サイズの参照用画像を用いて各縮小画像上で顔識別をおこなうことで、画角内での顔部分の大きさが不定の入力画像上でも顔を識別できるようにしたものである。   In the face detection process, a “reduction direction face detection process” (step S400) is executed following the enlargement direction face detection process (2). This reduction direction face detection process is a process generally performed in the conventional face detection technique, and generates an image pyramid (see FIG. 3) in which input images are sequentially reduced, and uses a reference image of a certain size. Thus, by performing face identification on each reduced image, the face can be identified even on an input image in which the size of the face portion within the angle of view is indefinite.

このような、従来の顔検出処理においては、図4(a)に示したような通常参照画像FLを用い、QVGA以下のサイズに縮小した画像ピラミッドで顔識別をおこなうので、画角に対する顔部分の大きさが比較的大きい場合に、顔部分を検出することができる。このような縮小方向顔検出処理を、図10に示すフローチャートを参照して説明する。   In such a conventional face detection process, since the normal reference image FL as shown in FIG. 4A is used and face identification is performed with an image pyramid reduced to a size equal to or smaller than QVGA, the face portion with respect to the angle of view. The face portion can be detected when the size of is relatively large. Such reduction direction face detection processing will be described with reference to the flowchart shown in FIG.

処理が開始されると、対象画像選択部212は、拡大方向顔検出処理(2)(ステップS300)が実行されたか否かを判別する(ステップS401)。ここで、拡大方向顔検出処理(2)の実行後に本処理が実行された場合(ステップS401:Yes)、拡大方向顔検出処理(2)においては検出用スルー画像PL(VGA画像)が処理対象画像として用いられていたので、対象画像選択部212は、本処理での処理対象画像として、縮小されたQVGAの検出用縮小画像PSを選択し、検出用画像格納領域230cから読み出す(ステップS402)。   When the process is started, the target image selection unit 212 determines whether or not the enlargement direction face detection process (2) (step S300) has been executed (step S401). Here, when this process is executed after execution of the enlargement direction face detection process (2) (step S401: Yes), the detection through image PL (VGA image) is processed in the enlargement direction face detection process (2). Since the image is used as an image, the target image selection unit 212 selects the reduced QVGA detection reduced image PS as the processing target image in this processing, and reads it from the detection image storage area 230c (step S402). .

一方、拡大方向顔検出処理(1)において顔検出がなされなかった場合、上述したように、拡大方向顔検出処理(2)は実質的には実行されていない。このような場合(ステップS401:No)、拡大方向顔検出処理(1)の終了後に本処理が実行されていることになる。拡大方向顔検出処理(1)においては、検出用縮小画像PS(QVGA画像)が処理対象画像として用いられていたので、本処理で処理対象とする検出用縮小画像PSはすでに読み出されていることになる。   On the other hand, when the face detection is not performed in the enlargement direction face detection process (1), as described above, the enlargement direction face detection process (2) is not substantially executed. In such a case (step S401: No), this process is executed after the enlargement direction face detection process (1) is completed. In the enlargement direction face detection process (1), since the detection reduced image PS (QVGA image) is used as the processing target image, the detection reduced image PS to be processed in this process has already been read. It will be.

本処理において最初に読み出されたQVGAの検出用縮小画像PSを検出用縮小画像PSとする(図3参照)。処理対象とする検出用縮小画像PSの読み出しが完了すると、対象画像選択部212はその旨を識別領域設定部213に通知する。識別領域設定部213は、上述した拡大方向顔検出処理(1)と同様の処理により、検出用縮小画像PSの左上角部を開始位置として識別領域SWを設定し(ステップS403)、識別領域SWに対応する部分を検出用縮小画像PSから切り出す(ステップS404)。 The QVGA detection reduced image PS read first in this process is set as a detection reduced image PS 0 (see FIG. 3). When the reading of the detection reduced image PS 0 to be processed is completed, the target image selection unit 212 notifies the identification region setting unit 213 to that effect. The identification area setting unit 213 sets the identification area SW with the upper left corner of the detection reduced image PS 0 as the start position by the same process as the enlargement direction face detection process (1) described above (step S403). cutting out portions corresponding to the SW from the detection reduced image PS 0 (step S404).

ここで、識別領域設定部213は、上述した拡大方向顔検出処理(1)のときとは異なり、切り出した画像を第1の識別器214に入力する。よって、縮小したQVGAの検出用縮小画像PSから切り出された画像における顔識別が、図4(a)に示したような通常参照画像FLを用いておこなわれる(ステップS405)。 Here, unlike the above-described enlargement direction face detection process (1), the identification area setting unit 213 inputs the cut-out image to the first classifier 214. Thus, the face identification in the image extracted from the detection reduced image PS 0 of the reduced QVGA, usually performed using the reference image FL as shown in FIG. 4 (a) (step S405).

このようにして顔識別をおこなった第1の識別器214からの出力信号に基づいて、識別結果判定部216が識別結果を判定する(ステップS406)。ここで、顔が検出されれば(ステップS406:Yes)、現在の識別領域SWの位置情報をワークエリアに記録する(ステップS407)。識別結果判定部216は、このような判定動作をおこなうと、その旨を識別領域設定部213に通知する。   Based on the output signal from the first discriminator 214 that has performed face discrimination in this way, the discrimination result determination unit 216 determines the discrimination result (step S406). If a face is detected (step S406: Yes), the current position information of the identification area SW is recorded in the work area (step S407). When such a determination operation is performed, the identification result determination unit 216 notifies the identification region setting unit 213 to that effect.

識別領域設定部213は、識別結果が判定される毎に識別領域SWを2ドットずつ移動させる(ステップS408:No、ステップS409)。そして、各識別領域SWの位置においてステップS404〜ステップS405の処理をおこなうことで、検出用縮小画像PSの全域で顔識別をおこない、顔が検出された識別領域SWの位置情報をワークエリアに記録する。ここでは、図11(d)に示すような検出結果テーブルをワークエリアに作成して、顔が検出された識別領域SWの位置情報を記録する。 The identification area setting unit 213 moves the identification area SW by two dots every time the identification result is determined (step S408: No, step S409). Then, by performing the processing of step S404~ step S405 at the position of each identification area SW, performs face identification across the detection reduced image PS 0, the position information of the identification area SW a face has been detected in the work area Record. Here, a detection result table as shown in FIG. 11D is created in the work area, and the position information of the identification area SW where the face is detected is recorded.

検出用縮小画像PSの全域での顔識別動作が完了すると(ステップS408:Yes)、識別結果判定部216は、その旨を画像変換部211に通知する。画像変換部211は、識別結果判定部216からの通知に応じて、現在処理対象としている検出用縮小画像PSを縮小して検出用画像格納領域230cに格納する(ステップS410)。ここでは、例えば、検出用縮小画像PSのサイズを80%に縮小する。 When the face identification operation in the entire detection reduced image PS 0 is completed (step S408: Yes), the identification result determination unit 216 notifies the image conversion unit 211 to that effect. Image converting unit 211 in response to the notification from the identification result determining unit 216, and stores the detected image storage area 230c by reducing the detection reduced image PS 0 being currently processed (step S410). Here, for example, to reduce the size of the detected thumbnail images PS 0 to 80%.

画像変換部211は、このようにして画像を縮小すると、その旨を対象画像選択部212に通知する。対象画像選択部212は、画像変換部211からの通知に応じ、縮小された検出用縮小画像PSのサイズが、顔識別に用いる識別領域SWのサイズ(すなわち、24×24ドット)より大きいか否かを判別する(ステップS411)。   When the image conversion unit 211 reduces the image in this way, the image conversion unit 211 notifies the target image selection unit 212 to that effect. In response to the notification from the image conversion unit 211, the target image selection unit 212 determines whether the size of the reduced detection reduced image PS is larger than the size of the identification region SW used for face identification (that is, 24 × 24 dots). Is determined (step S411).

縮小後の検出用縮小画像PSのサイズが識別領域SWのサイズより大きければ(ステップS411:No)、縮小した検出用縮小画像PSにおいて、上述したステップS403〜ステップS409の処理をおこなう。つまり、縮小した検出用縮小画像PS上で識別領域SWを移動させながら、通常参照画像FL(図4(a))を用いた顔識別をおこなう。   If the size of the reduced detection image PS after reduction is larger than the size of the identification area SW (step S411: No), the above-described processing from step S403 to step S409 is performed on the reduced detection reduction image PS. That is, face recognition is performed using the normal reference image FL (FIG. 4A) while moving the identification area SW on the reduced detection reduced image PS.

そして、縮小した検出用縮小画像PSの全域で顔識別動作をおこなう毎に、検出用縮小画像PSをさらに縮小する(ステップS408:Yes、ステップS410)。つまり、縮小した検出用縮小画像PSのサイズが識別領域SWのサイズとなるまで、図3に示すような画像ピラミッドを順次生成し、各検出用縮小画像PS(x=0〜n)において、通常参照画像FLを用いた顔識別動作をおこなう。 Then, each time the face identification operation is performed in the entire area of the reduced detection reduced image PS, the detection reduced image PS is further reduced (step S408: Yes, step S410). In other words, image pyramids as shown in FIG. 3 are sequentially generated until the size of the reduced detection reduced image PS reaches the size of the identification area SW, and in each detection reduced image PS x (x = 0 to n), A face identification operation using the normal reference image FL is performed.

このような処理において、検出用縮小画像PS上で識別領域SWを移動させながら顔識別をおこなっているので、検出用縮小画像PS自体が識別領域SWより小さくなってしまうと識別動作をおこなえない。よって、縮小後の検出用縮小画像PSが識別領域SWより小さくなった時点(ステップS411:Yes)で本処理を終了し、図7に示す顔検出処理のフローに戻る。   In such processing, face recognition is performed while moving the identification area SW on the detection reduced image PS. Therefore, if the detection reduced image PS itself is smaller than the identification area SW, the identification operation cannot be performed. Therefore, when the reduced detection image PS after reduction becomes smaller than the identification area SW (step S411: Yes), this process ends, and the process returns to the face detection process flow shown in FIG.

顔検出処理(図7)においては、上述した、拡大方向顔検出処理(1)、拡大方向顔検出処理(2)、縮小方向顔検出処理、のそれぞれで顔検出されたときの識別領域SWの位置情報がワークエリアに記録されているので、識別結果判定部216は、そのうちの拡大方向顔検出処理(2)と縮小方向顔検出処理における検出結果を統合する(ステップS104)。   In the face detection process (FIG. 7), the identification area SW when the face is detected in each of the enlargement direction face detection process (1), the enlargement direction face detection process (2), and the reduction direction face detection process described above. Since the position information is recorded in the work area, the identification result determination unit 216 integrates the detection results in the enlargement direction face detection process (2) and the reduction direction face detection process (step S104).

つまり、撮像画像において、比較的小さく写っている顔部分を検出するための拡大方向顔検出処理(2)と、比較的大きく写っている顔部分を検出するための縮小方向顔検出処理の検出結果を統合することで、撮像画像内に様々な大きさで複数の顔が写っていても、それぞれを識別することができる。   That is, in the captured image, the detection result of the enlargement direction face detection process (2) for detecting a face portion that is relatively small and the reduction direction face detection process for detecting a face portion that is relatively large Can be identified even if a plurality of faces appear in various sizes in the captured image.

ここで、拡大方向顔検出処理(2)も縮小方向顔検出処理も実施された場合、同一の撮像画像について、複数の画像サイズで顔識別動作がおこなわれているので、仮に各検出結果のすべてを最終的に表示する枠画像で表すと、図14に示すように、顔部分に複数の枠が集中する。ここで、識別結果判定部216は、一定の割合で誤認識があることを考慮し、同じ位置において一定数以上の検出結果が得られている箇所が顔部分であると判定し、当該位置での検出結果を1つに統合することで、図6に示したような、ライブビュー画面とすることができる。   Here, when both the enlargement direction face detection process (2) and the reduction direction face detection process are performed, the face identification operation is performed with a plurality of image sizes for the same captured image. Is represented by a frame image to be finally displayed, as shown in FIG. 14, a plurality of frames are concentrated on the face portion. Here, the identification result determination unit 216 determines that a portion where a certain number or more of detection results are obtained at the same position is a face portion, considering that there is a misrecognition at a certain ratio, and at that position. By integrating these detection results into one, a live view screen as shown in FIG. 6 can be obtained.

この場合、識別結果判定部216は、統合した結果に基づく位置情報を出力処理部217に通知する。出力処理部217は、識別結果判定部216からの通知に応じて画像出力部240を制御することで、表示部310に、図6に示すような顔検出されたライブビュー画像が表示される(ステップS105)。   In this case, the identification result determination unit 216 notifies the output processing unit 217 of position information based on the integrated result. The output processing unit 217 controls the image output unit 240 in response to the notification from the identification result determination unit 216, so that a live view image with a face detected as shown in FIG. Step S105).

そして、ステップS101〜ステップS105の処理を、顔検出動作の終了イベントが発生するまで繰り返しおこなうことで(ステップS106:No)、ライブビュー画像上に顔が写っている場合は常に顔部分に枠画像が表示されることになる。   Then, by repeating the processing from step S101 to step S105 until the end event of the face detection operation occurs (step S106: No), the frame image is always displayed on the face portion when the face is reflected on the live view image. Will be displayed.

ここで、例えば、シャッタボタンの押下や撮影モードの終了などといった顔検出動作の終了イベントの発生とともに(ステップS106:Yes)、本処理を終了する。なお、シャッタボタンが押下された場合は、検出された顔部分に合わせた撮像動作や画像処理(例えば、合焦動作、露出調整、ホワイトバランス調整、など)をおこなうための処理が別途実行される。   Here, for example, when the end event of the face detection operation such as pressing of the shutter button or the end of the shooting mode is generated (step S106: Yes), this processing is ended. When the shutter button is pressed, processing for performing imaging operation and image processing (for example, focusing operation, exposure adjustment, white balance adjustment, etc.) according to the detected face portion is separately executed. .

以上説明したように、本発明を上記実施形態の如く適用することにより、人物を被写体として撮影した場合などにおいて、撮像画像中に現れている顔部分が比較的小さい場合であっても、確実に顔検出をおこなうことができる。   As described above, by applying the present invention as in the above-described embodiment, even when a person is photographed as a subject, the face portion appearing in the captured image is surely small. Face detection can be performed.

この場合において、従来からの顔検出技術で用いられている参照用画像に加え、このような通常の参照用画像よりも顔部分の小さい縮小参照画像を用意し、QVGAなどに縮小した画像上で、縮小参照画像を用いて顔識別をおこなうことで、撮像画像内で比較的小さく顔が写っているような場合でも、その位置のあたりをつけておくことができる。そして、あたりをつけることができた場合にのみ、実際のレックスルー画像と同じサイズの画像上で、通常の参照用画像を用いた顔識別をおこなう。   In this case, in addition to the reference image used in the conventional face detection technique, a reduced reference image having a face portion smaller than that of the normal reference image is prepared, and the image is reduced to QVGA or the like. By performing face identification using the reduced reference image, even when a relatively small face is shown in the captured image, it is possible to keep the position around that position. Then, only when the hit can be achieved, face identification using a normal reference image is performed on an image having the same size as the actual Rexroux image.

ここで、実際のサイズの画像で識別動作をおこなう際、その動作範囲を、あたりをつけた位置で絞り込んでいるので、少ない処理負荷によって顔検出をおこなうことができる。つまり、対象となる画像のサイズが大きくなる程、その全域で識別動作をおこなうと処理工数が増大し、処理負荷が高くなってしまうが、処理負荷の少ない縮小画像においてあたりをつけておくことで、実際に出力する画像のサイズが大きくても、絞り込んだ範囲で識別動作をおこなうので、全域で識別をおこなうよりも処理工数が低減する。この結果、画像サイズが大きくなっても処理速度を低下させずに顔検出をおこなうことができる。   Here, when the identification operation is performed with an image of an actual size, the operation range is narrowed down at the position where the hit is made, so that the face detection can be performed with a small processing load. In other words, as the size of the target image increases, the number of processing steps increases and the processing load increases when the identification operation is performed over the entire area. Even if the size of the image to be actually output is large, the identification operation is performed within the narrowed down range, so that the number of processing steps can be reduced as compared with the case where the entire area is identified. As a result, face detection can be performed without reducing the processing speed even when the image size increases.

ここで、対象画像を順次縮小させた画像ピラミッドで顔識別をおこなう従来の方法では、最初の対象画像上に現れている顔部分の大きさが、参照用画像に示されている顔部分の大きさよりも大きい場合でなければ顔検出をおこなうことができないが、上記実施形態で例示した拡大方向顔検出処理をおこなうことで、撮像画像に写っている顔が比較的小さい場合であっても、確実に検出することができる。   Here, in the conventional method of performing face identification with an image pyramid obtained by sequentially reducing the target image, the size of the face portion appearing on the first target image is the size of the face portion indicated in the reference image. However, the face detection cannot be performed unless it is larger than the above, but by performing the enlargement direction face detection processing exemplified in the above embodiment, even if the face shown in the captured image is relatively small, it is ensured. Can be detected.

さらに、このような拡大方向顔検出処理と、従来の処理と同様の縮小方向顔検出処理とをおこなうことで、例えば、撮像装置との距離が異なる複数の被写体を撮影した場合のように、様々な大きさの顔が1つの撮像画像上に現れている場合であっても、確実に顔検出をおこなうことができる。   Furthermore, by performing such an enlargement direction face detection process and a reduction direction face detection process similar to the conventional process, for example, when shooting a plurality of subjects with different distances from the imaging device, various Even when a large-sized face appears on one captured image, face detection can be reliably performed.

よって、従来の処理に拡大方向顔検出処理が増えることになるが、処理負荷の増加を最小限にして、より確実な顔検出を実現することができる。   Therefore, the enlargement direction face detection process is increased in comparison with the conventional process, but a more reliable face detection can be realized by minimizing an increase in processing load.

また、上記実施形態における拡大方向顔検出処理(1)では、処理負荷の低い縮小画像を用いており、ここであたりをつけることができなければ、非縮小画像を用いる拡大方向顔検出処理(2)を実行しない。つまり、撮像画像の内容に応じて必要な顔検出動作のみがおこなわれるので、処理負荷の増大を必要最小限に抑えつつ、より確実な顔検出を実現することができる。   In the enlargement direction face detection process (1) in the above-described embodiment, a reduced image with a low processing load is used. If a hit cannot be made here, an enlargement direction face detection process (2) using a non-reduced image. ) Is not executed. That is, since only the necessary face detection operation is performed according to the content of the captured image, more reliable face detection can be realized while suppressing an increase in processing load to a minimum.

上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。   The said embodiment is an example and the application range of this invention is not restricted to this. That is, various applications are possible, and all embodiments are included in the scope of the present invention.

まず、上記実施形態では、デジタルスチルカメラでの撮影時に顔検出する場合を例示したが、検出対象は顔に限られず任意である。すなわち、所望する検出対象に応じた参照用画像を用意することで、種々の対象の検出に本発明を適用することができる。   First, in the above-described embodiment, the case where a face is detected at the time of photographing with a digital still camera is illustrated, but the detection target is not limited to a face and is arbitrary. That is, the present invention can be applied to detection of various objects by preparing a reference image corresponding to a desired detection object.

この場合において、検出対象は撮像時の被写体に限られるものでもない。すなわち、入力画像に対象となる画像が含まれていればよいので、上記実施形態に例示したような、撮像時に検出をおこなうのではなく、撮像された画像を入力画像としてもよい。つまり、上記実施形態で示したデータ処理部200にかかる構成や機能は、撮像装置に搭載されている必要はなく、画像データを入力することのできる種々の装置として実現されることでもよい。   In this case, the detection target is not limited to the subject at the time of imaging. That is, since it is only necessary that the target image is included in the input image, the captured image may be used as the input image instead of performing detection at the time of imaging as exemplified in the above embodiment. That is, the configuration and functions of the data processing unit 200 shown in the above embodiment do not need to be installed in the imaging apparatus, and may be realized as various apparatuses that can input image data.

したがって、本発明にかかる構成や機能を備えた画像処理装置として実現することができる。このような画像処理装置は、本発明にかかる構成や機能を予め備えた専用装置として実現できることはもとより、例えば、パーソナルコンピュータなどといった汎用のコンピュータ装置によって実現されてもよい。   Therefore, it is realizable as an image processing apparatus provided with the structure and function concerning this invention. Such an image processing apparatus can be realized by a general-purpose computer apparatus such as a personal computer as well as being realized as a dedicated apparatus having the configuration and functions according to the present invention in advance.

この場合、上記実施形態で示した制御部210が実行したプログラムと同様のプログラムを汎用のコンピュータ装置に適用し、当該コンピュータ装置がそのプログラムを実行することで、本発明にかかる画像処理装置として機能させることができる。   In this case, a program similar to the program executed by the control unit 210 shown in the above embodiment is applied to a general-purpose computer apparatus, and the computer apparatus executes the program, thereby functioning as an image processing apparatus according to the present invention. Can be made.

また、本発明を上記で例示したデジタルカメラ1のような撮像装置で実現する場合も、本発明にかかる構成や機能を予め備えた撮像装置として提供できる他、プログラムを適用することにより、既存の撮像装置を本発明にかかる撮像装置として機能させることもできる。   Further, when the present invention is realized by an imaging apparatus such as the digital camera 1 exemplified above, it can be provided as an imaging apparatus having the configuration and functions according to the present invention in advance, and by applying a program, The imaging device can also function as the imaging device according to the present invention.

なお、上記実施形態では、撮像装置の例としてデジタルスチルカメラを示したが、撮像画像をデジタル処理できるものであれば、例えば、デジタルビデオカメラなどといった動画撮像をおこなう撮像装置に本発明を適用してもよい。また、撮像装置の形態は任意であり、単体のデジタルスチルカメラやデジタルビデオカメラで実現可能であることはもとより、これらと同様の撮像機能を備えた種々の電子機器(例えば、携帯電話など)に本発明を適用してもよい。   In the above embodiment, a digital still camera is shown as an example of an imaging device. However, the present invention is applied to an imaging device that performs moving image imaging, such as a digital video camera, as long as the captured image can be digitally processed. May be. In addition, the form of the image pickup apparatus is arbitrary, and it can be realized by a single digital still camera or digital video camera. In addition, the image pickup apparatus can be used in various electronic devices (for example, cellular phones) having the same image pickup function. The present invention may be applied.

このような場合においても、プログラムを適用することで、既存の装置を本発明にかかる撮像装置として機能させることができる。   Even in such a case, by applying the program, an existing apparatus can be caused to function as the imaging apparatus according to the present invention.

このようなプログラムの適用方法は任意であり、例えば、CD−ROMやメモリカードなどの記憶媒体に格納して適用できる他、例えば、インターネットなどの通信媒体を介して適用することもできる。   The application method of such a program is arbitrary. For example, the program can be applied by being stored in a storage medium such as a CD-ROM or a memory card, or can be applied via a communication medium such as the Internet.

また、上記実施形態において、画像サイズの例としてVGAとQVGAを示したが、これらは一例であり、画像サイズはこれらに限られるものではない。つまり、本発明にかかる処理をおこなう場合において、縮小変換する画像サイズは、入力された画像サイズよりも小さいサイズであればよい。また、入力画像と縮小画像のサイズ比も任意であり、処理負荷が最適化されるよう適宜設定すればよい。   Moreover, in the said embodiment, although VGA and QVGA were shown as an example of image size, these are examples and image size is not restricted to these. That is, when performing the processing according to the present invention, the image size to be reduced and converted may be smaller than the input image size. Further, the size ratio between the input image and the reduced image is also arbitrary, and may be set as appropriate so that the processing load is optimized.

また、対象画像の検出をおこなう際に採用するアルゴリズムも任意であり、所望する対象を識別することができるのであれば、上記実施形態で示したニューラルネット、アダブースト、サポートベクターマシン、などに限られるものではない。   Also, the algorithm employed when detecting the target image is arbitrary, and is limited to the neural network, Adaboost, support vector machine, etc. shown in the above embodiment as long as the desired target can be identified. It is not a thing.

本発明の実施形態にかかるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera concerning embodiment of this invention. 図1に示す画像メモリおよび記憶部を説明するための図であり、(a)は画像メモリに規定される記憶領域の例を示し、(b)は記憶部に規定される記憶領域の例を示す。FIG. 2 is a diagram for explaining the image memory and the storage unit illustrated in FIG. 1, in which (a) illustrates an example of a storage area defined in the image memory, and (b) illustrates an example of a storage area defined in the storage unit. Show. 図2(a)に示す検出用画像格納領域に格納される検出用画像の例を示す図である。It is a figure which shows the example of the image for a detection stored in the image storage area for a detection shown to Fig.2 (a). 図2(b)に示す参照用画像格納領域に格納される参照用画像の例を示す図であり、(a)は通常参照画像の例を示し、(b)は縮小参照画像の例を示す。FIG. 3 is a diagram illustrating an example of a reference image stored in the reference image storage area illustrated in FIG. 2B, where FIG. 2A illustrates an example of a normal reference image, and FIG. 2B illustrates an example of a reduced reference image; . 図1に示す制御部によって実現される機能を示す機能ブロック図である。It is a functional block diagram which shows the function implement | achieved by the control part shown in FIG. 図1に示す表示部に表示されるライブビュー画像の例を示す図である。It is a figure which shows the example of the live view image displayed on the display part shown in FIG. 本発明の実施形態にかかる「顔検出処理」を説明するためのフローチャートである。It is a flowchart for demonstrating the "face detection process" concerning embodiment of this invention. 図7に示す顔検出処理で実行される「拡大方向顔検出処理(1)」を説明するためのフローチャートである。8 is a flowchart for explaining an “enlargement direction face detection process (1)” executed in the face detection process shown in FIG. 7. 図7に示す顔検出処理で実行される「拡大方向顔検出処理(2)」を説明するためのフローチャートである。It is a flowchart for demonstrating the "magnifying direction face detection process (2)" performed by the face detection process shown in FIG. 図7に示す顔検出処理で実行される「縮小方向顔検出処理」を説明するためのフローチャートである。It is a flowchart for demonstrating the "reduction direction face detection process" performed by the face detection process shown in FIG. 図7〜図10に示す各処理での動作を説明するための図であり、(a)は識別領域の移動経路の例を示し、(b)は拡大方向顔検出処理(1)で作成される検出結果テーブルの例を示し、(c)は拡大方向顔検出処理(2)で作成される検出結果テーブルの例を示し、(d)は縮小方向顔検出処理で作成される検出結果テーブルの例を示す。It is a figure for demonstrating the operation | movement in each process shown in FIGS. 7-10, (a) shows the example of the movement path | route of an identification area, (b) is produced by the expansion direction face detection process (1). (C) shows an example of the detection result table created by the enlargement direction face detection process (2), and (d) shows the detection result table created by the reduction direction face detection process. An example is shown. 図9に示す拡大方向顔検出処理(2)における動作を説明するための図であり、(a)は検出用スルー画像の例を示し、(b)は検出用縮小画像の例を示し、(c)は、(b)に示した検出用縮小画像上に設定された識別領域の例を示し、(d)は、(c)で示した識別領域による顔検出位置の例を示す。FIG. 10 is a diagram for explaining the operation in the enlargement direction face detection process (2) shown in FIG. 9, where (a) shows an example of a detection through image, (b) shows an example of a detection reduced image, (c) shows an example of an identification area set on the detection reduced image shown in (b), and (d) shows an example of a face detection position by the identification area shown in (c). 図9に示す拡大方向顔検出処理(2)における動作を説明するための図であり、(a)は検出用スルー画像に設定した絞込検出領域の例を示し、(b)は、(a)に示した絞込検出領域内に設定される識別領域の例を示す。FIG. 10 is a diagram for explaining an operation in the enlargement direction face detection process (2) shown in FIG. 9, where (a) shows an example of a narrowing detection area set in the detection through image, and (b) shows (a The example of the identification area | region set in the narrowing-down detection area | region shown in FIG. 図7に示す顔検出処理において検出結果を統合する動作の概念を説明するための図である。It is a figure for demonstrating the concept of the operation | movement which integrates a detection result in the face detection process shown in FIG.

符号の説明Explanation of symbols

1…デジタルカメラ、100…撮像部、110…光学装置、120…イメージセンサ部、200…データ処理部、210…制御部、211…画像変換部、212…対象画像選択部、213…識別領域設定部、214…第1の識別器、215…第2の識別器、216…識別結果判定部、217…出力処理部、220…画像処理部、230…画像メモリ、230a…入力画像格納領域、230b…検出用画像格納領域、230c…検出用画像格納領域、240…画像出力部、250…記憶部、250a…参照用画像格納領域、250b…参照用画像格納領域、250c…プログラム格納領域、260…外部記憶部、300…インタフェース部、310…表示部、320…外部インタフェース部、330…操作部、PL…検出用スルー画像、PS…検出用縮小画像、FL…通常参照画像、FS…縮小参照画像、SW…識別領域、SS…絞込検出領域 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 100 ... Imaging part, 110 ... Optical apparatus, 120 ... Image sensor part, 200 ... Data processing part, 210 ... Control part, 211 ... Image conversion part, 212 ... Target image selection part, 213 ... Identification area setting 214, first discriminator, 215, second discriminator, 216, discrimination result determination unit, 217, output processing unit, 220, image processing unit, 230, image memory, 230a, input image storage area, 230b. ... detection image storage area, 230c ... detection image storage area, 240 ... image output section, 250 ... storage section, 250a ... reference image storage area, 250b ... reference image storage area, 250c ... program storage area, 260 ... External storage unit, 300 ... interface unit, 310 ... display unit, 320 ... external interface unit, 330 ... operation unit, PL ... through image for detection, PS ... Out for a reduced image, FL ... usually the reference image, FS ... reduced reference image, SW ... identification area, SS ... narrowing the detection area

Claims (8)

参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出する画像処理装置において、
前記参照用画像を格納する参照用画像格納手段と、
前記参照用画像格納手段に格納された参照用画像が示す特徴部分を縮小した縮小参照画像を格納する縮小参照画像格納手段と、
前記入力画像を縮小する画像縮小手段と、
前記画像縮小手段が縮小した画像上で、前記縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定手段と、
前記対象位置特定手段が特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出手段と、
を備えることを特徴とする画像処理装置。
In an image processing apparatus for detecting a detection target image on an input image by an identification operation using a reference image,
Reference image storage means for storing the reference image;
Reduced reference image storage means for storing a reduced reference image obtained by reducing the characteristic portion indicated by the reference image stored in the reference image storage means;
Image reduction means for reducing the input image;
Target position specifying means for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image on the image reduced by the image reducing means;
Image detecting means for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified by the target position specifying means. When,
An image processing apparatus comprising:
前記画像検出手段は、前記対象位置特定手段が前記縮小した画像上で前記検出対象画像の位置を特定できない場合、前記入力画像上での識別動作をおこなわない、
ことを特徴とする請求項1に記載の画像処理装置。
The image detection unit does not perform an identification operation on the input image when the target position specifying unit cannot specify the position of the detection target image on the reduced image.
The image processing apparatus according to claim 1.
前記画像縮小手段は、前記入力画像を順次縮小し、
前記画像検出手段は、前記画像縮小手段が順次縮小する画像のそれぞれにおいて前記参照用画像を用いた識別動作をおこなって前記検出対象画像を検出する、
ことを特徴とする請求項1または2に記載の画像処理装置。
The image reduction means sequentially reduces the input image,
The image detection means detects the detection target image by performing an identification operation using the reference image in each of the images sequentially reduced by the image reduction means.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出する撮像装置において、
撮像画像を入力画像として取得する入力画像取得手段と、
前記参照用画像を格納する参照用画像格納手段と、
前記参照用画像格納手段に格納された参照用画像が示す特徴部分を縮小した縮小参照画像を格納する縮小参照画像格納手段と、
前記入力画像を縮小する画像縮小手段と、
前記画像縮小手段が縮小した画像上で、前記縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定手段と、
前記対象位置特定手段が特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出手段と、
を備えることを特徴とする撮像装置。
In an imaging device that detects a detection target image on an input image by an identification operation using a reference image,
Input image acquisition means for acquiring a captured image as an input image;
Reference image storage means for storing the reference image;
Reduced reference image storage means for storing a reduced reference image obtained by reducing the characteristic portion indicated by the reference image stored in the reference image storage means;
Image reduction means for reducing the input image;
Target position specifying means for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image on the image reduced by the image reducing means;
Image detecting means for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified by the target position specifying means. When,
An imaging apparatus comprising:
前記画像検出手段は、前記対象位置特定手段が前記縮小した画像上で前記検出対象画像の位置を特定できない場合、前記入力画像上での識別動作をおこなわない、
ことを特徴とする請求項4に記載の撮像装置。
The image detection unit does not perform an identification operation on the input image when the target position specifying unit cannot specify the position of the detection target image on the reduced image.
The imaging apparatus according to claim 4.
前記画像縮小手段は、前記入力画像を順次縮小し、
前記画像検出手段は、前記画像縮小手段が順次縮小する画像のそれぞれにおいて前記参照用画像を用いた識別動作をおこなって前記検出対象画像を検出する、
ことを特徴とする請求項4または5に記載の撮像装置。
The image reduction means sequentially reduces the input image,
The image detection means detects the detection target image by performing an identification operation using the reference image in each of the images sequentially reduced by the image reduction means.
The imaging apparatus according to claim 4 or 5, wherein
参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出するための画像処理方法であって、
前記入力画像を縮小する画像縮小ステップと、
前記画像縮小ステップで縮小した画像上で、前記参照用画像が示す特徴部分を縮小した縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定ステップと、
前記対象位置特定ステップで特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出ステップと、
を含むことを特徴とする画像処理方法。
An image processing method for detecting a detection target image on an input image by an identification operation using a reference image,
An image reduction step for reducing the input image;
An object for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image obtained by reducing the characteristic portion indicated by the reference image on the image reduced in the image reduction step. A location step;
An image detection step of detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified in the target position specifying step. When,
An image processing method comprising:
コンピュータに参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出させるプログラムであって、
前記コンピュータに、
前記入力画像を縮小する機能と、
前記縮小した画像上で、前記参照用画像が示す特徴部分を縮小した縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する機能と、
前記特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう機能と、
を実現させることを特徴とするプログラム。
A program for causing a computer to detect a detection target image on an input image by an identification operation using a reference image,
In the computer,
A function of reducing the input image;
A function for identifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image obtained by reducing the characteristic portion indicated by the reference image on the reduced image;
A function for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the specified position;
A program characterized by realizing.
JP2007224005A 2007-08-30 2007-08-30 Image processor, imaging device, image processing method, and program Pending JP2009059048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007224005A JP2009059048A (en) 2007-08-30 2007-08-30 Image processor, imaging device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007224005A JP2009059048A (en) 2007-08-30 2007-08-30 Image processor, imaging device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2009059048A true JP2009059048A (en) 2009-03-19

Family

ID=40554757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007224005A Pending JP2009059048A (en) 2007-08-30 2007-08-30 Image processor, imaging device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2009059048A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011099092A1 (en) * 2010-02-09 2011-08-18 パナソニック株式会社 Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method
JP5513490B2 (en) * 2009-04-10 2014-06-04 パナソニック株式会社 Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03110685A (en) * 1989-09-25 1991-05-10 Toshiba Corp Picture correlator
JPH11135998A (en) * 1997-10-29 1999-05-21 Matsushita Electric Ind Co Ltd Recognition method
JP2001319229A (en) * 2000-05-10 2001-11-16 Toyota Central Res & Dev Lab Inc Correlation calculation method for image
JP2006202184A (en) * 2005-01-24 2006-08-03 Konica Minolta Holdings Inc Detection device, detection method and detection program
JP2007074142A (en) * 2005-09-05 2007-03-22 Canon Inc Imaging apparatus and its control method, and image processing apparatus and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03110685A (en) * 1989-09-25 1991-05-10 Toshiba Corp Picture correlator
JPH11135998A (en) * 1997-10-29 1999-05-21 Matsushita Electric Ind Co Ltd Recognition method
JP2001319229A (en) * 2000-05-10 2001-11-16 Toyota Central Res & Dev Lab Inc Correlation calculation method for image
JP2006202184A (en) * 2005-01-24 2006-08-03 Konica Minolta Holdings Inc Detection device, detection method and detection program
JP2007074142A (en) * 2005-09-05 2007-03-22 Canon Inc Imaging apparatus and its control method, and image processing apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5513490B2 (en) * 2009-04-10 2014-06-04 パナソニック株式会社 Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method
WO2011099092A1 (en) * 2010-02-09 2011-08-18 パナソニック株式会社 Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method

Similar Documents

Publication Publication Date Title
US7643742B2 (en) Electronic camera, image processing apparatus, image processing method and image processing computer program
JP4735742B2 (en) Imaging apparatus, strobe image generation method, and program
KR100967855B1 (en) System and method for checking framing and sharpness of a digital image
JP4539597B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP4006415B2 (en) Image capturing apparatus, control method therefor, and control program
JP4974812B2 (en) Electronic camera
JP4286292B2 (en) Electronic camera
KR20070051689A (en) Image processing apparatus, image processing method, program for image processing method, and recording medium which records program for image processing method
US8284994B2 (en) Image processing apparatus, image processing method, and storage medium
JP2007306416A (en) Method for displaying face detection frame, method for displaying character information, and imaging apparatus
JP4663700B2 (en) Imaging apparatus and imaging method
US8189056B2 (en) Image capturing apparatus, angle-of-view adjusting method and recording medium
US9900523B2 (en) Image processing apparatus which performs image processing on photographic subject
JP2009111716A (en) Imaging apparatus, program and template generating method
JP4877154B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6172973B2 (en) Image processing device
JP5310076B2 (en) Image processing apparatus and image processing program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2009017427A (en) Imaging device
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP2009059048A (en) Image processor, imaging device, image processing method, and program
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP5359930B2 (en) Imaging apparatus, display method, and program
JP2009064123A (en) Image processor, imaging device, image processing method and program
JP2010016693A (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130115