JP2009059048A - Image processor, imaging device, image processing method, and program - Google Patents
Image processor, imaging device, image processing method, and program Download PDFInfo
- Publication number
- JP2009059048A JP2009059048A JP2007224005A JP2007224005A JP2009059048A JP 2009059048 A JP2009059048 A JP 2009059048A JP 2007224005 A JP2007224005 A JP 2007224005A JP 2007224005 A JP2007224005 A JP 2007224005A JP 2009059048 A JP2009059048 A JP 2009059048A
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection
- reduced
- face
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置、画像処理方法、および、プログラムに関し、特に、特定の画像部分の検出に好適な画像処理装置、撮像装置、画像処理方法、および、プログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method, and a program, and more particularly, to an image processing device, an imaging device, an image processing method, and a program suitable for detecting a specific image portion.
デジタルスチルカメラなどの撮像装置においては、人物を被写体とした場合に、ファインダ画面上で顔を検出する技術が実現されている(例えば、特許文献1)。 In an imaging apparatus such as a digital still camera, a technique for detecting a face on a viewfinder screen when a person is a subject is realized (for example, Patent Document 1).
このような顔検出を用いることで、例えば、顔部分に合焦させたり、顔部分に合わせて露出調整やホワイトバランス調整をおこなったりすることができ、人物に最適化した撮影を容易におこなうことができる。 By using such face detection, for example, it is possible to focus on the face part, and to adjust exposure and white balance according to the face part, making it easy to shoot optimized for a person. Can do.
このような顔検出技術では、入力画像を順次縮小した複数の画像(いわゆる、画像ピラミッド)を生成し、各画像において、予め用意した顔画像(参照用画像)を用いた識別動作をおこなうことで、撮像画像内の顔部分の大きさが不定であっても、一定のサイズの参照用画像を用意しておけば、顔検出をおこなうことができる。
従来の画像ピラミッドによる顔検出においては、入力画像を順次縮小させた画像ピラミッドを用いるので、参照用画像が示す顔の大きさよりも大きい顔を検出することはできるが、入力画像において、顔部分が小さく現れている場合には、検出することができない。 In the face detection by the conventional image pyramid, an image pyramid obtained by sequentially reducing the input image is used. Therefore, it is possible to detect a face larger than the size of the face indicated by the reference image. If it appears small, it cannot be detected.
このため、例えば、撮像位置からの距離が異なる複数の被写体を撮像することで、種々の大きさの顔が撮像装置に現れている場合、小さい顔については検出されない場合があった。 For this reason, for example, when faces of various sizes appear on the imaging apparatus by imaging a plurality of subjects having different distances from the imaging position, a small face may not be detected.
このような不都合を解消するためには、入力画像を縮小せずに顔検出をおこなうことが考えられるが、画像上でサブウィンドウを移動させながら顔識別をおこなう方法では、画像サイズが大きくなるほど処理工数が増大してしまう。この結果、検出にかかる処理時間が長大となってしまい、ファインダ画面においてリアルタイムに顔を検出することができなくなるおそれがある。そして、撮像装置の性能向上により、入力画像の大型化と表示装置の高精細化が進む傾向にあり、確実な画像検出をリアルタイムにおこなうことがより困難となる。 In order to eliminate such inconvenience, it is conceivable to perform face detection without reducing the input image. However, in the method of performing face identification while moving the sub-window on the image, the processing man-hours increase as the image size increases. Will increase. As a result, the processing time required for detection becomes long, and there is a possibility that the face cannot be detected in real time on the finder screen. As the performance of the imaging device improves, the input image tends to become larger and the display device has a higher definition, making it more difficult to perform reliable image detection in real time.
本発明は、上記実状に鑑みてなされたものであり、より確実な画像検出を高速におこなうことのできる画像処理装置、撮像装置、画像処理方法、および、プログラムを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an imaging apparatus, an image processing method, and a program capable of performing more reliable image detection at high speed.
上記目的を達成するため、本発明の第1の観点に係る画像処理装置は、
参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出する画像処理装置において、
前記参照用画像を格納する参照用画像格納手段と、
前記参照用画像格納手段に格納された参照用画像が示す特徴部分を縮小した縮小参照画像を格納する縮小参照画像格納手段と、
前記入力画像を縮小する画像縮小手段と、
前記画像縮小手段が縮小した画像上で、前記縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定手段と、
前記対象位置特定手段が特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to the first aspect of the present invention provides:
In an image processing apparatus for detecting a detection target image on an input image by an identification operation using a reference image,
Reference image storage means for storing the reference image;
Reduced reference image storage means for storing a reduced reference image obtained by reducing the characteristic portion indicated by the reference image stored in the reference image storage means;
Image reduction means for reducing the input image;
Target position specifying means for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image on the image reduced by the image reducing means;
Image detecting means for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified by the target position specifying means. When,
It is characterized by providing.
上記画像処理装置において、
前記画像検出手段は、前記対象位置特定手段が前記縮小した画像上で前記検出対象画像の位置を特定できない場合、前記入力画像上での識別動作をおこなわないことが望ましい。
In the image processing apparatus,
It is desirable that the image detection unit does not perform an identification operation on the input image when the target position specifying unit cannot specify the position of the detection target image on the reduced image.
上記画像処理装置において、
前記画像縮小手段は、前記入力画像を順次縮小し、
前記画像検出手段は、前記画像縮小手段が順次縮小する画像のそれぞれにおいて前記参照用画像を用いた識別動作をおこなって前記検出対象画像を検出することが望ましい。
In the image processing apparatus,
The image reduction means sequentially reduces the input image,
It is desirable that the image detection unit detects the detection target image by performing an identification operation using the reference image in each of the images sequentially reduced by the image reduction unit.
上記目的を達成するため、本発明の第2の観点にかかる撮像装置は、
参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出する撮像装置において、
撮像画像を入力画像として取得する入力画像取得手段と、
前記参照用画像を格納する参照用画像格納手段と、
前記参照用画像格納手段に格納された参照用画像が示す特徴部分を縮小した縮小参照画像を格納する縮小参照画像格納手段と、
前記入力画像を縮小する画像縮小手段と、
前記画像縮小手段が縮小した画像上で、前記縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定手段と、
前記対象位置特定手段が特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging apparatus according to a second aspect of the present invention provides:
In an imaging device that detects a detection target image on an input image by an identification operation using a reference image,
Input image acquisition means for acquiring a captured image as an input image;
Reference image storage means for storing the reference image;
Reduced reference image storage means for storing a reduced reference image obtained by reducing the characteristic portion indicated by the reference image stored in the reference image storage means;
Image reduction means for reducing the input image;
Target position specifying means for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image on the image reduced by the image reducing means;
Image detecting means for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified by the target position specifying means. When,
It is characterized by providing.
上記撮像装置において、
前記画像検出手段は、前記対象位置特定手段が前記縮小した画像上で前記検出対象画像の位置を特定できない場合、前記入力画像上での識別動作をおこなわないことが望ましい。
In the imaging apparatus,
It is desirable that the image detection unit does not perform an identification operation on the input image when the target position specifying unit cannot specify the position of the detection target image on the reduced image.
上記撮像装置において、
前記画像縮小手段は、前記入力画像を順次縮小し、
前記画像検出手段は、前記画像縮小手段が順次縮小する画像のそれぞれにおいて前記参照用画像を用いた識別動作をおこなって前記検出対象画像を検出することが望ましい。
In the imaging apparatus,
The image reduction means sequentially reduces the input image,
It is desirable that the image detection unit detects the detection target image by performing an identification operation using the reference image in each of the images sequentially reduced by the image reduction unit.
上記目的を達成するため、本発明の第3の観点にかかる画像処理方法は、
参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出するための画像処理方法であって、
前記入力画像を縮小する画像縮小ステップと、
前記画像縮小ステップで縮小した画像上で、前記参照用画像が示す特徴部分を縮小した縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定ステップと、
前記対象位置特定ステップで特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出ステップと、
を含むことを特徴とする。
In order to achieve the above object, an image processing method according to a third aspect of the present invention includes:
An image processing method for detecting a detection target image on an input image by an identification operation using a reference image,
An image reduction step for reducing the input image;
An object for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image obtained by reducing the characteristic portion indicated by the reference image on the image reduced in the image reduction step. A location step;
An image detection step of detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified in the target position specifying step. When,
It is characterized by including.
上記目的を達成するため、本発明の第4の観点にかかるプログラムは、
コンピュータに参照用画像を用いた識別動作によって入力画像上で検出対象画像を検出させるプログラムであって、
前記コンピュータに、
前記入力画像を縮小する機能と、
前記縮小した画像上で、前記参照用画像が示す特徴部分を縮小した縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する機能と、
前記特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう機能と、
を実現させることを特徴とする。
In order to achieve the above object, a program according to the fourth aspect of the present invention is:
A program for causing a computer to detect a detection target image on an input image by an identification operation using a reference image,
In the computer,
A function of reducing the input image;
A function of identifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image obtained by reducing the feature portion indicated by the reference image on the reduced image;
A function for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the specified position;
It is characterized by realizing.
本発明によれば、より確実な画像検出を高速におこなうことができる。 According to the present invention, more reliable image detection can be performed at high speed.
本発明にかかる実施形態を、図面を参照して以下に説明する。本実施形態では、本発明をデジタルスチルカメラ(以下、デジタルカメラ)によって実現した場合を例示する。本実施形態にかかるデジタルカメラ1は、一般的なデジタルスチルカメラが有する機能に加え、ファインダ画面上で特定の被写体部分を検出し、検出された被写体部分に合わせた撮像設定をおこなう機能を備えているものとする。本実施形態では、ファインダ画面上にある人物の顔を被写体部分として検出するものとする。すなわち、本実施形態にかかるデジタルカメラ1は、いわゆる顔検出機能を備えたデジタルスチルカメラである。 Embodiments according to the present invention will be described below with reference to the drawings. In the present embodiment, a case where the present invention is realized by a digital still camera (hereinafter referred to as a digital camera) is illustrated. The digital camera 1 according to the present embodiment has a function of detecting a specific subject portion on the finder screen and performing an imaging setting in accordance with the detected subject portion, in addition to the function of a general digital still camera. It shall be. In this embodiment, it is assumed that the face of a person on the finder screen is detected as a subject part. That is, the digital camera 1 according to this embodiment is a digital still camera having a so-called face detection function.
図1は、本発明の実施形態にかかるデジタルカメラ1の構成を示すブロック図である。本実施形態にかかるデジタルカメラ1の概略的構成は、図示するように、撮像部100、データ処理部200、インタフェース(I/F)部300、などである。
FIG. 1 is a block diagram showing a configuration of a digital camera 1 according to an embodiment of the present invention. The schematic configuration of the digital camera 1 according to the present embodiment includes an imaging unit 100, a
撮像部100は、デジタルカメラ1の撮像動作をおこなう部分であり、図示するように、光学装置110やイメージセンサ部120などから構成されている。
The imaging unit 100 is a part that performs an imaging operation of the digital camera 1, and includes an
光学装置110は、例えば、レンズ、絞り機構、シャッタ機構、などを含み、撮像にかかる光学的動作をおこなう。すなわち、光学装置110の動作により、入射光が集光されるとともに、焦点距離、絞り、シャッタスピードなどといった、画角やピント、露出などにかかる光学的要素の調整がなされる。なお、光学装置110に含まれるシャッタ機構はいわゆる機械式のシャッタ装置であり、イメージセンサによってシャッタ動作をおこなう場合には、光学装置110にシャッタ機構が含まれていなくてもよい。また、光学装置110は、後述する制御部210による制御によって動作する。
The
イメージセンサ部120は、光学装置110によって集光された入射光に応じた電気信号を生成する、例えば、CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementally Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサから構成される。イメージセンサ部120は、光電変換をおこなうことで、受光に応じた電気信号を発生してデータ処理部200に出力する。
The
なお、デジタルカメラ1のビューファインダとして、液晶画面(後述する表示部310など)やEVF(Electronic View Finder)などが用いられる場合、イメージセンサ部120が低解像度の画像信号を常時出力することで、いわゆるライブビュー画像(レックスルー画像)がファインダ画面として表示されるものとする。本実施形態では、後述する表示部310をファインダ画面として用いるものとし、デジタルカメラ1での撮像動作時には、レックスルー画像を表示部310のファインダ画面に表示してライブビュー機能が実現されるものとする。
When a liquid crystal screen (such as a
このようなライブビュー機能で表示されるレックスルー画像は、通常、画質より表示速度が重視されるので、処理負荷が低くなるよう比較的サイズの小さい画像(低解像度画像)を用いる。本実施形態では、シャッタ操作による撮像時以外は、640×480のVGA(Video Graphics Array)画像をイメージセンサ部120が出力するものとし、このVGA画像をライブビュー用のレックスルー画像として用いるものとする。なお、レックスルー画像のサイズ(解像度)は、ライブビュー画像を表示する表示装置の性能(解像度など)に応じて規定されるものとする。すなわち、出力する表示装置において、ファインダとして利用できる画像品質と表示速度が得られる程度の解像度(サイズ)とする。
Rexroux images displayed with such a live view function usually use display images that are relatively small in size (low-resolution images) so that the processing load is low because display speed is more important than image quality. In this embodiment, it is assumed that the
データ処理部200は、撮像部100による撮像動作によって生成された電気信号を処理し、撮像画像を示すデジタルデータを生成するとともに、撮像画像に対する画像処理などをおこなう。図1に示すように、データ処理部200は、制御部210、画像処理部220、画像メモリ230、画像出力部240、記憶部250、外部記憶部260、などから構成される。
The
制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)などのプロセッサやRAM(Random Access Memory)などの主記憶装置などから構成され、後述する記憶部250などに格納されているプログラムを実行することで、デジタルカメラ1の各部を制御する。また、本実施形態では、所定のプログラムを実行することで、後述する各処理にかかる機能が制御部210によって実現される。
The
画像処理部220は、例えば、ADC(Analog-Digital Converter:アナログ−デジタル変換器)、バッファメモリ、画像処理用のプロセッサ(いわゆる、画像処理エンジン)などから構成され、撮像部100によって生成された電気信号に基づいて、撮像画像を示すデジタルデータを生成する。
The
すなわち、イメージセンサ部120から出力されたアナログ電気信号をADCがデジタル信号に変換して順次バッファメモリに格納すると、画像処理エンジンがバッファされたデジタルデータに対し、いわゆる現像処理などをおこなうことで、画質の調整やデータ圧縮などをおこなう。
That is, when the analog electric signal output from the
画像メモリ230は、例えば、RAMやフラッシュメモリなどの記憶装置から構成され、画像処理部220によって生成された撮像画像データや、制御部210によって処理される画像データなどを一時的に格納する。本実施形態では、ファインダ用のライブビュー画像としてイメージセンサ部120から出力された画像データを一時的に格納し、格納した画像データを用いて顔検出のための処理がおこなわれるものとする。
The
画像出力部240は、例えば、RGB信号の生成回路などから構成され、画像メモリ230に展開された画像データをRGB信号などに変換して表示画面(後述する表示部310など)に出力する。
The
記憶部250は、例えば、ROM(Read Only Memory)やフラッシュメモリなどの記憶装置から構成され、デジタルカメラ1の動作に必要なプログラムやデータなどを格納する。本実施形態では、制御部210などが実行する動作プログラムなどが記憶部250に格納されているものとする。
The
外部記憶部260は、例えば、メモリカードなどといった、デジタルカメラ1に着脱可能な記憶装置から構成され、デジタルカメラ1で撮像した画像データなどを格納する。
The
インタフェース部300は、デジタルカメラ1とその使用者あるいは外部装置とのインタフェースにかかる構成であり、図1に示すように、表示部310、外部インタフェース(I/F)部320、操作部330、などから構成される。
The
表示部310は、例えば、液晶表示装置などから構成され、デジタルカメラ1を操作するために必要な種々の画面や、撮影時のライブビュー画像、撮像画像、などを表示出力する。本実施形態では、画像出力部240からの画像信号(RGB信号)などに基づいて撮像画像等の表示出力がおこなわれる。
The
外部インタフェース部320は、例えば、USB(Universal Serial Bus)コネクタやビデオ出力端子などから構成され、外部のコンピュータ装置への画像データの出力や、外部のモニタ装置への撮像画像の表示出力などをおこなう。
The
操作部330は、デジタルカメラ1の外面上に構成されている各種ボタンなどによって構成され、デジタルカメラ1の使用者による操作に応じた入力信号を生成して制御部210に入力する。操作部330を構成するボタンとして、例えば、シャッタ動作を指示するためのシャッタボタンや、デジタルカメラ1のもつ動作モードを指定するためのモードボタン、各種設定をおこなうための十字キーや機能ボタン、などが含まれているものとする。
The
ここで、データ処理部200の画像メモリ230についての詳細を、図2(a)を参照して説明する。ここでは、デジタルカメラ1の顔検出機能にかかる処理に必要となる画像メモリ230の構成を説明する。つまり、デジタルカメラ1で顔検出機能が実行される場合、本実施形態にかかる画像メモリ230には、図2(a)に示すような記憶領域が確保される。図示するように、画像メモリ230には、入力画像格納領域230a、検出用画像格納領域230b、検出用画像格納領域230c、などの記憶領域が用意され、各記憶領域に応じた画像データが格納される。
Here, details of the
入力画像格納領域230aは、イメージセンサ部120から出力されるライブビュー用のVGA画像を順次格納する記憶領域である。
The input
検出用画像格納領域230bは、顔検出機能にかかる顔検出をおこなうための検出用画像を格納する記憶領域である。本実施形態では、入力画像格納領域230aにライブビュー用のレックスルー画像(スルー画像)として格納したVGA画像を輝度画像に変換したもの(以下、「検出用スルー画像PL」とする)が検出用画像格納領域230bに格納される。検出用画像格納領域230bに格納される検出用スルー画像PLの例を図3に示す。
The detection image storage area 230b is a storage area for storing a detection image for performing face detection related to the face detection function. In the present embodiment, a VGA image stored as a live view Rexro image (through image) in the input
検出用画像格納領域230cは、顔検出機能にかかる顔検出をおこなうための、よりサイズの小さい検出用画像を格納する記憶領域である。本実施形態では、検出用画像格納領域230bに格納した検出用スルー画像PLをより小さいサイズ(すなわち、VGAより小さいサイズ)に縮小変換したもの(以下、検出用縮小画像PS」とする)が検出用画像格納領域230cに格納される。検出用画像格納領域230cに格納される検出用縮小画像PSの例を図3に示す。
The detection
本実施形態では、この検出用画像格納領域230cに格納された検出用縮小画像PSによって、従来の顔検出技術で用いられているような画像ピラミッドを作成する。したがって、検出用画像格納領域230cには、VGAより小さいサイズとして、例えば、320×240のQVGA(Quarter-VGA)画像が格納されるとともに、図3に示すように、画像ピラミッドを作成する処理の進行に応じて、QVGA画像をさらに縮小した画像が順次格納される。ここでは、QVGAサイズの検出用縮小画像PSを検出用縮小画像PS0とし、以下、縮小をおこなった回数に応じて、検出用縮小画像PS1、検出用縮小画像PS2…、検出用縮小画像PSnと表す。
In the present embodiment, an image pyramid as used in the conventional face detection technology is created from the reduced detection image PS stored in the detection
次に、データ処理部200の記憶部250についての詳細を、図2(b)を参照して説明する。ここでは、デジタルカメラ1の顔検出機能にかかる処理に必要となる記憶部250の構成を説明する。つまり、デジタルカメラ1で顔検出機能を実現するために、本実施形態にかかる記憶部250には、図2(b)に示すような記憶領域が確保される。
Next, details of the
図示するように、記憶部250には、参照用画像格納領域250a、参照用画像格納領域250b、プログラム格納領域250c、などの記憶領域が用意され、各記憶領域に応じた画像データが格納される。
As illustrated, the
参照用画像格納領域250aおよび参照用画像格納領域250bは、顔検出をおこなう際に参照される参照用画像を格納する記憶領域である。ここで、本実施形態にかかる顔検出機能は、従来の顔検出技術と同様、予め用意されている顔画像を参照画像とし、検出用画像上に設定したサブウィンドウの画像と参照画像が示す特徴部分とを比較することで、検出用画像上に顔に相当する部分があるか検索する。参照用画像格納領域250aおよび参照用画像格納領域250bは、このときに参照される顔画像を予め格納したものである。 The reference image storage area 250a and the reference image storage area 250b are storage areas for storing reference images that are referred to when face detection is performed. Here, the face detection function according to the present embodiment uses the face image prepared in advance as a reference image, as in the conventional face detection technology, and the feature portion indicated by the sub window image and the reference image set on the detection image. Is searched for a portion corresponding to the face on the detection image. The reference image storage area 250a and the reference image storage area 250b are prestored face images to be referred to at this time.
本実施形態では、顔検出の際に参照される顔画像を示した参照用画像を2種類用意し、それぞれ参照用画像格納領域250aと参照用画像格納領域250bに格納する。ここで、参照用画像格納領域250aに格納されている参照用画像の例を図4(a)に示す。 In the present embodiment, two types of reference images indicating face images to be referred to in face detection are prepared and stored in the reference image storage area 250a and the reference image storage area 250b, respectively. An example of the reference image stored in the reference image storage area 250a is shown in FIG.
図示するように、参照用画像格納領域250aには、例えば、検出時に設定されるサブウィンドウサイズ(例えば、24×24ドット)の顔画像が複数格納される。ここで、参照用画像格納領域250aに格納される参照用画像は、図4(a)に示すような、サブウィンドウのほぼ全体を顔部分(特徴部分)が占めるような画像であるものとする。このような画像は、従来の顔検出技術で通常用いられている参照用画像(以下、「通常参照画像FL」とする)である。 As shown in the drawing, in the reference image storage area 250a, for example, a plurality of face images having a sub window size (for example, 24 × 24 dots) set at the time of detection are stored. Here, it is assumed that the reference image stored in the reference image storage area 250a is an image in which the face portion (feature portion) occupies almost the entire subwindow as shown in FIG. Such an image is a reference image (hereinafter referred to as “normal reference image FL”) that is normally used in the conventional face detection technology.
参照用画像格納領域250bには、このような通常参照画像FLとは異なる種類の参照用画像が格納される。本実施形態では、通常参照画像FLと同じ顔画像であるが、顔部分(特徴部分)の大きさが通常参照画像FLよりも小さい画像(以下、「縮小参照画像FS」とする)が参照用画像格納領域250bに格納されるものとする。このような縮小参照画像FSの例を図4(b)に示す。 In the reference image storage area 250b, a different type of reference image from the normal reference image FL is stored. In the present embodiment, an image that is the same face image as the normal reference image FL, but whose face part (feature part) is smaller than the normal reference image FL (hereinafter referred to as “reduced reference image FS”) is for reference. It is assumed that it is stored in the image storage area 250b. An example of such a reduced reference image FS is shown in FIG.
図示するように、縮小参照画像FSは、通常参照画像FLと同様に、サブウィンドウサイズと同サイズ(例えば、24×24ドット)の画像であり、図示するように、顔全体を示す部分のすべてが領域の中心部で示されている画像である。参照用画像格納領域250bには、このような縮小参照画像FSが複数格納されている。 As shown in the figure, the reduced reference image FS is an image having the same size as the sub-window size (for example, 24 × 24 dots), like the normal reference image FL. It is the image shown by the center part of the area | region. A plurality of such reduced reference images FS are stored in the reference image storage area 250b.
プログラム格納領域250cは、制御部210が実行する動作プログラムを格納する記憶領域である。
The
本実施形態では、記憶部250のプログラム格納領域250cに格納されている動作プログラムを制御部210が実行することで、後述する各処理が実現されるが、この場合に制御部210によって実現される機能を、図5を参照して説明する。
In the present embodiment, the
図5は、本発明にかかる機能を実行する際に制御部210によって実現される機能を示した機能ブロック図である。なお、図5に示す機能は、顔検出機能を実行する際に必要となる機能を示すものである。
FIG. 5 is a functional block diagram showing functions realized by the
すなわち、撮像時のファインダ画面(ライブビュー画面)上で顔検出をおこなう際、制御部210によって図5に示すような機能が実現される。図示するように、制御部210は、画像変換部211、対象画像選択部212、識別領域設定部213、第1の識別器214、第2の識別器215、識別結果判定部216、出力処理部217、などとして機能する。
That is, when performing face detection on the finder screen (live view screen) at the time of imaging, the function shown in FIG. As illustrated, the
画像変換部211は、イメージセンサ部120がライブビュー用に出力したレックスルー画像を、顔検出処理で用いる画像に変換する。すなわち、入力画像格納領域230aに格納されたVGA画像を輝度画像に変換し、検出用スルー画像PLとして検出用画像格納領域230bに格納するとともに、検出用スルー画像PLをQVGAサイズ以下の検出用縮小画像PSに変換して検出用画像格納領域230cに格納する。なお、画像変換部211による画像変換は、既知の画像変換アルゴリズムなどによってなされるものとする。
The
対象画像選択部212は、顔検出にかかる処理対象となる画像を選択する。すなわち、検出用画像格納領域230bおよび検出用画像格納領域230cに格納された検出用画像のいずれかを処理対象画像として選択する。
The target
識別領域設定部213は、対象画像選択部212が選択した画像上で、顔部分を識別するための識別領域(サブウィンドウ)を設定する。本実施形態では、24×24ドットのサブウィンドウが選択された画面上に設定されるものとする。また、識別領域設定部213は、検出用縮小画像PSで設定したサブウィンドウで顔部分が検出された場合、検出用スルー画像PL上でサブウィンドウを設定するための拡張領域を設定する。
The identification
第1の識別器214は、識別領域設定部213が設定したサブウィンドウの画像と、参照用画像格納領域250bに格納されている縮小参照画像FS(小サイズ画像)とを比較し、当該サブウィンドウの画像が顔部分を示すものであるか否かを識別する。
The
第2の識別器215は、識別領域設定部213が設定したサブウィンドウの画像と、参照用画像格納領域250aに格納されている通常参照画像FL(通常サイズ画像)とを比較し、当該サブウィンドウの画像が顔部分を示すものであるか否かを識別する。
The
本実施形態にかかる第1の識別器214および第2の識別器215は、いずれも既知の顔検出識別器のアルゴリズム(例えば、ニューラルネット(NN)、アダブースト(Adaboost)、サポートベクターマシン(SVM)、など)を用いて顔部分の識別をおこなうものとする。なお、このようなアルゴリズムによって顔検出をおこなう場合において、参照用画像として顔部分以外の画像も用いる場合は、必要に応じて参照用画像格納領域250aや参照用画像格納領域250bに格納されているものとする。
The
識別結果判定部216は、第1の識別器214および第2の識別器215による識別結果を統合することで、入力されたレックスルー画像上に示されている顔部分の位置を判定する。
The identification
出力処理部217は、識別結果判定部216が判定した顔部分の位置に基づいて、表示部310に表示するレックスルー画像(ライブビュー画像)上に、検出された顔部分を明示する表示をおこなう。ここでは、例えば、図6に示すような矩形の枠画像を、検出された顔部分の位置に表示する。
Based on the position of the face portion determined by the identification
以上が顔検出機能の動作時に制御部210によって実現される機能である。なお、本実施形態では、制御部210がプログラムを実行することによる論理的処理で上述した各機能が実現されるものとするが、これらの機能を、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などのハードウェアによって構成してもよい。この場合、図5に示した機能のうち、画像処理にかかる機能については、画像処理部220によって実現されてもよい。
The above is the function realized by the
以上説明したデジタルカメラ1の構成は、本発明を実現するために必要な構成であり、デジタルカメラとしての基本機能や種々の付加機能に用いられる構成は必要に応じて備えられているものとする。特に、顔検出機能にかかる構成については、本実施形態では、検出された顔部分に枠画像を表示するまでに必要なものを示すが、デジタルカメラ1の顔検出機能には、このように検出された顔位置に合わせた撮像動作なども含まれているものとする。つまり、検出された顔部分にピントや露出を合わせて撮像する動作に必要な構成や処理などは既知の顔検出技術を用いて適宜実現されるものとし、本実施形態ではその説明は省略する。 The configuration of the digital camera 1 described above is a configuration necessary for realizing the present invention, and a configuration used for a basic function and various additional functions as a digital camera is provided as necessary. . In particular, regarding the configuration related to the face detection function, in this embodiment, what is necessary until a frame image is displayed on the detected face portion is shown. In the face detection function of the digital camera 1, detection is performed in this way. It is also assumed that an imaging operation in accordance with the face position is included. That is, it is assumed that a configuration and processing necessary for an operation of capturing an image by adjusting the focus and exposure to the detected face part are appropriately realized using a known face detection technique, and description thereof is omitted in the present embodiment.
このような構成のデジタルカメラ1による動作を以下に説明する。ここでは、顔検出機能を用いて撮像する際にデジタルカメラ1で実行される「顔検出処理」を、図7に示すフローチャートを参照して説明する。この顔検出処理は、例えば、デジタルカメラ1の使用者が操作部330を操作することで、デジタルカメラ1の顔検出機能を有効にしたことを契機に開始されるものとする。
The operation of the digital camera 1 having such a configuration will be described below. Here, “face detection processing” executed by the digital camera 1 when imaging using the face detection function will be described with reference to the flowchart shown in FIG. This face detection process is started when the user of the digital camera 1 activates the face detection function of the digital camera 1 by operating the
処理が開始されると、画像変換部211は、入力画像格納領域230aに格納された入力画像(VGAのレックスルー画像)を取り込み(ステップS101)、同サイズ(すなわち、VGA)の輝度画像に変換し、検出用スルー画像PLとして検出用画像格納領域230bに格納する(ステップS102)。
When the process is started, the
画像変換部211は、ステップS101で検出用画像格納領域230bに格納した検出用スルー画像PLのサイズをVGAからQVGAに変換し、検出用縮小画像PSとして検出用画像格納領域230cに格納する(ステップS103)。
The
このようにして、入力画像と同サイズ(例えば、VGA)の検出用画像と、縮小したサイズ(例えば、QVGA)の検出用画像が生成されると、画像変換部211は、その旨を対象画像選択部212に通知する。対象画像選択部212は、画像変換部211からの通知に応じて、「拡大方向顔検出処理(1)」と「拡大方向顔検出処理(2)」を順次実行する(ステップS200、ステップS300)。
When the detection image having the same size (for example, VGA) as the input image and the detection image having the reduced size (for example, QVGA) are generated in this way, the
ここで、拡大方向顔検出とは、縮小した検出用画像(検出用縮小画像PS)上で、縮小参照画像FSを用いた顔識別によって顔検出をおこない、検出された位置に相当する検出用スルー画像PL上の位置において、通常参照画像FLを用いた顔識別をおこなうものである。すなわち、処理の前段において縮小サイズ画像を用いた顔検出をおこなって顔位置の推定をおこなった後に、その結果に基づき、画像サイズが拡大方向となる通常サイズの画像上で顔検出を後段でおこなう。この場合の前段にかかる処理が「拡大方向顔検出処理(1)」であり、後段にかかる処理が「拡大方向顔検出処理(2)」である。 Here, the enlargement direction face detection means that a face is detected by face identification using the reduced reference image FS on the reduced detection image (detection reduced image PS), and the detection through corresponding to the detected position is performed. Face recognition using the normal reference image FL is performed at a position on the image PL. That is, after face detection using a reduced size image is performed in the first stage of processing and the face position is estimated, face detection is performed in the subsequent stage based on the result on a normal size image whose image size is the enlargement direction. . In this case, the process in the former stage is “enlargement direction face detection process (1)”, and the process in the latter stage is “enlargement direction face detection process (2)”.
ここで実行される「拡大方向顔検出処理(1)」を、図8に示すフローチャートを参照して説明する。 The “enlargement direction face detection process (1)” executed here will be described with reference to the flowchart shown in FIG.
上述したように、拡大方向顔検出処理の前段では、縮小した検出用画像を用いるので、対象画像選択部212は、検出用画像格納領域230cに格納されている、QVGAに縮小された検出用縮小画像PSを対象画像として選択し、制御部210のRAMなどに展開されるワークエリアに読み出す(ステップS201)。
As described above, since the reduced detection image is used in the preceding stage of the enlargement direction face detection process, the target
対象画像選択部212は、対象画像を読み出すと、その旨を識別領域設定部213に通知する。識別領域設定部213は、対象画像選択部212からの通知に応じ、ワークエリアに読み出された検出用縮小画像PSに、識別領域(サブウィンドウ)を設定する。本実施形態では、従来の顔検出技術と同様、対象画像上に、所定の大きさの識別領域を設定し、それを順次移動させながら、顔部分の検出をおこなう。よって、このような識別領域の移動においては、移動経路が予め規定されている。本実施形態では、例えば、図11(a)に示すように、画像の左上角部を開始位置とし、そこから識別領域SWを右方向に所定ステップずつ移動させる。識別領域SWが画像の右端に到達したら下方向に1ステップ分移動させた後に左方向に1ステップずつ移動させる。そして、識別領域SWが画像端部に到達する毎に、1ステップ分下方向に移動してから、逆方向に移動する動作を繰り返すことで、画像の全域に渡って識別領域SWを移動させる。
When the target
したがって、本実施形態にかかる識別領域設定部213は、上述した識別開始位置(すなわち、画像左上角部)に、例えば、24×24ドットの大きさとなる識別領域SWを設定し(ステップS202)、設定した識別領域SWにおいて検出用縮小画像PSの切り出しをおこなう(ステップS203)。
Therefore, the identification
識別領域設定部213は、設定した識別領域SWの画像切り出しをおこなうと、切り出した画像を第2の識別器215に入力する。上述したように、第2の識別器215は、例えば、ニューラルネットなどの顔識別アルゴリズムを用いて、参照用画像格納領域250bに格納されている縮小参照画像FSと入力画像との比較から、当該入力画像が顔部分を示しているか識別する。したがって、第2の識別器215は、図4(b)に示したような縮小参照画像FSを用いて、検出用縮小画像PSから切り出された入力画像についての顔識別をおこなう(ステップS204)。
The identification
ここで、例えば、顔識別アルゴリズムとしてニューラルネットを採用した場合、第2の識別器215は、顔の場合は1、非顔の場合は−1となるような教師信号を出力する。このような教師信号は、既知のニューラルネット技術に基づくものであり、第2の識別器215(第1の識別器214)の学習による重み付けがおこなわれることで、随時設定される。
Here, for example, when a neural network is employed as the face identification algorithm, the
このようなニューラルネットを顔検出アルゴリズムとした場合、ステップS204の顔識別において、入力画像が顔を示すのであれば1に近い値が出力され、非顔であれば−1に近い値が出力されることになる。第2の識別器215は、採用している顔検出アルゴリズムに応じた出力信号を生成し、識別結果判定部216に出力する。
When such a neural network is used as a face detection algorithm, a value close to 1 is output if the input image shows a face in face identification in step S204, and a value close to -1 is output if it is a non-face. Will be. The
識別結果判定部216は、第2の識別器215からの出力に基づいて、識別領域SWで検出用縮小画像PSから切り出された画像で顔が検出されたか否かを判別する(ステップS205)。
Based on the output from the
顔が検出された場合(ステップS205:Yes)、識別結果判定部216は、当該識別領域SWの位置を、例えば、ワークエリア上に記録する(ステップS206)。ここでは、例えば、図11(b)に示すような検出結果テーブルがワークエリア上に作成され、検出用縮小画像PS上で、縮小参照画像FSに基づいて顔が検出された識別領域SWの位置が記録される。この場合、例えば、識別領域SWの中心位置を示す検出用縮小画像PS上の座標が、識別領域SWの位置情報として記録される。
When a face is detected (step S205: Yes), the identification
一方、第2の識別器215の識別結果が、当該識別領域SWは顔ではない場合(ステップS205:No)、識別結果判定部216は、識別領域SWの位置情報の記録をおこなわない。
On the other hand, when the identification result of the
このようにして、識別結果判定部216が識別結果の判定をおこなうと、その旨を識別領域設定部213に通知する。識別領域設定部213は、識別結果判定部216からの通知に応じて、現在設定した識別領域SWの位置が、検出用縮小画像PS上の識別終了位置であるか否かを判別し(ステップS207)、終了位置での識別がおこなわれるまで(ステップS207:No)、識別領域SWを1ステップずつ移動させる(ステップS208)。ここで、検出用縮小画像PSでの顔識別における識別領域SWの移動ステップは、例えば、4ドット分であるものとする。つまり、拡大方向顔検出処理(1)では、図11(a)に示したような経路で識別領域SWを4ドットずつ移動させながら、各識別領域SWに対応する部分を切り出し、縮小参照画像FSを用いた顔識別をおこなう(ステップS203〜ステップS206)。
In this way, when the identification
そして、終了位置での顔検出動作がおこなわれると(ステップS207:Yes)、本処理を終了し、図7に示す顔検出処理のフローに戻る。ここでは、拡大方向顔検出処理の前段が終了したので、後段の「拡大方向顔検出処理(2)」が続けて実行される。この拡大方向顔検出処理(2)を、図9に示すフローチャートを参照して説明する。 Then, when the face detection operation at the end position is performed (step S207: Yes), this process ends, and the process returns to the face detection process flow shown in FIG. Here, since the first stage of the enlargement direction face detection process has been completed, the subsequent "enlargement direction face detection process (2)" is continuously executed. The enlargement direction face detection process (2) will be described with reference to the flowchart shown in FIG.
処理が開始されると、識別結果判定部216は、前段の拡大方向顔検出処理(1)(ステップS200)の処理で、顔が検出されたか否かを判別する(ステップS301)。上述したように、拡大方向顔検出処理(1)においては、顔が検出された場合、その識別領域SWの位置情報がワークエリアに記録されるので、識別領域SWの位置情報が記録されているか否かをみることで、前段の処理で顔が検出されたか判別することができる。
When the process is started, the identification
ここで、本実施形態にかかる拡大方向顔検出処理は、顔部分の小さい縮小参照画像FSを用いた顔検出を、本来のライブビュー画像よりもサイズの小さい検出用縮小画像PS上でまずおこなうことで、入力画像上で顔と推定される部分のあたりをつけておく。そして、実際のライブビュー画像と同サイズの検出用スルー画像PLについては、画像全域で顔識別をおこなわず、あたりをつけた位置の周辺で顔識別をおこなう。 Here, in the enlargement direction face detection processing according to the present embodiment, face detection using the reduced reference image FS with a small face portion is first performed on the detection reduced image PS that is smaller in size than the original live view image. Then, a portion that is estimated to be a face on the input image is given. For the detection through image PL having the same size as that of the actual live view image, face identification is not performed on the entire image area, but face identification is performed around the hit position.
本実施形態ではこのような処理手順としているので、上述した拡大方向顔検出処理(1)は、入力画像上で顔と推定される部分のあたりをつけるまでの処理ということになる。そして、現在実行されている拡大方向顔検出処理(2)は、前段の処理であたりをつけた位置で詳細な顔識別動作をおこなうものである。よって、拡大方向顔検出処理(1)において、顔と推定される部分が検出されなかった場合、拡大方向顔検出処理(2)をおこなう必要はない。よって、前段の拡大方向顔検出処理(1)(ステップS200)で顔の検出がなされなかった場合(ステップS301:No)、そのまま本処理を終了する。この場合、拡大方向顔検出処理(2)(ステップS300)は、実質的に実行されなかったことになる。 In the present embodiment, such a processing procedure is used, and thus the above-described enlargement direction face detection process (1) is a process up to hitting a portion estimated to be a face on the input image. The enlargement direction face detection process (2) that is currently being performed is a detailed face identification operation at the position hit in the previous process. Therefore, in the enlargement direction face detection process (1), when the part estimated to be a face is not detected, it is not necessary to perform the enlargement direction face detection process (2). Therefore, when the face is not detected in the preceding enlargement direction face detection process (1) (step S200) (step S301: No), this process is terminated as it is. In this case, the enlargement direction face detection process (2) (step S300) is not substantially executed.
一方、拡大方向顔検出処理(1)で顔が検出されている場合(ステップS301:Yes)、識別結果判定部216は、その旨を対象画像選択部212に通知する。対象画像選択部212は、識別結果判定部216からの通知に応じて、VGAサイズの検出用スルー画像PLを処理対象として選択し、検出用画像格納領域230bからワークエリアに読み出す(ステップS302)。
On the other hand, when a face is detected in the enlargement direction face detection process (1) (step S301: Yes), the identification
検出用スルー画像PLを読み出すと、対象画像選択部212はその旨を識別領域設定部213に通知する。識別領域設定部213は、対象画像選択部212からの通知に応じて、VGAの検出用スルー画像PL上で顔検出動作をおこなう領域である絞込検出領域を設定する(ステップS303)。ここでは、図11(b)に示したワークエリア上の検出結果テーブルを参照することで、識別領域設定部213は、前段の拡大方向顔検出処理(1)において顔が検出された識別領域SWの位置(以下、「顔検出部分」とする)を認識する。
When the detection through image PL is read, the target
ここで、前段の拡大方向顔検出処理(1)では、QVGAに縮小した検出用縮小画像PSを処理対象としていたので、識別領域設定部213は、検出用縮小画像PSにおける顔検出部分の相対的な位置を求め、求めた相対位置に基づいて、ステップS302で読み出した検出用スルー画像PL上に絞込検出領域を設定する。つまり、検出用縮小画像PSの画像サイズであるQVGAは、実際のライブビュー画像のサイズであるVGAの各辺の長さを1/2にしたもの(面積比1/4)であるので、検出用縮小画像PSと検出用スルー画像PLは相似形である。よって、一方の検出用縮小画像PSと、そこで検出された顔検出部分との相対的な位置関係が求まれば、相似する検出用スルー画像PL上でも、顔検出部分にあたる位置を相対的な位置関係によって特定することができる。
Here, in the enlargement direction face detection process (1) in the previous stage, the detection reduced image PS reduced to QVGA is the processing target, so the identification
このような、検出用縮小画像PSと検出用スルー画像PLにおける位置関係を、図12を参照して説明する。ここでは、図12(a)に示すような撮像画像が得られている場合を例に説明する。本実施形態では、撮像画像の画像サイズはVGAであるので、図12(a)に例示する画像はVGAの検出用スルー画像PLである。このようなVGAサイズの画像上において、図12(a)に示すような大きさで人物の被写体が撮像されているものとする。ここでは、図示するように、画像のサイズに比べ、被写体となっている人物が比較的小さく写っている場合を想定する。 The positional relationship between the reduced detection image PS and the detection through image PL will be described with reference to FIG. Here, a case where a captured image as shown in FIG. 12A is obtained will be described as an example. In the present embodiment, since the image size of the captured image is VGA, the image illustrated in FIG. 12A is a VGA detection through image PL. It is assumed that a human subject is imaged in such a VGA size image as shown in FIG. Here, as shown in the figure, it is assumed that the person who is the subject is relatively small compared to the size of the image.
このような撮像画像(検出用スルー画像PL)を、QVGAの検出用縮小画像PSに縮小した例を図12(b)に示す。画像全体が縮小されているので、そこに示されている被写体の大きさも、図12(a)に示した検出用スルー画像PLと比べ、相対的に小さくなっている。 FIG. 12B shows an example in which such a captured image (detection through image PL) is reduced to a QVGA detection reduced image PS. Since the entire image is reduced, the size of the subject shown there is also relatively smaller than the detection through image PL shown in FIG.
このような検出用縮小画像PSに対し、上述した拡大方向顔検出処理(1)を実施した場合に設定される識別領域SWの例を図12(c)に示す。上述したように、拡大方向顔検出処理(1)における顔識別では、図4(b)に示すような縮小参照画像FSを用いて顔識別をおこなっている。本実施形態では、縮小参照画像FSのサイズを識別領域SWと同じサイズ(24×24ドット)としているので、識別領域SWと被写体の大きさが図12(c)に示すようなものである場合、例えば、図12(d)に示すように、識別領域SWの移動経路に応じた複数位置における識別領域SWで顔が検出されることになる。 FIG. 12C shows an example of the identification region SW set when the above-described enlargement direction face detection process (1) is performed on such a detection reduced image PS. As described above, in the face identification in the enlargement direction face detection process (1), the face identification is performed using the reduced reference image FS as shown in FIG. In the present embodiment, since the size of the reduced reference image FS is the same size (24 × 24 dots) as the identification area SW, the identification area SW and the size of the subject are as shown in FIG. For example, as shown in FIG. 12D, a face is detected in the identification area SW at a plurality of positions according to the movement path of the identification area SW.
ステップS303で検出用スルー画像PL上に設定する絞込検出領域は、このような複数の識別領域SWをまとめた領域ということになる。したがって、前段の拡大方向顔検出処理(1)において、複数の識別領域SWで顔検出がなされた場合、ステップS303で設定される絞込検出領域は、少なくとも、識別領域SWの大きさ(本例では24×24ドット)よりも大きい領域となる。このような絞込検出領域(以下、「絞込検出領域SS」とする)を検出用スルー画像PL上に設定した場合の例を図13(a)に示す。 The narrowed-down detection area set on the detection through image PL in step S303 is an area in which such a plurality of identification areas SW are collected. Therefore, when face detection is performed in a plurality of identification areas SW in the preceding enlargement direction face detection process (1), the narrowing detection area set in step S303 is at least the size of the identification area SW (this example) In this case, the area is larger than 24 × 24 dots. FIG. 13A shows an example in which such a narrowing detection region (hereinafter referred to as “narrowing detection region SS”) is set on the detection through image PL.
つまり、図12(b)に示したような検出用縮小画像PSで識別領域SWを設定し、図12(d)に示すような複数位置で顔検出されたときの識別領域SWを統合した絞込検出領域SSを、図12(a)に示した検出用スルー画像PLに設定すると、検出用スルー画像PLに現れている被写体画像と絞込検出領域SSとの大きさや位置の関係は図13(a)に示すようなものになる。 That is, the identification area SW is set with the detection reduced image PS as shown in FIG. 12B, and the identification area SW when the face detection is performed at a plurality of positions as shown in FIG. If the detection area SS is set to the detection through image PL shown in FIG. 12A, the relationship between the size and the position of the subject image appearing in the detection through image PL and the narrowing detection area SS is shown in FIG. As shown in (a).
このように設定された絞込検出領域SS付近を拡大して図13(b)に示す。図示するように、前段の拡大方向顔検出処理(1)で顔が検出された複数の識別領域SWを統合して検出用スルー画像PL上に設定すると、被写体の顔部分の周辺に絞込検出領域SSが設定されることになる。ここで、図9に戻り、拡大方向顔検出処理(2)の説明を続ける。 FIG. 13B shows an enlarged view of the vicinity of the narrowing detection area SS set in this way. As shown in the drawing, when a plurality of identification areas SW in which faces are detected in the preceding enlargement direction face detection process (1) are integrated and set on the detection through image PL, narrowing detection is performed around the face portion of the subject. The area SS is set. Here, returning to FIG. 9, the explanation of the enlargement direction face detection process (2) will be continued.
図13(a)に示すような絞込検出領域SSがステップS303で設定されると、識別領域設定部213は、絞込検出領域SS内に識別領域SWを設定する(ステップS304)。ここでは、上述した拡大方向顔検出処理(1)における識別領域SWと同じサイズ(つまり、24×24ドット)の識別領域SWを設定する。ここでも、図11(a)で示した移動経路と同様の経路で識別領域SWを移動させるが、その移動ステップは、例えば、2ドットであるものとする。
When the narrowing detection area SS as shown in FIG. 13A is set in step S303, the identification
ここでは、図11(a)において矢印で示した移動経路とするので、ステップS304においては、絞込検出領域SSの左上角部を開始位置として、24×24ドットの識別領域SWが設定される。識別領域設定部213は、このように設定した識別領域SWに対応する部分を検出用スルー画像PLから切り出し(ステップS305)、第1の識別器214に入力する。
Here, since the movement path is indicated by an arrow in FIG. 11A, in step S304, a 24 × 24 dot identification area SW is set with the upper left corner of the narrowing detection area SS as a start position. . The identification
上述したように、第1の識別器214は、図4(a)に示したような通常参照画像FLを参照して顔識別をおこなう識別器である。図4(a)に示したように、通常参照画像FLは、識別領域SWと同じサイズの画像全体に顔部分が占めているので、QVGAの検出用縮小画像PSからVGAの検出用スルー画像PLに拡大して顔識別をおこなう本処理では、このような通常参照画像FLを使って絞込検出領域SS内で顔識別をおこなうことができる。
As described above, the
第1の識別器214も、第2の識別器215と同様、所定の顔識別アルゴリズムによって、切り出された画像が顔部分であるか識別し、識別結果を示す信号を識別結果判定部216に出力する。
Similarly to the
識別結果判定部216は、第1の識別器214からの出力信号に基づいて顔が検出されたか否かを判別する(ステップS307)。そして、検出された場合(ステップS307:Yes)は、その識別領域SWの検出用スルー画像PL上での位置情報をワークエリアに記録し(ステップS308)、検出されなければ記録しない。
The identification
ここで、識別領域SWの位置情報をワークエリアに記録する場合は、図11(c)に示すような検出結果テーブルがワークエリア内に作成され、識別領域SWの位置情報を記録する。 Here, when the position information of the identification area SW is recorded in the work area, a detection result table as shown in FIG. 11C is created in the work area, and the position information of the identification area SW is recorded.
このようにして識別結果の判定をおこなうと、識別結果判定部216は、その旨を識別領域設定部213に通知する。識別領域設定部213は、識別結果判定部216からの通知に応じて、現在の識別領域SWが絞込検出領域SS内での識別終了位置にあたるか否かを判別する(ステップS309)。そして、顔識別をおこなった識別領域SWが、絞込検出領域SS内での識別終了位置となるまで(ステップS309:No)、順次識別領域SWを2ドットずつ移動させ(ステップS310)、上述したステップS305〜ステップS308の動作を繰り返す。
When the identification result is determined in this way, the identification
つまり、図13(b)に示すように、識別領域SWを移動させながら各位置で顔識別をおこない、顔が検出されたときの識別領域SWの位置情報を記録する。ここで、図13(b)に示すように、VGAの検出用スルー画像PL上においては、24×24ドットの識別領域SWは、被写体の顔部分の大きさとほぼ同じであり、また、顔識別の際に参照される通常参照画像FLも、24×24ドットの全体を顔部分が占めているものなので、ほぼ1カ所の識別領域SWにおいて顔が検出されることとなる。 That is, as shown in FIG. 13B, face identification is performed at each position while moving the identification area SW, and position information of the identification area SW when a face is detected is recorded. Here, as shown in FIG. 13B, on the VGA detection through image PL, the identification area SW of 24 × 24 dots is substantially the same as the size of the face portion of the subject, and the face identification is performed. In the normal reference image FL referred to in this case, since the face portion occupies the entire 24 × 24 dots, the face is detected in almost one identification area SW.
このようにして、VGAサイズの検出用スルー画像PL上に設定した絞込検出領域SSの全域で顔識別動作をおこなうと(ステップS309:Yes)、識別領域設定部213は、その旨を対象画像選択部212に通知し、本処理を終了する。この場合、図7に示す顔検出処理のフローに戻る。
In this way, when the face identification operation is performed over the entire narrowed detection area SS set on the VGA size detection through image PL (step S309: Yes), the identification
顔検出処理においては、拡大方向顔検出処理(2)に続いて「縮小方向顔検出処理」(ステップS400)が実行される。この縮小方向顔検出処理は、従来の顔検出技術において一般的におこなわれている処理であり、入力画像を順次縮小した画像ピラミッド(図3参照)を生成し、一定サイズの参照用画像を用いて各縮小画像上で顔識別をおこなうことで、画角内での顔部分の大きさが不定の入力画像上でも顔を識別できるようにしたものである。 In the face detection process, a “reduction direction face detection process” (step S400) is executed following the enlargement direction face detection process (2). This reduction direction face detection process is a process generally performed in the conventional face detection technique, and generates an image pyramid (see FIG. 3) in which input images are sequentially reduced, and uses a reference image of a certain size. Thus, by performing face identification on each reduced image, the face can be identified even on an input image in which the size of the face portion within the angle of view is indefinite.
このような、従来の顔検出処理においては、図4(a)に示したような通常参照画像FLを用い、QVGA以下のサイズに縮小した画像ピラミッドで顔識別をおこなうので、画角に対する顔部分の大きさが比較的大きい場合に、顔部分を検出することができる。このような縮小方向顔検出処理を、図10に示すフローチャートを参照して説明する。 In such a conventional face detection process, since the normal reference image FL as shown in FIG. 4A is used and face identification is performed with an image pyramid reduced to a size equal to or smaller than QVGA, the face portion with respect to the angle of view. The face portion can be detected when the size of is relatively large. Such reduction direction face detection processing will be described with reference to the flowchart shown in FIG.
処理が開始されると、対象画像選択部212は、拡大方向顔検出処理(2)(ステップS300)が実行されたか否かを判別する(ステップS401)。ここで、拡大方向顔検出処理(2)の実行後に本処理が実行された場合(ステップS401:Yes)、拡大方向顔検出処理(2)においては検出用スルー画像PL(VGA画像)が処理対象画像として用いられていたので、対象画像選択部212は、本処理での処理対象画像として、縮小されたQVGAの検出用縮小画像PSを選択し、検出用画像格納領域230cから読み出す(ステップS402)。
When the process is started, the target
一方、拡大方向顔検出処理(1)において顔検出がなされなかった場合、上述したように、拡大方向顔検出処理(2)は実質的には実行されていない。このような場合(ステップS401:No)、拡大方向顔検出処理(1)の終了後に本処理が実行されていることになる。拡大方向顔検出処理(1)においては、検出用縮小画像PS(QVGA画像)が処理対象画像として用いられていたので、本処理で処理対象とする検出用縮小画像PSはすでに読み出されていることになる。 On the other hand, when the face detection is not performed in the enlargement direction face detection process (1), as described above, the enlargement direction face detection process (2) is not substantially executed. In such a case (step S401: No), this process is executed after the enlargement direction face detection process (1) is completed. In the enlargement direction face detection process (1), since the detection reduced image PS (QVGA image) is used as the processing target image, the detection reduced image PS to be processed in this process has already been read. It will be.
本処理において最初に読み出されたQVGAの検出用縮小画像PSを検出用縮小画像PS0とする(図3参照)。処理対象とする検出用縮小画像PS0の読み出しが完了すると、対象画像選択部212はその旨を識別領域設定部213に通知する。識別領域設定部213は、上述した拡大方向顔検出処理(1)と同様の処理により、検出用縮小画像PS0の左上角部を開始位置として識別領域SWを設定し(ステップS403)、識別領域SWに対応する部分を検出用縮小画像PS0から切り出す(ステップS404)。
The QVGA detection reduced image PS read first in this process is set as a detection reduced image PS 0 (see FIG. 3). When the reading of the detection reduced image PS 0 to be processed is completed, the target
ここで、識別領域設定部213は、上述した拡大方向顔検出処理(1)のときとは異なり、切り出した画像を第1の識別器214に入力する。よって、縮小したQVGAの検出用縮小画像PS0から切り出された画像における顔識別が、図4(a)に示したような通常参照画像FLを用いておこなわれる(ステップS405)。
Here, unlike the above-described enlargement direction face detection process (1), the identification
このようにして顔識別をおこなった第1の識別器214からの出力信号に基づいて、識別結果判定部216が識別結果を判定する(ステップS406)。ここで、顔が検出されれば(ステップS406:Yes)、現在の識別領域SWの位置情報をワークエリアに記録する(ステップS407)。識別結果判定部216は、このような判定動作をおこなうと、その旨を識別領域設定部213に通知する。
Based on the output signal from the
識別領域設定部213は、識別結果が判定される毎に識別領域SWを2ドットずつ移動させる(ステップS408:No、ステップS409)。そして、各識別領域SWの位置においてステップS404〜ステップS405の処理をおこなうことで、検出用縮小画像PS0の全域で顔識別をおこない、顔が検出された識別領域SWの位置情報をワークエリアに記録する。ここでは、図11(d)に示すような検出結果テーブルをワークエリアに作成して、顔が検出された識別領域SWの位置情報を記録する。
The identification
検出用縮小画像PS0の全域での顔識別動作が完了すると(ステップS408:Yes)、識別結果判定部216は、その旨を画像変換部211に通知する。画像変換部211は、識別結果判定部216からの通知に応じて、現在処理対象としている検出用縮小画像PS0を縮小して検出用画像格納領域230cに格納する(ステップS410)。ここでは、例えば、検出用縮小画像PS0のサイズを80%に縮小する。
When the face identification operation in the entire detection reduced image PS 0 is completed (step S408: Yes), the identification
画像変換部211は、このようにして画像を縮小すると、その旨を対象画像選択部212に通知する。対象画像選択部212は、画像変換部211からの通知に応じ、縮小された検出用縮小画像PSのサイズが、顔識別に用いる識別領域SWのサイズ(すなわち、24×24ドット)より大きいか否かを判別する(ステップS411)。
When the
縮小後の検出用縮小画像PSのサイズが識別領域SWのサイズより大きければ(ステップS411:No)、縮小した検出用縮小画像PSにおいて、上述したステップS403〜ステップS409の処理をおこなう。つまり、縮小した検出用縮小画像PS上で識別領域SWを移動させながら、通常参照画像FL(図4(a))を用いた顔識別をおこなう。 If the size of the reduced detection image PS after reduction is larger than the size of the identification area SW (step S411: No), the above-described processing from step S403 to step S409 is performed on the reduced detection reduction image PS. That is, face recognition is performed using the normal reference image FL (FIG. 4A) while moving the identification area SW on the reduced detection reduced image PS.
そして、縮小した検出用縮小画像PSの全域で顔識別動作をおこなう毎に、検出用縮小画像PSをさらに縮小する(ステップS408:Yes、ステップS410)。つまり、縮小した検出用縮小画像PSのサイズが識別領域SWのサイズとなるまで、図3に示すような画像ピラミッドを順次生成し、各検出用縮小画像PSx(x=0〜n)において、通常参照画像FLを用いた顔識別動作をおこなう。 Then, each time the face identification operation is performed in the entire area of the reduced detection reduced image PS, the detection reduced image PS is further reduced (step S408: Yes, step S410). In other words, image pyramids as shown in FIG. 3 are sequentially generated until the size of the reduced detection reduced image PS reaches the size of the identification area SW, and in each detection reduced image PS x (x = 0 to n), A face identification operation using the normal reference image FL is performed.
このような処理において、検出用縮小画像PS上で識別領域SWを移動させながら顔識別をおこなっているので、検出用縮小画像PS自体が識別領域SWより小さくなってしまうと識別動作をおこなえない。よって、縮小後の検出用縮小画像PSが識別領域SWより小さくなった時点(ステップS411:Yes)で本処理を終了し、図7に示す顔検出処理のフローに戻る。 In such processing, face recognition is performed while moving the identification area SW on the detection reduced image PS. Therefore, if the detection reduced image PS itself is smaller than the identification area SW, the identification operation cannot be performed. Therefore, when the reduced detection image PS after reduction becomes smaller than the identification area SW (step S411: Yes), this process ends, and the process returns to the face detection process flow shown in FIG.
顔検出処理(図7)においては、上述した、拡大方向顔検出処理(1)、拡大方向顔検出処理(2)、縮小方向顔検出処理、のそれぞれで顔検出されたときの識別領域SWの位置情報がワークエリアに記録されているので、識別結果判定部216は、そのうちの拡大方向顔検出処理(2)と縮小方向顔検出処理における検出結果を統合する(ステップS104)。
In the face detection process (FIG. 7), the identification area SW when the face is detected in each of the enlargement direction face detection process (1), the enlargement direction face detection process (2), and the reduction direction face detection process described above. Since the position information is recorded in the work area, the identification
つまり、撮像画像において、比較的小さく写っている顔部分を検出するための拡大方向顔検出処理(2)と、比較的大きく写っている顔部分を検出するための縮小方向顔検出処理の検出結果を統合することで、撮像画像内に様々な大きさで複数の顔が写っていても、それぞれを識別することができる。 That is, in the captured image, the detection result of the enlargement direction face detection process (2) for detecting a face portion that is relatively small and the reduction direction face detection process for detecting a face portion that is relatively large Can be identified even if a plurality of faces appear in various sizes in the captured image.
ここで、拡大方向顔検出処理(2)も縮小方向顔検出処理も実施された場合、同一の撮像画像について、複数の画像サイズで顔識別動作がおこなわれているので、仮に各検出結果のすべてを最終的に表示する枠画像で表すと、図14に示すように、顔部分に複数の枠が集中する。ここで、識別結果判定部216は、一定の割合で誤認識があることを考慮し、同じ位置において一定数以上の検出結果が得られている箇所が顔部分であると判定し、当該位置での検出結果を1つに統合することで、図6に示したような、ライブビュー画面とすることができる。
Here, when both the enlargement direction face detection process (2) and the reduction direction face detection process are performed, the face identification operation is performed with a plurality of image sizes for the same captured image. Is represented by a frame image to be finally displayed, as shown in FIG. 14, a plurality of frames are concentrated on the face portion. Here, the identification
この場合、識別結果判定部216は、統合した結果に基づく位置情報を出力処理部217に通知する。出力処理部217は、識別結果判定部216からの通知に応じて画像出力部240を制御することで、表示部310に、図6に示すような顔検出されたライブビュー画像が表示される(ステップS105)。
In this case, the identification
そして、ステップS101〜ステップS105の処理を、顔検出動作の終了イベントが発生するまで繰り返しおこなうことで(ステップS106:No)、ライブビュー画像上に顔が写っている場合は常に顔部分に枠画像が表示されることになる。 Then, by repeating the processing from step S101 to step S105 until the end event of the face detection operation occurs (step S106: No), the frame image is always displayed on the face portion when the face is reflected on the live view image. Will be displayed.
ここで、例えば、シャッタボタンの押下や撮影モードの終了などといった顔検出動作の終了イベントの発生とともに(ステップS106:Yes)、本処理を終了する。なお、シャッタボタンが押下された場合は、検出された顔部分に合わせた撮像動作や画像処理(例えば、合焦動作、露出調整、ホワイトバランス調整、など)をおこなうための処理が別途実行される。 Here, for example, when the end event of the face detection operation such as pressing of the shutter button or the end of the shooting mode is generated (step S106: Yes), this processing is ended. When the shutter button is pressed, processing for performing imaging operation and image processing (for example, focusing operation, exposure adjustment, white balance adjustment, etc.) according to the detected face portion is separately executed. .
以上説明したように、本発明を上記実施形態の如く適用することにより、人物を被写体として撮影した場合などにおいて、撮像画像中に現れている顔部分が比較的小さい場合であっても、確実に顔検出をおこなうことができる。 As described above, by applying the present invention as in the above-described embodiment, even when a person is photographed as a subject, the face portion appearing in the captured image is surely small. Face detection can be performed.
この場合において、従来からの顔検出技術で用いられている参照用画像に加え、このような通常の参照用画像よりも顔部分の小さい縮小参照画像を用意し、QVGAなどに縮小した画像上で、縮小参照画像を用いて顔識別をおこなうことで、撮像画像内で比較的小さく顔が写っているような場合でも、その位置のあたりをつけておくことができる。そして、あたりをつけることができた場合にのみ、実際のレックスルー画像と同じサイズの画像上で、通常の参照用画像を用いた顔識別をおこなう。 In this case, in addition to the reference image used in the conventional face detection technique, a reduced reference image having a face portion smaller than that of the normal reference image is prepared, and the image is reduced to QVGA or the like. By performing face identification using the reduced reference image, even when a relatively small face is shown in the captured image, it is possible to keep the position around that position. Then, only when the hit can be achieved, face identification using a normal reference image is performed on an image having the same size as the actual Rexroux image.
ここで、実際のサイズの画像で識別動作をおこなう際、その動作範囲を、あたりをつけた位置で絞り込んでいるので、少ない処理負荷によって顔検出をおこなうことができる。つまり、対象となる画像のサイズが大きくなる程、その全域で識別動作をおこなうと処理工数が増大し、処理負荷が高くなってしまうが、処理負荷の少ない縮小画像においてあたりをつけておくことで、実際に出力する画像のサイズが大きくても、絞り込んだ範囲で識別動作をおこなうので、全域で識別をおこなうよりも処理工数が低減する。この結果、画像サイズが大きくなっても処理速度を低下させずに顔検出をおこなうことができる。 Here, when the identification operation is performed with an image of an actual size, the operation range is narrowed down at the position where the hit is made, so that the face detection can be performed with a small processing load. In other words, as the size of the target image increases, the number of processing steps increases and the processing load increases when the identification operation is performed over the entire area. Even if the size of the image to be actually output is large, the identification operation is performed within the narrowed down range, so that the number of processing steps can be reduced as compared with the case where the entire area is identified. As a result, face detection can be performed without reducing the processing speed even when the image size increases.
ここで、対象画像を順次縮小させた画像ピラミッドで顔識別をおこなう従来の方法では、最初の対象画像上に現れている顔部分の大きさが、参照用画像に示されている顔部分の大きさよりも大きい場合でなければ顔検出をおこなうことができないが、上記実施形態で例示した拡大方向顔検出処理をおこなうことで、撮像画像に写っている顔が比較的小さい場合であっても、確実に検出することができる。 Here, in the conventional method of performing face identification with an image pyramid obtained by sequentially reducing the target image, the size of the face portion appearing on the first target image is the size of the face portion indicated in the reference image. However, the face detection cannot be performed unless it is larger than the above, but by performing the enlargement direction face detection processing exemplified in the above embodiment, even if the face shown in the captured image is relatively small, it is ensured. Can be detected.
さらに、このような拡大方向顔検出処理と、従来の処理と同様の縮小方向顔検出処理とをおこなうことで、例えば、撮像装置との距離が異なる複数の被写体を撮影した場合のように、様々な大きさの顔が1つの撮像画像上に現れている場合であっても、確実に顔検出をおこなうことができる。 Furthermore, by performing such an enlargement direction face detection process and a reduction direction face detection process similar to the conventional process, for example, when shooting a plurality of subjects with different distances from the imaging device, various Even when a large-sized face appears on one captured image, face detection can be reliably performed.
よって、従来の処理に拡大方向顔検出処理が増えることになるが、処理負荷の増加を最小限にして、より確実な顔検出を実現することができる。 Therefore, the enlargement direction face detection process is increased in comparison with the conventional process, but a more reliable face detection can be realized by minimizing an increase in processing load.
また、上記実施形態における拡大方向顔検出処理(1)では、処理負荷の低い縮小画像を用いており、ここであたりをつけることができなければ、非縮小画像を用いる拡大方向顔検出処理(2)を実行しない。つまり、撮像画像の内容に応じて必要な顔検出動作のみがおこなわれるので、処理負荷の増大を必要最小限に抑えつつ、より確実な顔検出を実現することができる。 In the enlargement direction face detection process (1) in the above-described embodiment, a reduced image with a low processing load is used. If a hit cannot be made here, an enlargement direction face detection process (2) using a non-reduced image. ) Is not executed. That is, since only the necessary face detection operation is performed according to the content of the captured image, more reliable face detection can be realized while suppressing an increase in processing load to a minimum.
上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。 The said embodiment is an example and the application range of this invention is not restricted to this. That is, various applications are possible, and all embodiments are included in the scope of the present invention.
まず、上記実施形態では、デジタルスチルカメラでの撮影時に顔検出する場合を例示したが、検出対象は顔に限られず任意である。すなわち、所望する検出対象に応じた参照用画像を用意することで、種々の対象の検出に本発明を適用することができる。 First, in the above-described embodiment, the case where a face is detected at the time of photographing with a digital still camera is illustrated, but the detection target is not limited to a face and is arbitrary. That is, the present invention can be applied to detection of various objects by preparing a reference image corresponding to a desired detection object.
この場合において、検出対象は撮像時の被写体に限られるものでもない。すなわち、入力画像に対象となる画像が含まれていればよいので、上記実施形態に例示したような、撮像時に検出をおこなうのではなく、撮像された画像を入力画像としてもよい。つまり、上記実施形態で示したデータ処理部200にかかる構成や機能は、撮像装置に搭載されている必要はなく、画像データを入力することのできる種々の装置として実現されることでもよい。
In this case, the detection target is not limited to the subject at the time of imaging. That is, since it is only necessary that the target image is included in the input image, the captured image may be used as the input image instead of performing detection at the time of imaging as exemplified in the above embodiment. That is, the configuration and functions of the
したがって、本発明にかかる構成や機能を備えた画像処理装置として実現することができる。このような画像処理装置は、本発明にかかる構成や機能を予め備えた専用装置として実現できることはもとより、例えば、パーソナルコンピュータなどといった汎用のコンピュータ装置によって実現されてもよい。 Therefore, it is realizable as an image processing apparatus provided with the structure and function concerning this invention. Such an image processing apparatus can be realized by a general-purpose computer apparatus such as a personal computer as well as being realized as a dedicated apparatus having the configuration and functions according to the present invention in advance.
この場合、上記実施形態で示した制御部210が実行したプログラムと同様のプログラムを汎用のコンピュータ装置に適用し、当該コンピュータ装置がそのプログラムを実行することで、本発明にかかる画像処理装置として機能させることができる。
In this case, a program similar to the program executed by the
また、本発明を上記で例示したデジタルカメラ1のような撮像装置で実現する場合も、本発明にかかる構成や機能を予め備えた撮像装置として提供できる他、プログラムを適用することにより、既存の撮像装置を本発明にかかる撮像装置として機能させることもできる。 Further, when the present invention is realized by an imaging apparatus such as the digital camera 1 exemplified above, it can be provided as an imaging apparatus having the configuration and functions according to the present invention in advance, and by applying a program, The imaging device can also function as the imaging device according to the present invention.
なお、上記実施形態では、撮像装置の例としてデジタルスチルカメラを示したが、撮像画像をデジタル処理できるものであれば、例えば、デジタルビデオカメラなどといった動画撮像をおこなう撮像装置に本発明を適用してもよい。また、撮像装置の形態は任意であり、単体のデジタルスチルカメラやデジタルビデオカメラで実現可能であることはもとより、これらと同様の撮像機能を備えた種々の電子機器(例えば、携帯電話など)に本発明を適用してもよい。 In the above embodiment, a digital still camera is shown as an example of an imaging device. However, the present invention is applied to an imaging device that performs moving image imaging, such as a digital video camera, as long as the captured image can be digitally processed. May be. In addition, the form of the image pickup apparatus is arbitrary, and it can be realized by a single digital still camera or digital video camera. In addition, the image pickup apparatus can be used in various electronic devices (for example, cellular phones) having the same image pickup function. The present invention may be applied.
このような場合においても、プログラムを適用することで、既存の装置を本発明にかかる撮像装置として機能させることができる。 Even in such a case, by applying the program, an existing apparatus can be caused to function as the imaging apparatus according to the present invention.
このようなプログラムの適用方法は任意であり、例えば、CD−ROMやメモリカードなどの記憶媒体に格納して適用できる他、例えば、インターネットなどの通信媒体を介して適用することもできる。 The application method of such a program is arbitrary. For example, the program can be applied by being stored in a storage medium such as a CD-ROM or a memory card, or can be applied via a communication medium such as the Internet.
また、上記実施形態において、画像サイズの例としてVGAとQVGAを示したが、これらは一例であり、画像サイズはこれらに限られるものではない。つまり、本発明にかかる処理をおこなう場合において、縮小変換する画像サイズは、入力された画像サイズよりも小さいサイズであればよい。また、入力画像と縮小画像のサイズ比も任意であり、処理負荷が最適化されるよう適宜設定すればよい。 Moreover, in the said embodiment, although VGA and QVGA were shown as an example of image size, these are examples and image size is not restricted to these. That is, when performing the processing according to the present invention, the image size to be reduced and converted may be smaller than the input image size. Further, the size ratio between the input image and the reduced image is also arbitrary, and may be set as appropriate so that the processing load is optimized.
また、対象画像の検出をおこなう際に採用するアルゴリズムも任意であり、所望する対象を識別することができるのであれば、上記実施形態で示したニューラルネット、アダブースト、サポートベクターマシン、などに限られるものではない。 Also, the algorithm employed when detecting the target image is arbitrary, and is limited to the neural network, Adaboost, support vector machine, etc. shown in the above embodiment as long as the desired target can be identified. It is not a thing.
1…デジタルカメラ、100…撮像部、110…光学装置、120…イメージセンサ部、200…データ処理部、210…制御部、211…画像変換部、212…対象画像選択部、213…識別領域設定部、214…第1の識別器、215…第2の識別器、216…識別結果判定部、217…出力処理部、220…画像処理部、230…画像メモリ、230a…入力画像格納領域、230b…検出用画像格納領域、230c…検出用画像格納領域、240…画像出力部、250…記憶部、250a…参照用画像格納領域、250b…参照用画像格納領域、250c…プログラム格納領域、260…外部記憶部、300…インタフェース部、310…表示部、320…外部インタフェース部、330…操作部、PL…検出用スルー画像、PS…検出用縮小画像、FL…通常参照画像、FS…縮小参照画像、SW…識別領域、SS…絞込検出領域 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 100 ... Imaging part, 110 ... Optical apparatus, 120 ... Image sensor part, 200 ... Data processing part, 210 ... Control part, 211 ... Image conversion part, 212 ... Target image selection part, 213 ... Identification area setting 214, first discriminator, 215, second discriminator, 216, discrimination result determination unit, 217, output processing unit, 220, image processing unit, 230, image memory, 230a, input image storage area, 230b. ... detection image storage area, 230c ... detection image storage area, 240 ... image output section, 250 ... storage section, 250a ... reference image storage area, 250b ... reference image storage area, 250c ... program storage area, 260 ... External storage unit, 300 ... interface unit, 310 ... display unit, 320 ... external interface unit, 330 ... operation unit, PL ... through image for detection, PS ... Out for a reduced image, FL ... usually the reference image, FS ... reduced reference image, SW ... identification area, SS ... narrowing the detection area
Claims (8)
前記参照用画像を格納する参照用画像格納手段と、
前記参照用画像格納手段に格納された参照用画像が示す特徴部分を縮小した縮小参照画像を格納する縮小参照画像格納手段と、
前記入力画像を縮小する画像縮小手段と、
前記画像縮小手段が縮小した画像上で、前記縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定手段と、
前記対象位置特定手段が特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出手段と、
を備えることを特徴とする画像処理装置。 In an image processing apparatus for detecting a detection target image on an input image by an identification operation using a reference image,
Reference image storage means for storing the reference image;
Reduced reference image storage means for storing a reduced reference image obtained by reducing the characteristic portion indicated by the reference image stored in the reference image storage means;
Image reduction means for reducing the input image;
Target position specifying means for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image on the image reduced by the image reducing means;
Image detecting means for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified by the target position specifying means. When,
An image processing apparatus comprising:
ことを特徴とする請求項1に記載の画像処理装置。 The image detection unit does not perform an identification operation on the input image when the target position specifying unit cannot specify the position of the detection target image on the reduced image.
The image processing apparatus according to claim 1.
前記画像検出手段は、前記画像縮小手段が順次縮小する画像のそれぞれにおいて前記参照用画像を用いた識別動作をおこなって前記検出対象画像を検出する、
ことを特徴とする請求項1または2に記載の画像処理装置。 The image reduction means sequentially reduces the input image,
The image detection means detects the detection target image by performing an identification operation using the reference image in each of the images sequentially reduced by the image reduction means.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
撮像画像を入力画像として取得する入力画像取得手段と、
前記参照用画像を格納する参照用画像格納手段と、
前記参照用画像格納手段に格納された参照用画像が示す特徴部分を縮小した縮小参照画像を格納する縮小参照画像格納手段と、
前記入力画像を縮小する画像縮小手段と、
前記画像縮小手段が縮小した画像上で、前記縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定手段と、
前記対象位置特定手段が特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出手段と、
を備えることを特徴とする撮像装置。 In an imaging device that detects a detection target image on an input image by an identification operation using a reference image,
Input image acquisition means for acquiring a captured image as an input image;
Reference image storage means for storing the reference image;
Reduced reference image storage means for storing a reduced reference image obtained by reducing the characteristic portion indicated by the reference image stored in the reference image storage means;
Image reduction means for reducing the input image;
Target position specifying means for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image on the image reduced by the image reducing means;
Image detecting means for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified by the target position specifying means. When,
An imaging apparatus comprising:
ことを特徴とする請求項4に記載の撮像装置。 The image detection unit does not perform an identification operation on the input image when the target position specifying unit cannot specify the position of the detection target image on the reduced image.
The imaging apparatus according to claim 4.
前記画像検出手段は、前記画像縮小手段が順次縮小する画像のそれぞれにおいて前記参照用画像を用いた識別動作をおこなって前記検出対象画像を検出する、
ことを特徴とする請求項4または5に記載の撮像装置。 The image reduction means sequentially reduces the input image,
The image detection means detects the detection target image by performing an identification operation using the reference image in each of the images sequentially reduced by the image reduction means.
The imaging apparatus according to claim 4 or 5, wherein
前記入力画像を縮小する画像縮小ステップと、
前記画像縮小ステップで縮小した画像上で、前記参照用画像が示す特徴部分を縮小した縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する対象位置特定ステップと、
前記対象位置特定ステップで特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう画像検出ステップと、
を含むことを特徴とする画像処理方法。 An image processing method for detecting a detection target image on an input image by an identification operation using a reference image,
An image reduction step for reducing the input image;
An object for specifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image obtained by reducing the characteristic portion indicated by the reference image on the image reduced in the image reduction step. A location step;
An image detection step of detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the position specified in the target position specifying step. When,
An image processing method comprising:
前記コンピュータに、
前記入力画像を縮小する機能と、
前記縮小した画像上で、前記参照用画像が示す特徴部分を縮小した縮小参照画像を用いた識別動作をおこなうことで、該縮小した画像における前記検出対象画像の位置を特定する機能と、
前記特定した位置に対応する前記入力画像上の位置において、前記参照用画像を用いた識別動作をおこなうことで、該入力画像上で前記検出対象画像の検出をおこなう機能と、
を実現させることを特徴とするプログラム。 A program for causing a computer to detect a detection target image on an input image by an identification operation using a reference image,
In the computer,
A function of reducing the input image;
A function for identifying the position of the detection target image in the reduced image by performing an identification operation using the reduced reference image obtained by reducing the characteristic portion indicated by the reference image on the reduced image;
A function for detecting the detection target image on the input image by performing an identification operation using the reference image at a position on the input image corresponding to the specified position;
A program characterized by realizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007224005A JP2009059048A (en) | 2007-08-30 | 2007-08-30 | Image processor, imaging device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007224005A JP2009059048A (en) | 2007-08-30 | 2007-08-30 | Image processor, imaging device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009059048A true JP2009059048A (en) | 2009-03-19 |
Family
ID=40554757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007224005A Pending JP2009059048A (en) | 2007-08-30 | 2007-08-30 | Image processor, imaging device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009059048A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011099092A1 (en) * | 2010-02-09 | 2011-08-18 | パナソニック株式会社 | Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method |
JP5513490B2 (en) * | 2009-04-10 | 2014-06-04 | パナソニック株式会社 | Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03110685A (en) * | 1989-09-25 | 1991-05-10 | Toshiba Corp | Picture correlator |
JPH11135998A (en) * | 1997-10-29 | 1999-05-21 | Matsushita Electric Ind Co Ltd | Recognition method |
JP2001319229A (en) * | 2000-05-10 | 2001-11-16 | Toyota Central Res & Dev Lab Inc | Correlation calculation method for image |
JP2006202184A (en) * | 2005-01-24 | 2006-08-03 | Konica Minolta Holdings Inc | Detection device, detection method and detection program |
JP2007074142A (en) * | 2005-09-05 | 2007-03-22 | Canon Inc | Imaging apparatus and its control method, and image processing apparatus and method |
-
2007
- 2007-08-30 JP JP2007224005A patent/JP2009059048A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03110685A (en) * | 1989-09-25 | 1991-05-10 | Toshiba Corp | Picture correlator |
JPH11135998A (en) * | 1997-10-29 | 1999-05-21 | Matsushita Electric Ind Co Ltd | Recognition method |
JP2001319229A (en) * | 2000-05-10 | 2001-11-16 | Toyota Central Res & Dev Lab Inc | Correlation calculation method for image |
JP2006202184A (en) * | 2005-01-24 | 2006-08-03 | Konica Minolta Holdings Inc | Detection device, detection method and detection program |
JP2007074142A (en) * | 2005-09-05 | 2007-03-22 | Canon Inc | Imaging apparatus and its control method, and image processing apparatus and method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5513490B2 (en) * | 2009-04-10 | 2014-06-04 | パナソニック株式会社 | Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method |
WO2011099092A1 (en) * | 2010-02-09 | 2011-08-18 | パナソニック株式会社 | Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7643742B2 (en) | Electronic camera, image processing apparatus, image processing method and image processing computer program | |
JP4735742B2 (en) | Imaging apparatus, strobe image generation method, and program | |
KR100967855B1 (en) | System and method for checking framing and sharpness of a digital image | |
JP4539597B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP4006415B2 (en) | Image capturing apparatus, control method therefor, and control program | |
JP4974812B2 (en) | Electronic camera | |
JP4286292B2 (en) | Electronic camera | |
KR20070051689A (en) | Image processing apparatus, image processing method, program for image processing method, and recording medium which records program for image processing method | |
US8284994B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2007306416A (en) | Method for displaying face detection frame, method for displaying character information, and imaging apparatus | |
JP4663700B2 (en) | Imaging apparatus and imaging method | |
US8189056B2 (en) | Image capturing apparatus, angle-of-view adjusting method and recording medium | |
US9900523B2 (en) | Image processing apparatus which performs image processing on photographic subject | |
JP2009111716A (en) | Imaging apparatus, program and template generating method | |
JP4877154B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6172973B2 (en) | Image processing device | |
JP5310076B2 (en) | Image processing apparatus and image processing program | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2009017427A (en) | Imaging device | |
JP4807623B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP2009059048A (en) | Image processor, imaging device, image processing method, and program | |
JP6024135B2 (en) | Subject tracking display control device, subject tracking display control method and program | |
JP5359930B2 (en) | Imaging apparatus, display method, and program | |
JP2009064123A (en) | Image processor, imaging device, image processing method and program | |
JP2010016693A (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120522 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130115 |