JP4506779B2 - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP4506779B2
JP4506779B2 JP2007124719A JP2007124719A JP4506779B2 JP 4506779 B2 JP4506779 B2 JP 4506779B2 JP 2007124719 A JP2007124719 A JP 2007124719A JP 2007124719 A JP2007124719 A JP 2007124719A JP 4506779 B2 JP4506779 B2 JP 4506779B2
Authority
JP
Japan
Prior art keywords
face
face image
unit
imaging
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007124719A
Other languages
Japanese (ja)
Other versions
JP2008283379A (en
Inventor
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007124719A priority Critical patent/JP4506779B2/en
Publication of JP2008283379A publication Critical patent/JP2008283379A/en
Application granted granted Critical
Publication of JP4506779B2 publication Critical patent/JP4506779B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被写体を撮像する撮像装置及びプログラムに関する。   The present invention relates to an imaging apparatus and a program for imaging a subject.

一般的なディジタル・スチル・カメラにおいては、平均測光、中央重点測光などにより測光値が得られ、得られた測光値を用いて自動露出制御が行われる。自動露出制御が終わると、自動合焦制御が行われる。
しかしながら,人物などの所望の被写体が撮影範囲の中央などに存在しない場合には正確な自動露出制御、自動合焦制御が行われないことがある。このために顔などの対象物を検出して自動露出制御を行うもの(例えば、特許文献1参照)、自動合焦制御を行うもの(例えば、特許文献2参照)、自動露出制御および自動合焦制御の両方を行うもの(例えば、特許文献3参照)などがある。さらには顔の検出を確実にするために露出量を変えながら複数回の撮影を行って顔を検出するものもある(例えば、特許文献4参照)。
特開2003−107555号公報 特開2003−107335号公報 特開2003−344891号公報 特開2007−5966号公報
In a general digital still camera, a photometric value is obtained by average photometry, center-weighted photometry, etc., and automatic exposure control is performed using the obtained photometric value. When the automatic exposure control is finished, automatic focusing control is performed.
However, when a desired subject such as a person does not exist in the center of the shooting range, accurate automatic exposure control and automatic focusing control may not be performed. For this purpose, an object that detects an object such as a face and performs automatic exposure control (for example, see Patent Document 1), an object that performs automatic focusing control (for example, see Patent Document 2), automatic exposure control and automatic focusing There is one that performs both of the controls (for example, see Patent Document 3). Furthermore, there is also a technique for detecting a face by performing photographing a plurality of times while changing the exposure amount in order to ensure the detection of the face (for example, see Patent Document 4).
JP 2003-107555 A JP 2003-107335 A JP 2003-344891 A JP 2007-5966 A

しかしながら、上記特許文献1乃至4等の場合、被写体である人物の「正面の顔」から「横顔」にかけて一定の角度までしか検出性能が保証されていない。即ち、例えば、人物が完全に横を向いてしまった場合には、顔を検出できずに被写体を見失った状態(「ロスト」の状態)となる。また、例えば、被写体がカメラを意識せずに自然に動いていると、被写体は下を向いたり、上を向いたり、或いは目深に目を伏せてしまう場合があるが、かかる場合にも、顔の検出に失敗してしまう。   However, in the case of Patent Documents 1 to 4 and the like, the detection performance is guaranteed only to a certain angle from the “front face” to the “side face” of the person who is the subject. That is, for example, when a person is completely turned sideways, the face cannot be detected and the subject is lost ("lost" state). Also, for example, if the subject moves naturally without being conscious of the camera, the subject may turn down, turn up, or look deep in the eyes. Face detection fails.

なお、最近の顔検出技術の向上によって、顔の上下左右のアングルの保証値は年々向上しているため、顔がかなり横を向いていても顔の検出に成功するようになっている。しかしながら、顔が完全に横を向いてしまったり下を向いてしまった場合には、顔検出を適正に行うことができないのが現状である。
このように顔の検出に失敗した場合には所望の被写体を見失い、被写体の撮像を適正に行うことができないといった問題がある。
With the recent improvement in face detection technology, the guaranteed values of the upper, lower, left and right angles of the face have improved year by year, so that even if the face is facing sideways, the face can be detected successfully. However, in the current situation, face detection cannot be performed properly if the face is completely turned sideways or turned downward.
As described above, when face detection fails, there is a problem that a desired subject is lost and the subject cannot be properly imaged.

そこで、本発明の課題は、被写体を見失う時間を減少させることができ、被写体の撮像を適正に行うことができる撮像装置及びプログラムを提供することである。   Therefore, an object of the present invention is to provide an imaging apparatus and a program that can reduce the time for losing sight of a subject and appropriately capture the subject.

請求項1に記載の発明の撮像装置は、
被写体を連続して撮像して、複数の画像フレームを生成する撮像手段と、
前記撮像手段により生成された前記複数の画像フレームから前記被写体の顔画像を検出する顔検出手段と、
前記顔検出手段による前記顔検出の結果に応じて前記顔画像の検出状態であるか非検出状態であるかを判定する顔検出判定手段と、
前記顔検出判定手段により前記顔画像の非検出状態であると判定された場合に、前記複数の画像フレームのうちの隣合う画像フレーム間で、前記顔画像に対応する顔画像対応部を追跡する顔画像対応部追跡手段と、
前記顔検出手段によって検出された前記顔画像及び前記顔画像対応部追跡手段により追跡された前記顔画像対応部に基づいて、撮像制御を行う撮像制御手段と、を備えることを特徴としている。
The imaging device of the invention according to claim 1
Imaging means for continuously imaging a subject to generate a plurality of image frames;
Face detection means for detecting a face image of the subject from the plurality of image frames generated by the imaging means;
Face detection determination means for determining whether the face image is in a detection state or a non-detection state according to a result of the face detection by the face detection means;
When the face detection determining unit determines that the face image is not detected, the face image corresponding unit corresponding to the face image is tracked between adjacent image frames of the plurality of image frames. A face image corresponding part tracking means;
Imaging control means for performing imaging control based on the face image detected by the face detection means and the face image corresponding part tracked by the face image corresponding part tracking means.

請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記顔画像対応部追跡手段は、
前記顔検出手段により検出された前記顔画像の座標を取得する第一の座標取得手段と、
前記顔検出判定手段により前記顔画像の非検出状態であると判定された場合に、前記第一の座標取得手段により取得された前記顔画像の座標に基づいて、前記顔画像対応部を特定する顔画像対応部特定手段と、
前記顔画像対応部特定手段により特定されて当該顔画像対応部追跡手段により追跡された前記顔画像対応部の座標を取得する第二の座標取得手段と、を備えることを特徴としている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
The face image corresponding unit tracking means includes:
First coordinate acquisition means for acquiring coordinates of the face image detected by the face detection means;
When the face detection determination unit determines that the face image is not detected, the face image corresponding unit is specified based on the coordinates of the face image acquired by the first coordinate acquisition unit. A face image corresponding part specifying means;
And second coordinate acquisition means for acquiring the coordinates of the face image corresponding part specified by the face image corresponding part specifying means and tracked by the face image corresponding part tracking means.

請求項3に記載の発明は、請求項2に記載の撮像装置において、
前記顔検出判定手段により前記顔画像の非検出状態であると判定された場合に、前記顔検出手段は前記第二の座標取得手段によって取得された座標の近傍に対して顔検出を行うことを特徴としている。
The invention according to claim 3 is the imaging apparatus according to claim 2,
When the face detection determination unit determines that the face image is not detected, the face detection unit performs face detection on the vicinity of the coordinates acquired by the second coordinate acquisition unit. It is a feature.

請求項4に記載の発明は、請求項3に記載の撮像装置において、
前記顔検出判定手段により前記顔画像の非検出状態であると判定された場合に、当該非検出状態となっている時間を計時する非検出時間計測手段と、
前記非検出時間計測手段により計時される時間が所定時間を超えたか否かを判定する非検出時間判定手段と、をさらに備え、
前記非検出時間判定手段により所定時間を超えたと判定された場合に、前記顔検出手段は前記所定の領域よりも広い範囲の領域に対して顔検出を行うことを特徴としている。
The invention according to claim 4 is the imaging apparatus according to claim 3,
A non-detection time measuring means for measuring the time in the non-detection state when the face detection determination means determines that the face image is in a non-detection state;
A non-detection time determination unit that determines whether or not a time measured by the non-detection time measurement unit exceeds a predetermined time;
When it is determined by the non-detection time determination means that the predetermined time has been exceeded, the face detection means performs face detection on an area wider than the predetermined area.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の撮像装置において、
前記撮像制御手段は、
前記撮像手段に備わる撮像レンズの合焦位置を調整する合焦位置調整手段と、
前記撮像手段により撮像された前記画像フレームの所定領域の明るさに基づいて、当該画像フレームの明るさを調整する明るさ調整手段と、
前記撮像手段により撮像された前記画像フレームの所定領域の色調に基づいて、当該画像フレームの色調を調整する色調調整手段と、をさらに備え、
前記撮像手段による前記被写体の撮像の際、前記顔画像の検出状態にて、前記明るさ調整関連処理実行手段による明るさ調整処理及び前記色調調整処理実行手段による色調調整処理の少なくとも何れか一方と、前記合焦位置調整手段による合焦位置調整処理の実行を制御する一方で、前記顔画像の非検出状態にて、前記合焦位置調整手段による前記合焦位置調整処理の実行を制御することを特徴としている。
Invention of Claim 5 is an imaging device as described in any one of Claims 1-4,
The imaging control means includes
Focusing position adjusting means for adjusting the focusing position of the imaging lens provided in the imaging means;
Brightness adjusting means for adjusting the brightness of the image frame based on the brightness of a predetermined area of the image frame imaged by the imaging means;
A color tone adjusting unit that adjusts a color tone of the image frame based on a color tone of a predetermined area of the image frame captured by the imaging unit;
At the time of imaging of the subject by the imaging means, at least one of brightness adjustment processing by the brightness adjustment related processing execution means and color tone adjustment processing by the color tone adjustment processing execution means in the detection state of the face image Controlling the execution of the focus position adjustment process by the focus position adjustment means, while controlling the execution of the focus position adjustment process by the focus position adjustment means in the non-detection state of the face image. It is characterized by.

請求項6に記載の発明のプログラムは、
被写体を連続して撮像して、複数の画像フレームを生成する撮像手段を備える撮像装置に、
前記撮像手段により生成された前記複数の画像フレームから前記被写体の顔画像を検出する顔検出する機能と、
顔検出処理の結果に応じて前記顔画像の検出状態であるか非検出状態であるかを判定する機能と、
前記顔画像の非検出状態であると判定された場合に、前記複数の画像フレームのうちの隣合う画像フレーム間で、前記顔画像に対応する顔画像対応部を追跡する機能と、
前記顔検出処理によって検出された前記顔画像及び追跡された前記顔画像対応部に基づいて、前記撮像手段により撮像される画像の撮像を制御する機能と、
前記顔画像対応部の追跡開始後、前記顔画像の検出状態であると判定された場合に、前記顔画像対応部の追跡を停止する機能と、
を実現させることを特徴としている。
The program of the invention described in claim 6 is:
In an imaging apparatus comprising imaging means for continuously imaging a subject and generating a plurality of image frames,
A face detecting function for detecting a face image of the subject from the plurality of image frames generated by the imaging means;
A function of determining whether the face image is in a detected state or a non-detected state according to a result of face detection processing;
A function of tracking a face image corresponding unit corresponding to the face image between adjacent image frames of the plurality of image frames when it is determined that the face image is not detected;
A function of controlling the imaging of the image captured by the imaging unit based on the face image detected by the face detection process and the tracked face image corresponding unit;
A function of stopping tracking of the face image corresponding unit when it is determined that the face image corresponding unit is in a detection state after the tracking of the face image corresponding unit is started;
It is characterized by realizing.

本発明によれば、ひとたび顔を検出できた被写体をより長い時間追いかけて当該被写体を見失う時間を減少させることができ、この結果、被写体画像の撮像制御を適正に行って被写体の撮像を適正に行うことができる。   According to the present invention, it is possible to reduce the time for which a subject whose face has been detected is chased for a longer time and lose sight of the subject. It can be carried out.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の撮像装置100は、被写体の顔画像を検出する顔検出処理を実行し、顔画像F(図2参照)の非検出状態となると、当該顔画像Fに対応する顔画像対応部C(図5参照)を動体解析により追跡し、顔検出処理によって検出された顔画像F及び動体解析により追跡された顔画像対応部Cに基づいて、撮像される画像の撮像制御を行う。
具体的には、撮像装置100は、例えば、図1に示すように、撮像部1と、撮像補助部2と、表示部3、操作部4と、記録媒体5と、USB端子6と、計時部7と、制御部8等を備えて構成されている。
The imaging apparatus 100 according to the present embodiment executes a face detection process for detecting the face image of the subject, and when the face image F (see FIG. 2) is not detected, the face image corresponding unit C corresponding to the face image F. (See FIG. 5) is tracked by moving body analysis, and image pickup control of the image to be taken is performed based on the face image F detected by the face detection process and the face image corresponding unit C tracked by the moving body analysis.
Specifically, for example, as illustrated in FIG. 1, the imaging apparatus 100 includes an imaging unit 1, an imaging auxiliary unit 2, a display unit 3, an operation unit 4, a recording medium 5, a USB terminal 6, and a time count. A unit 7 and a control unit 8 are provided.

撮像部1は、撮像手段として、被写体を連続して撮像して複数の画像フレームG、…を生成する。具体的には、撮像部1は、撮像レンズ群11と、電子撮像部12と、映像信号処理部13と、画像メモリ14と、撮影制御部15等を備えている。   The imaging unit 1 generates a plurality of image frames G,... Specifically, the imaging unit 1 includes an imaging lens group 11, an electronic imaging unit 12, a video signal processing unit 13, an image memory 14, a shooting control unit 15, and the like.

撮像レンズ群11は、複数の撮像レンズから構成されている。
電子撮像部12は、撮像レンズ群11を通過した被写体像を二次元の画像信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等から構成されている。
映像信号処理部13は、電子撮像部12から出力される画像信号に対して所定の画像処理を施すものである。
画像メモリ14は、画像処理後の画像信号を一時的に記憶する。
The imaging lens group 11 includes a plurality of imaging lenses.
The electronic imaging unit 12 includes a CCD (Charge Coupled Device) that converts a subject image that has passed through the imaging lens group 11 into a two-dimensional image signal, a CMOS (Complementary Metal-oxide Semiconductor), and the like.
The video signal processing unit 13 performs predetermined image processing on the image signal output from the electronic imaging unit 12.
The image memory 14 temporarily stores the image signal after image processing.

撮影制御部15は、CPU81の制御下にて、電子撮像部12及び映像信号処理部13を制御する。具体的には、撮影制御部15は、電子撮像部12に所定の露出時間で被写体を撮像させ、当該電子撮像部12の撮像領域から画像信号(画像フレームG)を所定のフレームレートで読み出す処理の実行を制御する。   The imaging control unit 15 controls the electronic imaging unit 12 and the video signal processing unit 13 under the control of the CPU 81. Specifically, the imaging control unit 15 causes the electronic imaging unit 12 to image a subject with a predetermined exposure time, and reads an image signal (image frame G) from the imaging area of the electronic imaging unit 12 at a predetermined frame rate. Control the execution of

撮像補助部2は、撮像部1による被写体の撮像の際に駆動するものであり、例えば、フォーカス駆動部21と、ズーム駆動部22、ストロボ発光部23と、ストロボ駆動部24等を備えている。   The imaging auxiliary unit 2 is driven when the subject is imaged by the imaging unit 1, and includes, for example, a focus driving unit 21, a zoom driving unit 22, a strobe light emitting unit 23, a strobe driving unit 24, and the like. .

フォーカス駆動部21は、撮像レンズ群11に接続されたフォーカス機構部(図示略)を駆動させる。
ズーム駆動部22は、撮像レンズ群11に接続されたズーム機構部(図示略)を駆動させる。
ストロボ駆動部24は、ストロボ発光部23を発光させる。
なお、フォーカス駆動部21、ズーム駆動部22及びストロボ駆動部24は、撮影制御部15に接続され、撮影制御部15の制御下にて駆動する。
The focus drive unit 21 drives a focus mechanism unit (not shown) connected to the imaging lens group 11.
The zoom drive unit 22 drives a zoom mechanism unit (not shown) connected to the imaging lens group 11.
The strobe driving unit 24 causes the strobe light emitting unit 23 to emit light.
The focus driving unit 21, zoom driving unit 22, and strobe driving unit 24 are connected to the shooting control unit 15 and are driven under the control of the shooting control unit 15.

表示部3は、撮像部1により撮像された画像を表示するものであり、例えば、表示制御部31と、画像表示部32等を備えている。   The display unit 3 displays an image captured by the imaging unit 1, and includes, for example, a display control unit 31, an image display unit 32, and the like.

表示制御部31は、CPU81から適宜出力される表示データを一時的に保存するビデオメモリ(図示略)を備えている。   The display control unit 31 includes a video memory (not shown) that temporarily stores display data output from the CPU 81 as appropriate.

画像表示部32は、表示制御部31からの出力信号に基づいて撮像部1により撮像された画像(図2等参照)等の所定画像を表示する液晶モニタ等を備えている。
また、画像表示部32は、顔検出処理(後述)にて検出された顔画像に重畳させて顔検出枠A1(図2等参照)を表示する。具体的には、例えば、シャボン玉をしている人物Hを主要被写体として撮像する場合、画像表示部32は、図2〜図7に示すように、人物Hがシャボン玉作成器具を所定方向に動かしている状態に係る複数の画像フレームGを逐次表示する。このとき、顔検出処理にて顔画像Fが検出されると、画像表示部32は、当該顔画像Fに重畳させて略矩形状の顔検出枠A1を表示する。
さらに、画像表示部32は、動体追跡処理(後述)にて追跡される顔画像対応部Cに重畳させて追跡枠A2(図5参照)を表示する。具体的には、人物Hが後ろ向きとなって顔画像Fの非検出状態となると、画像表示部32は、動体追跡処理にて追跡する顔画像対応部Cに重畳させて略矩形状の追跡枠A2を表示する。
また、顔画像対応部Cの追跡中に、顔画像対応部Cを見失ったり第二の追跡停止処理(後述)にて顔画像対応部Cの追跡を停止した場合には、画像表示部32は、撮像画像に対する追跡枠A2の重畳表示を停止する(図7参照)。
The image display unit 32 includes a liquid crystal monitor that displays a predetermined image such as an image (see FIG. 2 and the like) captured by the imaging unit 1 based on an output signal from the display control unit 31.
The image display unit 32 displays a face detection frame A1 (see FIG. 2 and the like) superimposed on the face image detected in the face detection process (described later). Specifically, for example, when a person H wearing a soap bubble is imaged as a main subject, the image display unit 32 causes the person H to place the soap bubble creation device in a predetermined direction as shown in FIGS. A plurality of image frames G relating to the moving state are sequentially displayed. At this time, when the face image F is detected by the face detection process, the image display unit 32 displays a substantially rectangular face detection frame A1 superimposed on the face image F.
Further, the image display unit 32 displays the tracking frame A2 (see FIG. 5) in a manner superimposed on the face image corresponding unit C tracked in the moving body tracking process (described later). Specifically, when the person H faces backwards and the face image F is not detected, the image display unit 32 superimposes the face image corresponding unit C to be tracked in the moving body tracking process to form a substantially rectangular tracking frame. A2 is displayed.
If the face image corresponding unit C is lost or the tracking of the face image corresponding unit C is stopped in the second tracking stop process (described later) during the tracking of the face image corresponding unit C, the image display unit 32 Then, the superimposed display of the tracking frame A2 on the captured image is stopped (see FIG. 7).

なお、顔検出枠A1及び追跡枠A2として、略矩形状に形成されたものを例示したが、枠形状はこれに限られるものではなく、顔画像Fや顔画像対応部Cと対応付けられるものであれば如何なる形状であっても良い。   The face detection frame A1 and the tracking frame A2 are illustrated as being substantially rectangular, but the frame shape is not limited to this, and the face detection frame A1 and the tracking image A2 are associated with the face image F and the face image corresponding unit C. Any shape can be used.

操作部4は、当該撮像装置100の所定操作を行うためのものであり、例えば、シャッターボタン41a等を備える操作入力部41と、入力回路42等を備えている。   The operation unit 4 is for performing a predetermined operation of the imaging apparatus 100, and includes, for example, an operation input unit 41 including a shutter button 41a and the like, an input circuit 42 and the like.

シャッターボタン41aは、撮像部1による被写体の撮像を指示する。また、シャッターボタン41aは、例えば、半押し操作及び全押し操作の2段階の押圧操作が可能に構成され、各操作段階に応じた所定の操作信号を出力する。具体的には、シャッターボタン41aは、半押し操作された場合に、制御部8の制御下にて自動合焦処理(AF)、自動露出処理(AE)、フラッシュ調光処理(FE)、色調調整処理等の実行指示を出力し、全押し操作された場合に、撮像部1による本画像(記録画像)の撮像の実行指示を出力する。   The shutter button 41a instructs the imaging unit 1 to image the subject. The shutter button 41a is configured to be capable of two-stage pressing operation, for example, a half-pressing operation and a full-pressing operation, and outputs a predetermined operation signal corresponding to each operation stage. Specifically, when the shutter button 41a is pressed halfway, under the control of the control unit 8, automatic focusing processing (AF), automatic exposure processing (AE), flash light control processing (FE), color tone An execution instruction for adjustment processing or the like is output, and when the full-press operation is performed, an execution instruction for imaging the main image (recorded image) by the imaging unit 1 is output.

入力回路42は、操作入力部41から入力された操作信号をCPU81に入力するためのものである。   The input circuit 42 is for inputting an operation signal input from the operation input unit 41 to the CPU 81.

記録媒体5は、例えば、カード型の不揮発性メモリ(フラッシュメモリ)やハードディスク等により構成され、撮像部1により撮像された画像の画像ファイルGを複数記憶する。   The recording medium 5 is configured by, for example, a card-type nonvolatile memory (flash memory), a hard disk, or the like, and stores a plurality of image files G of images captured by the imaging unit 1.

USB端子6は、外部機器との接続用の端子であり、USBケーブル(図示略)等を介してデータの送受信を行う。   The USB terminal 6 is a terminal for connection with an external device, and transmits and receives data via a USB cable (not shown).

計時部7は、例えば、タイマーや計時回路等を備えて構成されている。そして、計時部7は、非検出時間計測手段として、制御部8の制御下にて、顔検出判定処理(後述)にて顔画像Fの非検出状態であると判定された場合に、当該非検出状態となっている時間を計時する。   The timer unit 7 is configured to include, for example, a timer, a timer circuit, and the like. Then, the time measuring unit 7 serves as a non-detection time measuring unit when the face detection determination process (described later) determines that the face image F is in the non-detection state under the control of the control unit 8. Time the detection state.

制御部8は、撮像装置100の各部を制御するものであり、例えば、CPU81と、プログラムメモリ82と、データメモリ83等を備えている。   The control unit 8 controls each unit of the imaging apparatus 100, and includes, for example, a CPU 81, a program memory 82, a data memory 83, and the like.

CPU81は、プログラムメモリ82に記憶された撮像装置100用の各種処理プログラムに従って各種の制御動作を行うものである。   The CPU 81 performs various control operations according to various processing programs for the imaging apparatus 100 stored in the program memory 82.

データメモリ83は、例えば、フラッシュメモリ等により構成され、CPU81によって処理されるデータ等を一時記憶する。
具体的には、データメモリ83は、第一の座標取得処理(後述)や第二の座標取得処理(後述)にて取得された顔画像Fの座標(顔座標)を記憶する。
The data memory 83 is composed of, for example, a flash memory, and temporarily stores data processed by the CPU 81.
Specifically, the data memory 83 stores the coordinates (face coordinates) of the face image F acquired in the first coordinate acquisition process (described later) or the second coordinate acquisition process (described later).

プログラムメモリ82は、CPU81の動作に必要な各種プログラムやデータを記憶するものである。具体的には、プログラムメモリ82は、顔検出プログラム82a、第一の座標取得プログラム82b、顔検出判定プログラム82c、顔画像対応部特定プログラム82d、顔画像対応部追跡プログラム82e、第二の座標取得プログラム82f、第一の追跡停止プログラム82g、合焦位置調整プログラム82h、露出条件調整プログラム82i、ストロボ発光量調整プログラム82j、色調調整プログラム82k、第一の撮像制御プログラム82l、第二の撮像制御プログラム82m、非検出時間判定プログラム82n、第二の追跡停止プログラム82o等を記憶している。   The program memory 82 stores various programs and data necessary for the operation of the CPU 81. Specifically, the program memory 82 includes a face detection program 82a, a first coordinate acquisition program 82b, a face detection determination program 82c, a face image corresponding portion specifying program 82d, a face image corresponding portion tracking program 82e, and a second coordinate acquisition. Program 82f, first tracking stop program 82g, focus position adjustment program 82h, exposure condition adjustment program 82i, strobe light emission amount adjustment program 82j, color tone adjustment program 82k, first imaging control program 82l, second imaging control program 82m, a non-detection time determination program 82n, a second tracking stop program 82o, and the like are stored.

顔検出プログラム82aは、CPU81を顔検出手段として機能させるものである。即ち、顔検出プログラム82aは、撮像部1により生成された複数の画像フレームG、…の各々から被写体の顔を逐次検出する顔検出処理の実行に係る機能をCPU81に実現させるためのプログラムである。
具体的には、CPU81による顔検出プログラム82aの実行に基づいて、複数の画像フレームG、…のうちの、一の画像フレームG(例えば、画像フレームGn−1)について顔画像探索範囲R1を画像全体として顔画像探索枠A3(図8参照)を所定方向に走査して、目、鼻、ロなどに相当する特徴部分(顔パーツ)を特定して、各顔パーツの位置関係から顔であるか否かを判定し、顔であると判定されると当該探索枠領域を顔画像Fとみなす。また、所定の画像フレームGにて顔画像Fが検出されると、図9に示すように、次の画像フレームG(例えば、画像フレームG)にて、検出された顔画像Fの近傍の所定領域を顔画像探索範囲R1として、顔検出する。
そして、顔画像Fが検出されると、画像表示部32は、当該顔画像Fに重畳させて顔検出枠A1を表示する(図2参照)。
The face detection program 82a causes the CPU 81 to function as face detection means. That is, the face detection program 82a is a program for causing the CPU 81 to realize a function related to execution of face detection processing for sequentially detecting the face of the subject from each of the plurality of image frames G,... Generated by the imaging unit 1. .
Specifically, based on the execution of the face detection program 82a by the CPU 81, the face image search range R1 is set for one image frame G (for example, image frame G n-1 ) among the plurality of image frames G,. The face image search frame A3 (see FIG. 8) is scanned as a whole image in a predetermined direction to identify feature parts (face parts) corresponding to the eyes, nose, bout, etc. It is determined whether or not there is a face, and if it is determined to be a face, the search frame region is regarded as a face image F. When the face image F is detected in the predetermined image frame G, as shown in FIG. 9, in the next image frame G (for example, the image frame G n ), the vicinity of the detected face image F is detected. Face detection is performed using the predetermined area as the face image search range R1.
When the face image F is detected, the image display unit 32 displays the face detection frame A1 so as to be superimposed on the face image F (see FIG. 2).

また、顔画像の非検出状態にあっては、CPU81による顔検出プログラム82aの実行に基づいて、第二の座標取得処理(後述)により取得された顔画像対応部Cの座標に基づいて、顔検出する。
即ち、顔画像Fの非検出状態の場合、CPU81は、データメモリ83に記憶されている顔座標を顔画像対応部Cの座標により更新して、画像フレームGにおける顔画像対応部Cの座標近傍の所定領域を顔画像探索範囲R1として、顔検出する。
In the non-detection state of the face image, based on the execution of the face detection program 82a by the CPU 81, the face is determined based on the coordinates of the face image corresponding unit C acquired by the second coordinate acquisition process (described later). To detect.
That is, in the non-detection state of the face image F, the CPU 81 updates the face coordinates stored in the data memory 83 with the coordinates of the face image corresponding part C, and the vicinity of the coordinates of the face image corresponding part C in the image frame G Is detected as a face image search range R1.

第一の座標取得プログラム82bは、CPU81を第一の座標取得手段として機能させるものである。即ち、第一の座標取得プログラム82bは、顔検出処理にて検出された顔画像Fの座標(顔座標)を取得する第一の座標取得処理に係る機能をCPU81に実現させるためのプログラムである。
具体的には、CPU81は第一の座標取得プログラム82bを実行することで、顔検出処理にて検出された顔画像Fに重畳して画像表示部32に表示される顔検出枠A1の各角部の座標(x,y)、(x,y)、(x,y)、(x,y)を取得する(図10参照)。
The first coordinate acquisition program 82b causes the CPU 81 to function as first coordinate acquisition means. That is, the first coordinate acquisition program 82b is a program for causing the CPU 81 to realize a function related to the first coordinate acquisition process for acquiring the coordinates (face coordinates) of the face image F detected by the face detection process. .
Specifically, the CPU 81 executes the first coordinate acquisition program 82b, so that each corner of the face detection frame A1 displayed on the image display unit 32 is superimposed on the face image F detected by the face detection process. The coordinates (x 1 , y 1 ), (x 1 , y 2 ), (x 2 , y 1 ), and (x 2 , y 2 ) of the part are acquired (see FIG. 10).

顔検出判定プログラム82cは、CPU81を顔検出判定手段として機能させるものである。即ち、CPU81は顔検出判定プログラム82cを実行することで、顔検出処理の結果に応じて顔画像Fの検出状態であるか非検出状態であるかを判定する。   The face detection determination program 82c causes the CPU 81 to function as face detection determination means. That is, the CPU 81 executes the face detection determination program 82c to determine whether the face image F is detected or not detected according to the result of the face detection process.

顔画像対応部特定プログラム82dは、CPU81を顔画像対応部特定手段として機能させるものである。即ち、CPU81は顔画像対応部特定プログラム82dを実行することで、顔検出判定処理にて顔画像Fの非検出状態であると判定された場合に、第一の座標取得処理にて取得された顔画像Fの座標(顔座標)に基づいて、顔画像対応部Cを特定する。   The face image corresponding part specifying program 82d causes the CPU 81 to function as a face image corresponding part specifying unit. That is, when the CPU 81 executes the face image corresponding part specifying program 82d to determine that the face image F is not detected in the face detection determination process, the CPU 81 acquires the first coordinate acquisition process. Based on the coordinates (face coordinates) of the face image F, the face image corresponding portion C is specified.

顔画像対応部追跡プログラム82eは、CPU81を顔画像対応部追跡手段として機能させるものである。即ち、CPU81は顔画像対応部追跡プログラム82eを実行することで、顔検出判定処理にて顔画像Fの非検出状態であると判定された場合に、複数の画像フレームG、…のうちの隣合う画像フレーム間で、顔画像Fに対応する顔画像対応部Cを動体解析により追跡する。   The face image corresponding part tracking program 82e causes the CPU 81 to function as a face image corresponding part tracking unit. That is, when the CPU 81 executes the face image corresponding part tracking program 82e and determines that the face image F is not detected in the face detection determination process, the CPU 81 next to the plurality of image frames G,. The face image corresponding part C corresponding to the face image F is tracked by moving body analysis between matching image frames.

第二の座標取得プログラム82fは、CPU81を第二の座標取得手段として機能させるものである。即ち、CPU81は第二の座標取得プログラム82fを実行することで、動体追跡処理にて追跡された顔画像対応部Cの座標を取得する。   The second coordinate acquisition program 82f causes the CPU 81 to function as second coordinate acquisition means. That is, the CPU 81 executes the second coordinate acquisition program 82f to acquire the coordinates of the face image corresponding unit C tracked by the moving body tracking process.

ここで、動体解析について詳細に説明する。
先ず、顔画像Fの非検出状態となると、CPU81による顔画像対応部特定プログラム82dの実行に基づいて、データメモリ83に記憶されている顔座標を取得して、当該顔座標で囲まれた領域を顔画像対応部Cとして特定する。その後、CPU81による顔画像対応部追跡プログラム82eの実行に基づいて、顔画像対応部Cの輝度情報や色情報等の画像情報をテンプレートとして、次の画像フレームG(例えば、画像フレームGn+m)にて顔座標近傍の所定の動体探索範囲R2内を所定方向に走査してマッチングを行い、最も近似性の高い部分を顔画像対応部Cとする(図11参照)。
そして、最も近似性が高いと判定された顔画像対応部Cの縁部を追跡枠A2とし、CPU81による第二の座標取得プログラム82fの実行に基づいて、追跡枠A2の各角部の座標を取得した後、当該追跡枠A2の座標によりデータメモリ83に記憶されている顔座標を更新する。さらに追跡枠A2の輝度情報や色情報等の画像情報をテンプレートとして更新する。
上記の処理を撮像部1により生成される連続した画像フレームG、…の各々に対して逐次実行することにより、マッチングに用いるテンプレートが更新されていく。そのため被写体が時間がたつにつれて変化しても顔画像対応部Cを動体として追跡することができる。
Here, the moving body analysis will be described in detail.
First, when the face image F is not detected, the face coordinates stored in the data memory 83 are acquired based on the execution of the face image corresponding part specifying program 82d by the CPU 81, and the area surrounded by the face coordinates Is identified as the face image corresponding part C. Thereafter, based on the execution of the face image corresponding part tracking program 82e by the CPU 81, image information such as luminance information and color information of the face image corresponding part C is used as a template for the next image frame G (for example, image frame G n + m ). Then, a predetermined moving object search range R2 in the vicinity of the face coordinates is scanned in a predetermined direction to perform matching, and a portion having the highest approximation is set as a face image corresponding portion C (see FIG. 11).
Then, the edge of the face image corresponding part C determined to have the highest approximation is set as the tracking frame A2, and the coordinates of each corner of the tracking frame A2 are determined based on the execution of the second coordinate acquisition program 82f by the CPU 81. After the acquisition, the face coordinates stored in the data memory 83 are updated with the coordinates of the tracking frame A2. Furthermore, image information such as luminance information and color information of the tracking frame A2 is updated as a template.
The template used for matching is updated by sequentially executing the above processing on each of the continuous image frames G,... Generated by the imaging unit 1. Therefore, even if the subject changes over time, the face image corresponding unit C can be tracked as a moving object.

第一の追跡停止プログラム82gは、CPU81を顔検出追跡停止手段として機能させるものである。即ち、CPU81は第一の追跡停止プログラム82gを実行することで、顔画像対応部Cの追跡開始後、顔検出判定処理にて顔画像Fの検出状態であると判定された場合に、顔画像対応部Cの追跡を停止する。具体的には、顔画像Fの検出状態となると、画像表示部32の追跡枠A2の表示を停止して顔画像対応部Cの追跡を停止させる。   The first tracking stop program 82g causes the CPU 81 to function as face detection tracking stop means. That is, by executing the first tracking stop program 82g, the CPU 81 starts the tracking of the face image corresponding unit C, and determines that the face image F is detected in the face detection determination process. The tracking of the corresponding part C is stopped. Specifically, when the detection state of the face image F is reached, the display of the tracking frame A2 of the image display unit 32 is stopped and the tracking of the face image corresponding unit C is stopped.

合焦位置調整プログラム82hは、CPU81を合焦位置調整手段として機能させるものである。即ち、CPU81は合焦位置調整プログラム82hを実行することで、撮像部1の撮像レンズ群11の合焦位置を調整する。具体的には、ユーザによるシャッターボタン41aの半押し操作に基づいて、顔検出枠A1や追跡枠A2を測距エリアとしてその合焦位置をフォーカス駆動部により撮像レンズを光軸方向に移動させて調整する。   The focus position adjustment program 82h causes the CPU 81 to function as a focus position adjustment unit. That is, the CPU 81 adjusts the focus position of the imaging lens group 11 of the imaging unit 1 by executing the focus position adjustment program 82h. Specifically, based on the half-press operation of the shutter button 41a by the user, the focus detection unit moves the imaging lens in the optical axis direction by using the focus detection unit with the face detection frame A1 and the tracking frame A2 as a distance measurement area. adjust.

露出条件調整プログラム82iは、CPU81を明るさ調整手段として機能させるものである。具体的には、ユーザによるシャッターボタン41aの半押し操作に基づいて、CPU81が露出条件調整プログラム82iを実行して、顔検出枠A1(所定領域)を測光エリアとして撮像部1による撮像の際の露出条件(例えば、シャッター速度や絞り等)を調整する自動露出処理を行う。   The exposure condition adjustment program 82i causes the CPU 81 to function as brightness adjustment means. Specifically, based on the half-press operation of the shutter button 41a by the user, the CPU 81 executes the exposure condition adjustment program 82i, and when the imaging unit 1 performs imaging using the face detection frame A1 (predetermined area) as a photometric area. An automatic exposure process for adjusting exposure conditions (for example, shutter speed, aperture, etc.) is performed.

ストロボ発光量調整プログラム82jは、CPU81を明るさ調整手段として機能させるものである。具体的には、ユーザによるシャッターボタン41aの半押し操作に基づいて、CPU81がストロボ発光量調整プログラム82jを実行して、ストロボ駆動部24によりストロボ発光部23をプリ発光させて、画像フレームG中の顔検出枠A1(所定領域)に対応する部分の反射光量からストロボ発光量(発光時間)を調整するフラッシュ調光処理を行う。
なお、画像表示部32に顔検出枠A1が表示されていない状態、即ち、顔画像Fの非検出状態にあっては、CPU81による露出条件調整プログラム82iの実行に基づいて、画像フレームG全体やその中央部を重点的に測光して、画面全体の平均的な明るさからストロボ発光量を調整するようにしても良い。
The strobe emission amount adjustment program 82j causes the CPU 81 to function as brightness adjustment means. Specifically, based on the half-press operation of the shutter button 41a by the user, the CPU 81 executes the strobe light emission amount adjustment program 82j, and the strobe driving unit 24 pre-flashes the image in the image frame G. Flash light adjustment processing is performed to adjust the flash light emission amount (light emission time) from the reflected light amount of the portion corresponding to the face detection frame A1 (predetermined region).
When the face detection frame A1 is not displayed on the image display unit 32, that is, when the face image F is not detected, based on the execution of the exposure condition adjustment program 82i by the CPU 81, It is also possible to adjust the strobe emission amount from the average brightness of the entire screen by focusing light metering at the center.

このように、CPU81は、露出条件調整プログラム82i及びストロボ発光量調整プログラム82jの実行に基づいて、撮像部1により撮像された画像フレームGの顔検出枠A1(所定領域)の明るさに基づいて、当該画像フレームGの明るさを調整する。   As described above, the CPU 81 is based on the brightness of the face detection frame A1 (predetermined area) of the image frame G imaged by the imaging unit 1 based on the execution of the exposure condition adjustment program 82i and the strobe light emission amount adjustment program 82j. Then, the brightness of the image frame G is adjusted.

色調調整プログラム82kは、CPU81を色調調整手段として機能させるものである。即ち、CPU81は色調調整プログラム82kを実行することで、撮像部1により撮像された画像フレームGの顔検出枠A1(所定領域)内の色調に基づいて、当該画像フレームGの色調を調整する。具体的には、ユーザによるシャッターボタン41aの半押し操作に基づいて、画像フレームGの顔検出枠A1内の色調に基づいて、顔画像Fの肌色のトーンを調整するように当該画像フレームGの色調を調整する。   The color tone adjustment program 82k causes the CPU 81 to function as a color tone adjustment unit. That is, the CPU 81 executes the color tone adjustment program 82k to adjust the color tone of the image frame G based on the color tone in the face detection frame A1 (predetermined area) of the image frame G imaged by the imaging unit 1. Specifically, based on the half-pressing operation of the shutter button 41a by the user, the skin color tone of the face image F is adjusted based on the color tone in the face detection frame A1 of the image frame G. Adjust the color tone.

第一の撮像制御プログラム82lは、撮像部1による被写体の撮像の際に、顔画像Fの検出状態にてユーザによりシャッターボタン41aが半押し操作されると、検出された顔画像Fに基づいて、自動合焦処理、自動露出処理、フラッシュ調光処理及び色調調整処理の実行を制御する第一の撮像制御処理に係る機能をCPU81に実現させる。   The first imaging control program 82l is based on the detected face image F when the user presses the shutter button 41a halfway in the detection state of the face image F during imaging of the subject by the imaging unit 1. The CPU 81 is caused to realize a function related to the first imaging control process for controlling the execution of the automatic focusing process, the automatic exposure process, the flash light control process, and the color tone adjustment process.

第二の撮像制御プログラム82mは、撮像部1による被写体の撮像の際に、顔画像Fの非検出状態にてユーザによりシャッターボタン41aが半押し操作されると、動体解析により追跡される顔画像対応部Cに基づいて、自動合焦処理の実行を制御する第二の撮像制御処理に係る機能をCPU81に実現させる。   The second imaging control program 82m is a face image tracked by moving body analysis when the user presses the shutter button 41a halfway in the non-detection state of the face image F during imaging of the subject by the imaging unit 1. Based on the corresponding unit C, the CPU 81 is caused to realize a function related to the second imaging control process for controlling the execution of the automatic focusing process.

このように、CPU81は、第一の撮像制御プログラム82l、第二の撮像制御プログラム82mに基づいて、合焦位置調整プログラム82h、露出条件調整プログラム82i、ストロボ発光量調整プログラム82j、色調調整プログラム82k等の所定プログラムを実行し、撮像制御手段として、顔検出処理にて検出された顔画像F及び動体解析により追跡された顔画像対応部Cに基づいて、撮像部1による画像の撮像を制御する。   As described above, the CPU 81 is based on the first imaging control program 82l and the second imaging control program 82m, and the focusing position adjustment program 82h, the exposure condition adjustment program 82i, the strobe light emission amount adjustment program 82j, and the color tone adjustment program 82k. The image capturing unit 1 controls image capturing based on the face image F detected by the face detection process and the face image corresponding unit C tracked by moving body analysis as an image capturing control unit. .

非検出時間判定プログラム82nは、CPU81を非検出時間判定手段として機能させるものである。即ち、非検出時間判定プログラム82nは、計時部7により計時される顔画像Fの非検出状態となっている時間が所定時間(例えば、4秒)を超えたか否かを判定する非検出時間判定処理に係る機能をCPU81に実現させるためのプログラムである。   The non-detection time determination program 82n causes the CPU 81 to function as non-detection time determination means. That is, the non-detection time determination program 82n determines whether or not the time in which the face image F measured by the time measuring unit 7 is in the non-detection state has exceeded a predetermined time (for example, 4 seconds). It is a program for causing the CPU 81 to realize functions related to processing.

第二の追跡停止プログラム82oは、CPU81を時間追跡停止手段として機能させるものである。即ち、第二の追跡停止プログラム82oは、非検出時間判定処理にて顔画像Fの非検出状態となっている時間が所定時間を超えたと判定された場合に、動体解析による顔画像対応部Cの追跡を停止させる処理に係る機能をCPU81に実現させるためのプログラムである。
具体的には、顔画像の非検出状態では、主要被写体である人物Hが障害物の後側に隠れたり、暗所に移動することにより、人物Hを見失っている可能性もあるため、顔画像Fの非検出状態となっている時間が所定時間を超えると、CPU81による第二の追跡停止プログラム82oの実行に基づいて、画像表示部32の追跡枠A2の表示を停止して顔画像対応部Cの追跡を停止させる。
The second tracking stop program 82o causes the CPU 81 to function as time tracking stop means. That is, the second tracking stop program 82o determines that the face image F non-detection time has exceeded a predetermined time in the non-detection time determination process, and the face image corresponding unit C based on moving body analysis. This is a program for causing the CPU 81 to realize a function related to the process of stopping the tracking of the image.
Specifically, in the face image non-detection state, the person H as the main subject may be hidden behind the obstacle or moved to a dark place, so that the person H may be lost. When the non-detected state of the image F exceeds a predetermined time, the display of the tracking frame A2 of the image display unit 32 is stopped based on the execution of the second tracking stop program 82o by the CPU 81, and the face image is supported. Stop tracking part C.

次に、撮像処理について図12及び図13を参照して説明する
図12及び図13は、撮像処理に係る動作の一例を示すフローチャートである。
なお、以下の撮像処理にあっては、画角に被写体として一人の人物Hを捉えて撮像するものとする。
Next, imaging processing will be described with reference to FIG. 12 and FIG. 13. FIG. 12 and FIG. 13 are flowcharts illustrating an example of operations related to imaging processing.
In the following imaging process, it is assumed that one person H is captured as an object at an angle of view.

図12に示すように、撮像部1による被写体の撮像が開始されると、CPU81は、プログラムメモリ82から顔検出プログラム82aを読み出して実行し、撮像部1により生成された複数の画像フレームG、…のうちの一の画像フレームG(例えば、画像フレームGn−1;図8参照)について顔画像探索範囲R1を画像全体として顔画像探索枠A3を走査して顔画像Fを検出する(ステップS1)。
次に、CPU81は、プログラムメモリ82から顔検出判定プログラム82cを読み出して実行して、顔画像Fの検出状態であるか非検出状態であるか否かを判定する顔検出判定する(ステップS2)。ここで、顔画像Fを検出していない(非検出状態)と判定されると(ステップS2;NO)、顔画像探索枠A3の走査位置をずらして顔画像Fの探索を行う。
一方、ステップS2にて、顔画像Fが検出された(検出状態)と判定されると(ステップS2;YES)、CPU81は、計時部7を制御して、顔画像Fの非検出時間を計時するタイマーカウンタをクリアする(ステップS3)。また、CPU81は、画像表示部32を制御して、当該顔画像Fに重畳させて顔検出枠A1を表示させる。
As shown in FIG. 12, when the imaging of the subject by the imaging unit 1 is started, the CPU 81 reads and executes the face detection program 82 a from the program memory 82, and a plurality of image frames G generated by the imaging unit 1, ... For one image frame G (for example, image frame G n−1 ; see FIG. 8), scans the face image search frame A3 using the face image search range R1 as a whole image to detect the face image F (step S1).
Next, the CPU 81 reads and executes the face detection determination program 82c from the program memory 82, and executes face detection determination to determine whether the face image F is detected or not (step S2). . If it is determined that the face image F is not detected (non-detected state) (step S2; NO), the face image F is searched by shifting the scanning position of the face image search frame A3.
On the other hand, when it is determined in step S2 that the face image F has been detected (detected state) (step S2; YES), the CPU 81 controls the timer 7 to measure the non-detection time of the face image F. The timer counter to be cleared is cleared (step S3). Further, the CPU 81 controls the image display unit 32 to display the face detection frame A1 so as to be superimposed on the face image F.

そして、CPU81は、プログラムメモリ82から第一の座標取得プログラム82bを読み出して実行して、顔検出処理にて検出された顔画像Fの座標(顔座標)を取得してデータメモリ83に出力して(ステップS4)、当該顔座標を記録させる(ステップS5)。   Then, the CPU 81 reads out and executes the first coordinate acquisition program 82 b from the program memory 82, acquires the coordinates (face coordinates) of the face image F detected by the face detection process, and outputs them to the data memory 83. (Step S4), the face coordinates are recorded (step S5).

その後、ユーザによるシャッターボタン41aの半押し操作が行われると(ステップS6;YES)、CPU81は、プログラムメモリ82から第一の撮像制御プログラム82lを読み出して実行して、顔検出処理にて検出された顔画像Fに基づいて、自動合焦処理、自動露出処理、フラッシュ調光処理及び色調調整処理等の撮像制御処理の実行を制御する(ステップS7)。その後、ユーザによるシャッターボタン41aの全押し操作に基づいて、CPU81は、撮像制御処理にて調整された画質(撮像条件)に従って、撮像部1に本画像(記録画像)を撮像させる撮像処理の実行を制御する(ステップS8)。   Thereafter, when the user presses the shutter button 41a halfway (step S6; YES), the CPU 81 reads and executes the first imaging control program 82l from the program memory 82, and is detected by the face detection process. Based on the face image F, execution of imaging control processing such as automatic focusing processing, automatic exposure processing, flash light control processing, and color tone adjustment processing is controlled (step S7). Thereafter, based on the full press operation of the shutter button 41a by the user, the CPU 81 executes an imaging process that causes the imaging unit 1 to capture the main image (recorded image) according to the image quality (imaging condition) adjusted in the imaging control process. Is controlled (step S8).

一方、ステップS6にて、ユーザにより半押し操作が行われない場合には(ステップS6;NO)、CPU81は、顔検出プログラム82aの実行に基づいて、次の画像フレームG(例えば、画像フレームG;図9参照)にて、検出された顔座標近傍の所定領域を顔画像探索範囲R1として顔画像探索枠A3を走査させて顔検出する(ステップS9)。 On the other hand, if the user does not perform a half-press operation in step S6 (step S6; NO), the CPU 81 performs the next image frame G (for example, image frame G, for example) based on the execution of the face detection program 82a. n ; see FIG. 9), the face image search frame A3 is scanned using the predetermined area near the detected face coordinates as the face image search range R1 to detect the face (step S9).

続けて、CPU81は、顔検出判定プログラム82cの実行に基づいて、顔画像Fをロストしたか否か、即ち、顔画像Fの検出状態であるか非検出状態であるか否かを判定する(ステップS10)。ここで、CPU81により顔画像Fをロストしてない(検出状態)と判定されると(ステップS10;NO)、ステップS3に戻る。
一方、ステップS10にて、顔画像Fをロストした(非検出状態)と判定されると(ステップS10;YES)、CPU81は、画像表示部32を制御して顔検出枠A1の表示を停止させた後、プログラムメモリ82から顔画像対応部特定プログラム82dを読み出して実行して、データメモリ83に記憶されている顔座標を読み出して取得して(ステップS11)、当該顔座標で囲まれた領域を顔画像対応部Cとして特定して、当該顔画像対応部Cの輝度情報や色情報等の画像情報を取得する(ステップS12)。
次に、CPU81は、プログラムメモリ82から顔画像対応部追跡プログラム82eを読み出して実行して、次の画像フレームG(例えば、画像フレームGn+m;;図11参照)にて、顔画像対応部Cの画像情報をテンプレートとして顔座標近傍の所定の動体探索範囲R2内を所定方向に走査して(ステップS13)、マッチングを行って画像情報の近似性を評価する(ステップS14)。そして、CPU81は、動体探索範囲R2内におけるテンプレートの走査が完了したか否かを判定する(ステップS15)。ここで、走査が完了していないと判定されると(ステップS15;NO)、CPU81は、走査座標を所定量インクリメントして(ステップS16)、走査を継続する。
一方、ステップS15にて、走査が完了したと判定されると(ステップS15;YES)、CPU81は、近似性の評価点が最高となる部分(顔画像対応部C)を追跡枠A2とした後、プログラムメモリ82から第二の座標取得プログラム82fを読み出して実行して、当該追跡枠A2の座標を新たな顔座標として取得して、データメモリ83に記憶されている顔座標を更新する。さらに追跡枠A2の輝度情報や色情報等の画像情報をテンプレートとして更新する(ステップS17)。また、CPU81は、画像表示部32を制御して、当該顔画像Fに重畳させて追跡枠A2を表示させる。
上記の動体解析は、撮像部1により生成される連続した画像フレームG、…の各々に対して逐次行われることにより、顔画像対応部Cを動体として追跡する。
Subsequently, based on the execution of the face detection determination program 82c, the CPU 81 determines whether or not the face image F has been lost, that is, whether or not the face image F is in a detected state or a non-detected state ( Step S10). If the CPU 81 determines that the face image F has not been lost (detected state) (step S10; NO), the process returns to step S3.
On the other hand, if it is determined in step S10 that the face image F has been lost (non-detection state) (step S10; YES), the CPU 81 controls the image display unit 32 to stop the display of the face detection frame A1. After that, the face image corresponding part specifying program 82d is read out from the program memory 82 and executed to read out and acquire the face coordinates stored in the data memory 83 (step S11), and the area surrounded by the face coordinates Is identified as the face image corresponding portion C, and image information such as luminance information and color information of the face image corresponding portion C is acquired (step S12).
Next, the CPU 81 reads and executes the face image corresponding portion tracking program 82e from the program memory 82, and executes the face image corresponding portion C in the next image frame G (for example, image frame G n + m;; see FIG. 11). The predetermined moving object search range R2 in the vicinity of the face coordinates is scanned in a predetermined direction using the image information as a template (step S13), and matching is performed to evaluate the closeness of the image information (step S14). Then, the CPU 81 determines whether or not the template scanning within the moving object search range R2 is completed (step S15). If it is determined that the scanning is not completed (step S15; NO), the CPU 81 increments the scanning coordinates by a predetermined amount (step S16) and continues the scanning.
On the other hand, if it is determined in step S15 that the scanning has been completed (step S15; YES), the CPU 81 sets the portion having the highest evaluation score for the closeness (face image corresponding portion C) as the tracking frame A2. Then, the second coordinate acquisition program 82f is read from the program memory 82 and executed, the coordinates of the tracking frame A2 are acquired as new face coordinates, and the face coordinates stored in the data memory 83 are updated. Further, image information such as luminance information and color information of the tracking frame A2 is updated as a template (step S17). Further, the CPU 81 controls the image display unit 32 to display the tracking frame A2 so as to be superimposed on the face image F.
The moving object analysis described above is sequentially performed on each of the continuous image frames G,... Generated by the imaging unit 1, thereby tracking the face image corresponding unit C as a moving object.

その後、ユーザによるシャッターボタン41aの半押し操作が行われると(ステップS18;YES)、CPU81は、プログラムメモリ82から第二の撮像制御プログラム82mを読み出して実行して、動体解析により追跡された顔画像対応部Cに基づいて、自動合焦処理等の撮像制御処理の実行を制御する(ステップS19)。その後、ユーザによるシャッターボタン41aの全押し操作に基づいて、CPU81は、撮像制御処理にて調整された画質(撮像条件)に従って、撮像部1により本画像(記録画像)を撮像させる撮像処理の実行を制御する(ステップS20)。   Thereafter, when the user half-presses the shutter button 41a (step S18; YES), the CPU 81 reads out and executes the second imaging control program 82m from the program memory 82, and the face tracked by the moving body analysis. Based on the image corresponding part C, execution of imaging control processing such as automatic focusing processing is controlled (step S19). Thereafter, based on the user's full pressing operation of the shutter button 41a, the CPU 81 executes an imaging process in which the imaging unit 1 captures the main image (recorded image) according to the image quality (imaging condition) adjusted in the imaging control process. Is controlled (step S20).

一方、ステップS18にて、ユーザにより半押し操作が行われない場合には(ステップS18;NO)、CPU81は、顔検出プログラム82aの実行に基づいて、当該画像フレームGにて、取得された顔画像対応部Cの座標近傍の所定領域を顔画像探索範囲R1として顔画像探索枠A3を走査させて顔検出する(ステップS21)。
そして、CPU81は、顔検出判定プログラム82cの実行に基づいて、顔画像Fの検出状態であるか非検出状態であるか否かを判定する顔検出判定する(ステップS22)。ここで、顔画像Fの検出状態であると判定されると(ステップS22;YES)、CPU81は、プログラムメモリ82から第一の追跡停止プログラム82gを読み出して実行して、画像表示部32の追跡枠A2の表示を停止して顔画像対応部Cの追跡を停止させた後、ステップS3に戻る。
一方、ステップS22にて、顔画像Fの非検出状態であると判定されると(ステップS22;NO)、CPU81は、計時部7を制御して、非検出状態となっている時間の計時を開始させてタイマーカウンタをインクリメントする(ステップS23)。
On the other hand, if the user does not perform a half-press operation in step S18 (step S18; NO), the CPU 81 acquires the face acquired in the image frame G based on the execution of the face detection program 82a. Face detection is performed by scanning the face image search frame A3 using a predetermined area near the coordinates of the image corresponding portion C as the face image search range R1 (step S21).
Then, based on the execution of the face detection determination program 82c, the CPU 81 performs face detection determination for determining whether the face image F is detected or not (step S22). If it is determined that the face image F is detected (step S22; YES), the CPU 81 reads the first tracking stop program 82g from the program memory 82 and executes the first tracking stop program 82g to track the image display unit 32. After the display of the frame A2 is stopped and the tracking of the face image corresponding part C is stopped, the process returns to step S3.
On the other hand, when it is determined in step S22 that the face image F is not detected (step S22; NO), the CPU 81 controls the timer 7 to measure the time in the non-detected state. The timer counter is incremented by starting (step S23).

そして、CPU81は、プログラムメモリ82から非検出時間判定プログラム82nを読み出して実行して、顔画像Fの非検出状態となっている時間が所定時間を超えたか否かを判定する(ステップS24)。ここで、CPU81により非検出状態となっている時間が所定時間を超えていないと判定されると、ステップS11に戻る。
一方、ステップS24にて、非検出状態となっている時間が所定時間を超えたと判定されると(ステップS24;YES)、CPU81は、プログラムメモリ82から第二の追跡停止プログラム82oを読み出して実行して、画像表示部32の追跡枠A2の表示を停止して顔画像対応部Cの追跡を停止させた後、ステップS1に戻る。
Then, the CPU 81 reads out and executes the non-detection time determination program 82n from the program memory 82, and determines whether or not the time during which the face image F is in the non-detection state has exceeded a predetermined time (step S24). Here, if the CPU 81 determines that the non-detection time does not exceed the predetermined time, the process returns to step S11.
On the other hand, when it is determined in step S24 that the non-detection time has exceeded the predetermined time (step S24; YES), the CPU 81 reads the second tracking stop program 82o from the program memory 82 and executes it. Then, after stopping the display of the tracking frame A2 of the image display unit 32 and stopping the tracking of the face image corresponding unit C, the process returns to step S1.

以上のように、本実施形態の撮像装置100によれば、被写体の顔画像Fを検出してこの座標を顔位置とする。そして、顔画像Fの非検出状態となると、顔画像Fの座標から当該顔画像Fに対応する顔画像対応部Cを特定して動体解析により追跡する。さらに、顔画像対応部Cの座標を顔位置の座標として更新することにより、顔画像Fの非検出状態であっても、動体解析によって顔位置の検出を適正に行うことができ、これにより、被写体をより長い時間追いかけることができ、当該被写体を見失う時間を減少させることができる。
そして、ユーザによりシャッターボタン41aが半押し操作されると、顔検出処理によって検出された顔位置(顔画像Fの座標)や動体解析により追跡された顔位置(顔画像対応部Cの座標)に基づいて、撮像部1により撮像される被写体画像の撮像制御を適正に行って被写体の撮像を適正に行うことができる。
As described above, according to the imaging apparatus 100 of the present embodiment, the face image F of the subject is detected and the coordinates are set as the face position. When the face image F is not detected, the face image corresponding part C corresponding to the face image F is identified from the coordinates of the face image F and tracked by moving body analysis. Furthermore, by updating the coordinates of the face image corresponding part C as the coordinates of the face position, even when the face image F is not detected, the face position can be properly detected by the moving body analysis. The subject can be followed for a longer time, and the time for losing sight of the subject can be reduced.
When the user presses the shutter button 41a halfway, the face position detected by the face detection process (coordinates of the face image F) or the face position tracked by moving body analysis (coordinates of the face image corresponding unit C) is displayed. Based on this, it is possible to appropriately capture the subject by appropriately performing the imaging control of the subject image captured by the imaging unit 1.

また、被写体の撮像の際に、顔画像Fの検出状態であると、当該顔位置に基づいて、自動合焦処理、自動露出処理、フラッシュ調光処理及び色調調整する一方で、顔画像Fの非検出状態であると、自動合焦処理のみを実行するので、画像の撮像ミスを適正に防止することができる。即ち、顔画像Fの非検出状態では、動体解析により顔画像対応部Cを追跡中であっても、被写体が顔をこちら側に向けているという保証がないため、この状態で、自動露出処理、フラッシュ調光処理及び色調調整処理等を実行すると、撮像制御に失敗する虞がある。例えば、被写体が後ろを向いている場合に、髪の毛の黒色から逆光であると判定して、露出を上げると、極端に白飛びした画像になってしまうこととなる。
従って、顔画像Fの非検出状態である場合には、自動露出処理、フラッシュ調光処理及び色調調整処理等を実行せずに自動合焦処理のみを実行するので、被写体にピントを合わせることができ、画像の撮像ミスを適正に防止することができる。
Further, if the face image F is detected when the subject is imaged, the automatic focusing process, the automatic exposure process, the flash light control process, and the color tone adjustment are performed based on the face position, while the face image F is detected. In the non-detection state, only the automatic focusing process is executed, so that it is possible to appropriately prevent an image capturing error. That is, in the non-detected state of the face image F, even if the face image corresponding part C is being tracked by moving body analysis, there is no guarantee that the subject is facing the face here. When the flash light control process, the color tone adjustment process, and the like are executed, the imaging control may fail. For example, if the subject is facing backwards and it is determined that the color of the hair is backlit from the black color of the hair, and the exposure is increased, the image will be extremely overblown.
Accordingly, when the face image F is not detected, only the automatic focusing process is executed without executing the automatic exposure process, the flash light adjustment process, the color tone adjustment process, and the like, so that the subject can be focused. It is possible to properly prevent image capturing mistakes.

さらに、顔画像Fの非検出状態となっている時間が所定時間を超えた場合には、フレーム内に被写体がいなくなっている可能性もあることから、動体解析による顔画像対応部Cの追跡を停止させることにより、次の顔画像Fの検出機会に備えることができ、被写体の撮像を適正に行うことができる。   Furthermore, if the time in which the face image F is not detected exceeds a predetermined time, there is a possibility that the subject is not in the frame. By stopping, it is possible to prepare for the next opportunity to detect the face image F, and the subject can be appropriately captured.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、撮像処理にて、画角に一人の人物Hを捉えて撮像する場合を例示して説明したが、例えば、複数の人物Hがいる場合には、顔認識に優先順位を付けて所定順に顔検出処理を行ったり、顔画像Fの非検出状態となる毎に人物Hを任意に選択して当該人物Hに対して顔検出処理を行うようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the imaging process, the case where a single person H is captured at the angle of view is described as an example. For example, when there are a plurality of persons H, priority is given to face recognition in a predetermined order. The face detection process may be performed on the person H by arbitrarily selecting the person H each time the face detection process is performed or the face image F is not detected.

また、上記実施形態では、撮像制御処理として、自動合焦処理、自動露出処理、フラッシュ調光処理及び色調調整処理を例示したが、これに限られるものではなく、撮像される画像の撮像制御する処理であれば如何なる処理であっても良い。
即ち、第一の撮像制御処理にて、自動合焦処理、自動露出処理、フラッシュ調光処理及び色調調整処理の実行を制御するようにしたが、これら以外の撮像制御処理の実行を制御するようにしても良い。さらに、第一の撮像制御処理にあっては、自動露出処理及びフラッシュ調光処理等の明るさ調整処理と色調調整処理は、必ずしも両方行う必要はなく、少なくとも何れか一方の処理を行えば良い。また、第二の撮像制御処理にて、自動合焦処理のみの実行を制御するようにしたが、自動露出処理、フラッシュ調光処理及び色調調整処理以外の撮像制御処理であって、白飛びした画像等の撮像ミスを生じさせることのない処理の実行を制御するようにしても良い。
In the above embodiment, the automatic focusing process, the automatic exposure process, the flash light adjustment process, and the color tone adjustment process are exemplified as the imaging control process. However, the present invention is not limited to this, and the imaging control of the captured image is performed. Any process may be used as long as it is a process.
That is, in the first imaging control process, the execution of the automatic focusing process, the automatic exposure process, the flash light control process, and the color tone adjustment process is controlled, but the execution of the other imaging control processes is controlled. Anyway. Further, in the first imaging control process, it is not always necessary to perform both the brightness adjustment process and the color tone adjustment process such as the automatic exposure process and the flash light control process, and at least one of the processes may be performed. . In addition, in the second imaging control process, the execution of only the automatic focusing process is controlled. However, in the imaging control process other than the automatic exposure process, the flash light control process, and the color tone adjustment process, the whiteout has occurred. You may make it control execution of the process which does not cause imaging mistakes, such as an image.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。   Furthermore, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto.

加えて、上記実施形態では、顔検出手段、第一の座標取得手段、顔検出判定手段、顔画像対応部特定手段、顔画像対応部追跡手段、第二の座標取得手段、顔検出追跡停止手段、撮像制御手段、合焦位置調整手段、明るさ調整手段、色調調整手段、第一の撮像制御手段、第二の撮像制御手段、非検出時間判定手段、時間追跡停止手段としての機能を、CPU81によって所定のプログラム等が実行されることにより実現される構成としたが、これに限られるものではなく、例えば、各種機能を実現するためのロジック回路等から構成しても良い。   In addition, in the above embodiment, face detection means, first coordinate acquisition means, face detection determination means, face image corresponding part specifying means, face image corresponding part tracking means, second coordinate acquisition means, face detection tracking stop means The CPU 81 functions as an imaging control unit, a focus position adjustment unit, a brightness adjustment unit, a color tone adjustment unit, a first imaging control unit, a second imaging control unit, a non-detection time determination unit, and a time tracking stop unit. However, the present invention is not limited to this. For example, the program may be configured by a logic circuit or the like for realizing various functions.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置による顔検出処理を説明するための図である。It is a figure for demonstrating the face detection process by the imaging device of FIG. 図1の撮像装置による顔検出処理を説明するための図である。It is a figure for demonstrating the face detection process by the imaging device of FIG. 図1の撮像装置による第一の座標取得処理を説明するための図である。It is a figure for demonstrating the 1st coordinate acquisition process by the imaging device of FIG. 図1の撮像装置による動体追跡処理を説明するための図である。It is a figure for demonstrating the moving body tracking process by the imaging device of FIG. 図1の撮像装置による撮像処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an imaging process by the imaging apparatus of FIG. 1. 図12の撮像処理の続きを示す図である。It is a figure which shows the continuation of the imaging process of FIG.

符号の説明Explanation of symbols

100 撮像装置
1 撮像部(撮像手段)
3 表示部
7 計時部(非検出時間計測手段)
81 CPU(顔検出手段、第一の座標取得手段、顔検出判定手段、顔画像対応部特定手段、顔画像対応部追跡手段、第二の座標取得手段、顔検出追跡停止手段、撮像制御手段、合焦位置調整手段、明るさ調整手段、色調調整手段、非検出時間判定手段、時間追跡停止手段)
A1 顔検出枠
A2 追跡枠
C 顔画像対応部
F 顔画像
R1 顔画像探索範囲
R2 動体探索範囲
100 Imaging device 1 Imaging unit (imaging means)
3 Display part 7 Timekeeping part (non-detection time measuring means)
81 CPU (face detection means, first coordinate acquisition means, face detection determination means, face image corresponding part specifying means, face image corresponding part tracking means, second coordinate acquisition means, face detection tracking stop means, imaging control means, (Focus position adjustment means, brightness adjustment means, color tone adjustment means, non-detection time determination means, time tracking stop means)
A1 face detection frame A2 tracking frame C face image corresponding part F face image R1 face image search range R2 moving object search range

Claims (6)

被写体を連続して撮像して、複数の画像フレームを生成する撮像手段と、
前記撮像手段により生成された前記複数の画像フレームから前記被写体の顔画像を検出する顔検出手段と、
前記顔検出手段による前記顔検出の結果に応じて前記顔画像の検出状態であるか非検出状態であるかを判定する顔検出判定手段と、
前記顔検出判定手段により前記顔画像の非検出状態であると判定された場合に、前記複数の画像フレームのうちの隣合う画像フレーム間で、前記顔画像に対応する顔画像対応部を追跡する顔画像対応部追跡手段と、
前記顔検出手段によって検出された前記顔画像及び前記顔画像対応部追跡手段により追跡された前記顔画像対応部に基づいて、撮像制御を行う撮像制御手段と、
を備えることを特徴とする撮像装置。
Imaging means for continuously imaging a subject to generate a plurality of image frames;
Face detection means for detecting a face image of the subject from the plurality of image frames generated by the imaging means;
Face detection determination means for determining whether the face image is in a detection state or a non-detection state according to a result of the face detection by the face detection means;
When the face detection determining unit determines that the face image is not detected, the face image corresponding unit corresponding to the face image is tracked between adjacent image frames of the plurality of image frames. A face image corresponding part tracking means;
Imaging control means for performing imaging control based on the face image detected by the face detection means and the face image corresponding part tracked by the face image corresponding part tracking means;
An imaging apparatus comprising:
前記顔画像対応部追跡手段は、
前記顔検出手段により検出された前記顔画像の座標を取得する第一の座標取得手段と、
前記顔検出判定手段により前記顔画像の非検出状態であると判定された場合に、前記第一の座標取得手段により取得された前記顔画像の座標に基づいて、前記顔画像対応部を特定する顔画像対応部特定手段と、
前記顔画像対応部特定手段により特定されて当該顔画像対応部追跡手段により追跡された前記顔画像対応部の座標を取得する第二の座標取得手段と、を備えることを特徴とする請求項1に記載の撮像装置。
The face image corresponding unit tracking means includes:
First coordinate acquisition means for acquiring coordinates of the face image detected by the face detection means;
When the face detection determination unit determines that the face image is not detected, the face image corresponding unit is specified based on the coordinates of the face image acquired by the first coordinate acquisition unit. A face image corresponding part specifying means;
2. A second coordinate acquisition unit that acquires the coordinates of the face image corresponding unit that has been specified by the face image corresponding unit specifying unit and tracked by the face image corresponding unit tracking unit. The imaging device described in 1.
前記顔検出判定手段により前記顔画像の非検出状態であると判定された場合に、前記顔検出手段は前記第二の座標取得手段によって取得された座標の近傍に対して顔検出を行うことを特徴とする請求項2に記載の撮像装置。   When the face detection determination unit determines that the face image is not detected, the face detection unit performs face detection on the vicinity of the coordinates acquired by the second coordinate acquisition unit. The imaging apparatus according to claim 2, characterized in that: 前記顔検出判定手段により前記顔画像の非検出状態であると判定された場合に、当該非検出状態となっている時間を計時する非検出時間計測手段と、
前記非検出時間計測手段により計時される時間が所定時間を超えたか否かを判定する非検出時間判定手段と、をさらに備え、
前記非検出時間判定手段により所定時間を超えたと判定された場合に、前記顔検出手段は前記所定の領域よりも広い範囲の領域に対して顔検出を行うことを特徴とする請求項3に記載の撮像装置。
A non-detection time measuring means for measuring the time in the non-detection state when the face detection determination means determines that the face image is in a non-detection state;
A non-detection time determination unit that determines whether or not a time measured by the non-detection time measurement unit exceeds a predetermined time;
4. The face detection unit according to claim 3, wherein when the non-detection time determination unit determines that a predetermined time has been exceeded, the face detection unit performs face detection on a region in a wider range than the predetermined region. Imaging device.
前記撮像制御手段は、
前記撮像手段に備わる撮像レンズの合焦位置を調整する合焦位置調整手段と、
前記撮像手段により撮像された前記画像フレームの所定領域の明るさに基づいて、当該画像フレームの明るさを調整する明るさ調整手段と、
前記撮像手段により撮像された前記画像フレームの所定領域の色調に基づいて、当該画像フレームの色調を調整する色調調整手段と、をさらに備え、
前記撮像手段による前記被写体の撮像の際、前記顔画像の検出状態にて、前記明るさ調整関連処理実行手段による明るさ調整処理及び前記色調調整処理実行手段による色調調整処理の少なくとも何れか一方と、前記合焦位置調整手段による合焦位置調整処理の実行を制御する一方で、前記顔画像の非検出状態にて、前記合焦位置調整手段による前記合焦位置調整処理の実行を制御することを特徴とする請求項1〜4の何れか一項に記載の撮像装置。
The imaging control means includes
Focusing position adjusting means for adjusting the focusing position of the imaging lens provided in the imaging means;
Brightness adjusting means for adjusting the brightness of the image frame based on the brightness of a predetermined area of the image frame imaged by the imaging means;
A color tone adjusting unit that adjusts a color tone of the image frame based on a color tone of a predetermined area of the image frame captured by the imaging unit;
At the time of imaging of the subject by the imaging means, at least one of brightness adjustment processing by the brightness adjustment related processing execution means and color tone adjustment processing by the color tone adjustment processing execution means in the detection state of the face image Controlling the execution of the focus position adjustment process by the focus position adjustment means, while controlling the execution of the focus position adjustment process by the focus position adjustment means in the non-detection state of the face image. The imaging device according to any one of claims 1 to 4, wherein
被写体を連続して撮像して、複数の画像フレームを生成する撮像手段を備える撮像装置に、
前記撮像手段により生成された前記複数の画像フレームから前記被写体の顔画像を検出する顔検出する機能と、
顔検出処理の結果に応じて前記顔画像の検出状態であるか非検出状態であるかを判定する機能と、
前記顔画像の非検出状態であると判定された場合に、前記複数の画像フレームのうちの隣合う画像フレーム間で、前記顔画像に対応する顔画像対応部を追跡する機能と、
前記顔検出処理によって検出された前記顔画像及び追跡された前記顔画像対応部に基づいて、前記撮像手段により撮像される画像の撮像を制御する機能と、
前記顔画像対応部の追跡開始後、前記顔画像の検出状態であると判定された場合に、前記顔画像対応部の追跡を停止する機能と、
を実現させることを特徴とするプログラム。
In an imaging apparatus comprising imaging means for continuously imaging a subject and generating a plurality of image frames,
A face detecting function for detecting a face image of the subject from the plurality of image frames generated by the imaging means;
A function of determining whether the face image is in a detected state or a non-detected state according to a result of face detection processing;
A function of tracking a face image corresponding unit corresponding to the face image between adjacent image frames of the plurality of image frames when it is determined that the face image is not detected;
A function of controlling the imaging of the image captured by the imaging unit based on the face image detected by the face detection process and the tracked face image corresponding unit;
A function of stopping tracking of the face image corresponding unit when it is determined that the face image corresponding unit is in a detection state after the tracking of the face image corresponding unit is started;
A program characterized by realizing.
JP2007124719A 2007-05-09 2007-05-09 Imaging apparatus and program Expired - Fee Related JP4506779B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007124719A JP4506779B2 (en) 2007-05-09 2007-05-09 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007124719A JP4506779B2 (en) 2007-05-09 2007-05-09 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2008283379A JP2008283379A (en) 2008-11-20
JP4506779B2 true JP4506779B2 (en) 2010-07-21

Family

ID=40143841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007124719A Expired - Fee Related JP4506779B2 (en) 2007-05-09 2007-05-09 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP4506779B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8878940B2 (en) 2011-06-29 2014-11-04 Olympus Imaging Corp. Tracking apparatus for tracking target subject in input image

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4730431B2 (en) * 2008-12-16 2011-07-20 日本ビクター株式会社 Target tracking device
JP5289993B2 (en) * 2009-02-04 2013-09-11 オリンパスイメージング株式会社 TRACKING DEVICE AND TRACKING METHOD
JP5247569B2 (en) * 2009-04-09 2013-07-24 富士フイルム株式会社 Person tracking device, person tracking method and program
JP5814557B2 (en) * 2011-02-07 2015-11-17 キヤノン株式会社 Image display control device, imaging device, display control method, and control program
JP2012205037A (en) 2011-03-25 2012-10-22 Olympus Imaging Corp Image processor and image processing method
JP6654789B2 (en) * 2016-11-11 2020-02-26 Kddi株式会社 Apparatus, program, and method for tracking object considering multiple candidates at change points

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2007005966A (en) * 2005-06-22 2007-01-11 Fujifilm Holdings Corp System for calculation amount of exposure, and control method and control program thereof
JP2007068147A (en) * 2005-08-05 2007-03-15 Canon Inc Image processing method, imaging apparatus, and control program of image processing method executable by computer
JP2007274207A (en) * 2006-03-30 2007-10-18 Fujifilm Corp Image display device, image pickup device, and image display method
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging device and method for controlling the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2007005966A (en) * 2005-06-22 2007-01-11 Fujifilm Holdings Corp System for calculation amount of exposure, and control method and control program thereof
JP2007068147A (en) * 2005-08-05 2007-03-15 Canon Inc Image processing method, imaging apparatus, and control program of image processing method executable by computer
JP2007274207A (en) * 2006-03-30 2007-10-18 Fujifilm Corp Image display device, image pickup device, and image display method
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging device and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8878940B2 (en) 2011-06-29 2014-11-04 Olympus Imaging Corp. Tracking apparatus for tracking target subject in input image

Also Published As

Publication number Publication date
JP2008283379A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
US7430369B2 (en) Image capture apparatus and control method therefor
TWI549501B (en) An imaging device, and a control method thereof
TWI393434B (en) Image capture device and program storage medium
TWI425826B (en) Image selection device and method for selecting image
JP7346654B2 (en) Image processing device, imaging device, control method, program, and storage medium
KR100815512B1 (en) Image capturing apparatus and control method thereof
JP5029137B2 (en) Imaging apparatus and program
US9761010B2 (en) Tracking apparatus
JP2006211139A (en) Imaging apparatus
US8542941B2 (en) Imaging device, image detecting method and focus adjusting method
US8411159B2 (en) Method of detecting specific object region and digital camera
JP2010010729A (en) Image pickup apparatus, and program
JP4552997B2 (en) Imaging apparatus and program
JP2006201282A (en) Digital camera
JP4506779B2 (en) Imaging apparatus and program
KR101728042B1 (en) Digital photographing apparatus and control method thereof
CN105872355A (en) Focus adjustment device and focus adjustment method
US9412008B2 (en) Tracking apparatus and tracking method
US20200177814A1 (en) Image capturing apparatus and method of controlling image capturing apparatus
JP4948248B2 (en) Imaging apparatus and control method thereof
JP2013205675A (en) Imaging apparatus
JP2007005966A (en) System for calculation amount of exposure, and control method and control program thereof
JP2008172732A (en) Imaging apparatus, control method thereof, and program
JP2010072283A (en) Imaging device
JP2007264250A (en) Photographing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100419

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4506779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees