JP2009017194A - Object detecting device and method therefor, and imaging apparatus - Google Patents
Object detecting device and method therefor, and imaging apparatus Download PDFInfo
- Publication number
- JP2009017194A JP2009017194A JP2007176214A JP2007176214A JP2009017194A JP 2009017194 A JP2009017194 A JP 2009017194A JP 2007176214 A JP2007176214 A JP 2007176214A JP 2007176214 A JP2007176214 A JP 2007176214A JP 2009017194 A JP2009017194 A JP 2009017194A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- face
- detection
- image change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像内から人物の顔等の物体を検出する物体検出装置及び物体検出方法に関する。また本発明は、それらを利用した撮像装置に関する。 The present invention relates to an object detection apparatus and an object detection method for detecting an object such as a human face from an image. The present invention also relates to an imaging apparatus using them.
撮像装置において、画像内から顔を検出する顔検出機能が実用化されており、顔検出結果を利用した様々なカメラ制御も提案されている。例えば、顔検出結果を画像圧縮処理に利用することもできる。この種の画像圧縮処理では、顔の部分に割り当てる符号量を他の部分よりも多くすることで、顔の部分の解像度を比較的高く保つ(例えば、特許第3748717号公報参照)。 In an imaging apparatus, a face detection function for detecting a face from an image has been put into practical use, and various camera controls using face detection results have been proposed. For example, the face detection result can be used for image compression processing. In this type of image compression processing, the resolution of the face portion is kept relatively high by increasing the amount of code assigned to the face portion as compared to other portions (see, for example, Japanese Patent No. 3748717).
顔検出結果を利用したカメラ制御を行う場合、安定的な顔検出が必要となってくる。安定的な顔検出とは、顔検出の途切れやふらつきがない(或いは少ない)ことを意味する。顔検出結果を利用して上述の画像圧縮処理を行った場合において、仮に、顔検出が途切れると(実際には画像内に顔が存在するのに対して顔検出を失敗すると)、顔の部分の解像度が急激に高くなったり低くなったりする。これは、顔の部分の解像度が低いまま撮影される事よりも問題が大きい。また、顔検出結果を利用して、オートフォーカス制御、自動露出制御又はオートホワイトバランス制御を実行する場合においても類似の問題が生じる。これらの事情からも分かるように、安定的な顔検出は重要である。 When performing camera control using a face detection result, stable face detection is required. Stable face detection means that face detection is not interrupted or wobbled (or less). In the case where the above-described image compression processing is performed using the face detection result, if face detection is interrupted (actually, a face exists in the image but face detection fails), the face portion The resolution of the screen suddenly increases or decreases. This is more problematic than shooting with low resolution of the face. A similar problem occurs when auto focus control, automatic exposure control, or auto white balance control is executed using the face detection result. As can be seen from these circumstances, stable face detection is important.
ところが、顔検出はあらゆる条件下で成功する訳ではなく、実際には安定的に顔検出が行われないこともある。例えば、人物の顔はあらゆる方向を向くが顔を検出できる顔の向きにも限界があり、限界付近で顔の検出を失敗することもある。また例えば、ノイズ、顔の動きによる画像ボケ、急激な光源変化又はオクルージョンの発生によって、顔検出を失敗することもある。また例えば、顔検出の演算量削減のために顔を探査する領域を間引いたりすることもあり、その場合には、検出顔位置がふらつくこともある。このような不安定な顔検出結果に基づいてカメラ制御を行うと、上述のような問題が生じる。 However, face detection does not succeed under all conditions, and in fact, face detection may not be performed stably. For example, the face of a person faces every direction, but there is a limit to the direction of the face that can be detected, and face detection may fail near the limit. In addition, for example, face detection may fail due to noise, image blur due to face movement, sudden light source change or occlusion. Further, for example, a face search area may be thinned out to reduce the amount of face detection calculation, and in this case, the detected face position may fluctuate. When the camera control is performed based on such an unstable face detection result, the above-described problem occurs.
尚、下記特許文献1には、連写中に顔検出が不能になった場合、所定の時間内に得られた顔検出結果に基づいて撮影動作制御を行う手法が開示されている。しかし、この手法では、顔が所定の時間以上に静止していた場合、撮影動作制御に必要な顔検出結果を失ってしまうことになる。
検出すべき対象物が顔である場合に着目して従来の問題を説明したが、顔以外の物体を検出する場合にも同様の問題が生じる。 Although the conventional problem has been described focusing on the case where the object to be detected is a face, the same problem occurs when an object other than the face is detected.
そこで本発明は、安定した物体検出に寄与する物体検出装置及び物体検出方法並びに撮像装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide an object detection device, an object detection method, and an imaging device that contribute to stable object detection.
本発明に係る第1の物体検出装置は、動画像内における特定種類の物体の位置を前記動画像に基づいて検出する物体検出装置において、前記動画像内における前記物体の周辺の画像変化をも考慮して、前記物体の位置を検出することを特徴とする。 A first object detection device according to the present invention is an object detection device that detects a position of a specific type of object in a moving image based on the moving image, and also includes an image change around the object in the moving image. In consideration of this, the position of the object is detected.
物体の周辺の画像変化に基づけば、物体そのもの或いは物体の周辺の動きを推測可能であり、その推測結果に基づいて良好な物体の位置検出が可能である。故に、上述のように構成すれば、安定した物体検出が期待される。 Based on the image change around the object, it is possible to estimate the object itself or the movement around the object, and it is possible to detect the position of the object well based on the estimation result. Therefore, when configured as described above, stable object detection is expected.
本発明に係る第2の物体検出装置は、動画像内における特定種類の物体の位置を前記動画像に基づいて検出する物体検出装置において、前記動画像内における前記物体の位置を暫定的に検出する第1検出手段と、前記第1検出手段の検出結果と、前記物体を含む基準エリア内及び前記基準エリアの周辺に位置する周辺エリア内の画像変化と、に基づいて前記動画像内における前記物体の位置を最終的に検出する第2検出手段と、を備えたことを特徴とする。 A second object detection device according to the present invention is an object detection device that detects a position of a specific type of object in a moving image based on the moving image, and tentatively detects the position of the object in the moving image. Based on the detection result of the first detection means, the detection result of the first detection means, and the image change in the reference area including the object and in the peripheral area located around the reference area. And second detection means for finally detecting the position of the object.
一旦、検出した物体の位置を上記画像変化に基づいてより適切な位置に修正することができる場合がある。そこで上記の如く構成する。これによっても、安定した物体検出が期待される。 In some cases, the position of the detected object can be corrected to a more appropriate position based on the image change. Therefore, it is configured as described above. This also allows stable object detection.
具体的には例えば、前記動画像は、時系列で並ぶ複数の入力画像から形成され、前記第1検出手段は、各入力画像内における前記物体の位置を暫定的に検出し、前記第2検出手段は、前記第1検出手段によって検出された過去の入力画像についての前記物体の位置に基づいて現在の入力画像に対する前記基準エリア及び前記周辺エリアを設定するエリア設定手段と、現在の入力画像に対して設定された前記基準エリア及び前記周辺エリアを現在と過去の入力画像に対して定義し、現在と過去の入力画像間における前記基準エリア及び前記周辺エリア内の画像変化を、現在の入力画像についての画像変化として検出する画像変化検出手段と、を備え、過去及び現在の入力画像に対する前記第1検出手段の検出結果と、前記画像変化検出手段によって検出された、現在の入力画像についての前記画像変化と、に基づいて現在の入力画像内における前記物体の位置を最終的に検出する。 Specifically, for example, the moving image is formed from a plurality of input images arranged in time series, and the first detection means tentatively detects the position of the object in each input image, and the second detection Means for setting the reference area and the peripheral area for the current input image based on the position of the object with respect to the past input image detected by the first detection means; The reference area and the peripheral area set for the current and past input images are defined, and image changes in the reference area and the peripheral area between the current and past input images are defined as the current input image. Image change detection means for detecting an image change for the first and second input images, and a detection result of the first detection means for the past and current input images, and the image change detection means. It detected Te, and the image changes for the current input image, and finally to detect the position of the object in the current input image based on.
また例えば、前記周辺エリアは、前記基準エリアの全周を囲むように設定され、前記画像変化検出手段は、前記周辺エリアの一部エリアを除外した上で、前記周辺エリアについての前記画像変化を検出する。 Further, for example, the peripheral area is set so as to surround the entire circumference of the reference area, and the image change detection unit excludes a part of the peripheral area and then performs the image change for the peripheral area. To detect.
例えば、検出すべき物体が人物の顔である場合において、身体に対応するエリアを除外するようにすれば、物体検出の更なる安定化が期待される。 For example, when the object to be detected is a person's face, further stabilization of object detection is expected if the area corresponding to the body is excluded.
これに代えて例えば、前記周辺エリアを、前記基準エリアの全周の一部を囲むように設定してもよい。 Instead of this, for example, the peripheral area may be set so as to surround a part of the entire circumference of the reference area.
また例えば、前記周辺エリアは、前記基準エリアからの距離が比較的近い第1周辺エリアと前記基準エリアからの距離が比較的遠い第2周辺エリアとを含むように階層化され、
前記第2検出手段は、前記第1検出手段の検出結果と、前記基準エリア並びに第1及び第2周辺エリア内の画像変化と、に基づいて前記物体の位置を最終的に検出するようにしてもよい。
Further, for example, the peripheral area is hierarchized to include a first peripheral area that is relatively close to the reference area and a second peripheral area that is relatively far from the reference area,
The second detection means finally detects the position of the object based on a detection result of the first detection means and image changes in the reference area and the first and second peripheral areas. Also good.
また具体的には例えば、前記特定種類の物体は、人物の顔である。 More specifically, for example, the specific type of object is a human face.
そして、本発明に係る撮像装置は、被写体に応じた動画像を取得する撮像手段と、前記撮像手段によって得られた前記動画像を受ける、上記の何れかの物体検出装置と、を備えたことを特徴とする。 An imaging apparatus according to the present invention includes an imaging unit that acquires a moving image according to a subject, and any one of the object detection devices that receives the moving image obtained by the imaging unit. It is characterized by.
また、本発明に係る物体検出方法は、動画像内における特定種類の物体の位置を前記動画像に基づいて検出する物体検出方法において、前記動画像内における前記物体の周辺の画像変化をも考慮して、前記物体の位置を検出することを特徴とする。 The object detection method according to the present invention is an object detection method for detecting a position of a specific type of object in a moving image based on the moving image, and also considers an image change around the object in the moving image. Then, the position of the object is detected.
本発明によれば、安定した物体検出に寄与する物体検出装置及び物体検出方法並びに撮像装置を提供することが可能である。 According to the present invention, it is possible to provide an object detection apparatus, an object detection method, and an imaging apparatus that contribute to stable object detection.
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。 The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第4実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to fourth embodiments will be described later. First, matters that are common to each embodiment or items that are referred to in each embodiment will be described.
図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。図1の撮像装置1は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。
FIG. 1 is an overall block diagram of an
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、表示部15と、記録媒体16と、操作部17と、顔検出部18と、を備えている。
The
撮像部11は、光学系と、絞りと、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子と、光学系や絞りを制御するためのドライバ(全て不図示)と、を有している。ドライバは、主制御部13からの制御信号に基づいて、光学系のズーム倍率や焦点距離、及び、絞りの開度を制御する。撮像素子は、光学系及び絞りを介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。
The
AFE12は、撮像部11(撮像素子)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、主制御部13に出力する。
The AFE 12 amplifies the analog signal output from the imaging unit 11 (imaging device), and converts the amplified analog signal into a digital signal. The AFE 12 sequentially outputs this digital signal to the
主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備え、映像信号処理部としても機能する。主制御部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像(以下、「撮影画像」又は「フレーム画像」ともいう)を表す映像信号を生成する。また、主制御部13は、表示部15の表示内容を制御する表示制御手段としての機能をも備え、表示に必要な制御を表示部15に対して行う。
The
内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。表示部15は、液晶ディスプレイパネル等から成る表示装置であり、主制御部13の制御の下、直前のフレームにて撮影された画像や記録媒体16に記録されている画像などを表示する。記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリであり、主制御部13による制御の下、撮影画像などを記憶する。勿論、記録媒体16を、SDメモリカード以外の記録媒体(例えば、HDD(Hard Disk Drive)やDVD(Digital Versatile Disc))を用いて形成しても良い。操作部17は、外部からの操作を受け付ける。操作部17に対する操作内容は、主制御部13に伝達される。
The
顔検出部18は、各撮影画像内から人物の顔を検出し、その顔検出結果を表す情報を主制御部13に伝達する。主制御部13は、顔検出部18の顔検出結果を利用して様々な処理を実施する。例えば、顔検出部18によって検出された顔にピントが合うようにオートフォーカス制御を行う。或いは例えば、顔検出部18によって検出された顔に対する露出量が最適となるように露出制御(絞りの開度に対する制御や撮像素子の露光時間に対する制御)を行う。或いは例えば、顔検出部18によって検出された顔の画像に対してオートホワイトバランス制御を行う。また、動画像の撮影及び記録時において、動画像を形成する各フレーム画像は所定の圧縮方式にて圧縮されてから記録媒体16に記録されるが、この画像圧縮処理において顔検出部18の顔検出結果を利用することもできる。例えば、画像圧縮処理において、顔の部分に割り当てる符号量を他の部分よりも多くするといったことが可能である。
The
撮像装置1の動作モードには、静止画像または動画像の撮影及び記録が可能な撮影モードと、記録媒体16に記録された静止画像または動画像を表示部15に再生表示する再生モードと、が含まれる。操作部17に対する操作に応じて、各モード間の遷移は実施される。撮影モードにおいて、撮像部11は、所定のフレーム周期(例えば、1/60秒)にて順次撮影を行う。以下の説明は、特に記述なき限り、撮影モードにおける動作の説明である。
The operation modes of the
今、フレーム周期が経過するごとに、第1、第2、第3、・・・、第(n−2)、第(n−1)及び第nフレームがこの順番で訪れるものとし(nは3以上の整数)、第1、第2、第3、・・・、第(n−2)、第(n−1)及び第nフレームにて得られた撮影画像を、夫々、第1、第2、第3、・・・、第(n−2)、第(n−1)及び第nフレーム画像と呼ぶこととする。時系列で並ぶ第1〜第nフレーム画像は、動画像を形成する。各フレーム画像は、顔検出部18に対する入力画像として顔検出部18に与えられる。尚、動画像を形成する第1〜第nフレーム画像には、操作部17に対する静止画像撮影指示に応じて得られ且つ記録媒体16に記録される静止画像が含まれうるし、スルー表示画像も含まれうる。スルー表示画像とは、静止画像撮影指示がなされていなくても、表示部15の表示内容を更新するために撮像部11から取得される画像である。
Now, every time the frame period elapses, the first, second, third,..., (N-2) th, (n-1) th and nth frames come in this order (n is (Integer greater than or equal to 3), first, second, third,..., (N-2), (n-1) and nth frames are taken as the first, The second, third,..., (N-2) th, (n-1) th and nth frame images are referred to. The first to nth frame images arranged in time series form a moving image. Each frame image is given to the
図2に、顔検出部18の内部ブロック図を示す。図2に示す如く、顔検出部18は、顔検出処理部21と、顔検出安定化処理部22と、を備える。顔検出部18に対する入力画像(各フレーム画像)は、顔検出処理部21及び顔検出安定化処理部22に与えられる。以下の記述において、単に入力画像といった場合、それは、顔検出部18に対する入力画像を指すものとする。また、以下の説明において、特に記述なき限り、各入力画像内には顔が含まれているものとする。
FIG. 2 shows an internal block diagram of the
顔検出処理部21は、入力画像ごとに、入力画像の画像データに基づいて入力画像中から人物の顔を検出し、検出された顔を含む顔領域を抽出する。画像中に含まれる顔を検出する手法として様々な手法が知られており、顔検出処理部21は何れの手法をも採用可能である。例えば、特開2000−105819号公報に記載の手法のように入力画像から肌色領域を抽出することによって顔(顔領域)を検出しても良いし、特開2006−211139号公報又は特開2006−72770号公報に記載の手法を用いて顔(顔領域)を検出しても良い。
For each input image, the face
典型的には例えば、入力画像内に設定された着目領域の画像と所定の画像サイズを有する基準顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否か(着目領域が顔領域であるか否か)を検出する。類似判定は、顔であるか否かを識別するのに有効な特徴量を抽出することによって行う。特徴量は、水平エッジ、垂直エッジ、右斜めエッジ、左斜めエッジ等である。 Typically, for example, the image of the region of interest set in the input image is compared with a reference face image having a predetermined image size to determine the similarity between both images, and the region of interest is determined based on the similarity. It is detected whether or not a face is included (whether or not the region of interest is a face region). The similarity determination is performed by extracting a feature amount effective for identifying whether the face is a face. The feature amount is a horizontal edge, a vertical edge, a right diagonal edge, a left diagonal edge, or the like.
入力画像において着目領域は一画素ずつ左右方向又は上下方向にずらされる。そして、ずらされた後の着目領域の画像と基準顔画像とが対比されて、再度、両画像の類似度が判定され、同様の検出が行われる。このように、着目領域は、例えば入力画像の左上から右下方向に向けて1画素ずつずらされながら、更新設定される。また、入力画像を一定割合で縮小し、縮小後の画像に対して、同様の顔検出処理を行う。このような処理を繰り返すことにより、入力画像中から任意の大きさの顔を検出することができる。 In the input image, the region of interest is shifted in the horizontal direction or the vertical direction pixel by pixel. Then, the image of the region of interest after the shift is compared with the reference face image, the similarity between both images is determined again, and the same detection is performed. In this way, the region of interest is updated and set, for example, while being shifted pixel by pixel from the upper left to the lower right of the input image. In addition, the input image is reduced at a certain rate, and the same face detection process is performed on the reduced image. By repeating such processing, a face of any size can be detected from the input image.
また、顔検出処理部21は、各入力画像内における顔の傾きをも検出可能に構成されている。例えば、入力画像を回転させ、回転後の画像に対して上述と同様の顔検出処理を行うことにより、傾いた顔を検出可能であると共に顔の傾き(傾き角度)を検出することができる。ここにおける顔の傾きとは、入力画像の垂直方向に対する顔の傾きを意味し、例えば、入力画像の垂直方向に平行な直線に対する顔の口中央と眉間を結ぶ直線の傾きである。
Further, the face
顔検出処理部21は、更に、各入力画像における顔の向きも併せて検出する。即ち例えば、顔検出処理部21は、各入力画像において検出された顔が、正面顔(正面から見た顔)であるのか、或いは、横顔(横から見た顔)であるのかを区別して検出可能である。顔の向きを検出する手法として様々な手法が提案されており、顔検出処理部21は何れの手法をも採用可能である。
The face
例えば、特開平10−307923号公報に記載の手法のように、入力画像の中から、目、鼻、口等の顔部品を順番に見つけていって画像中の顔の位置を検出し、顔部品の投影データに基づいて顔の向きを検出する。 For example, as in the technique described in Japanese Patent Laid-Open No. 10-307923, face parts such as eyes, nose and mouth are found in order from the input image, and the position of the face in the image is detected. The direction of the face is detected based on the projection data of the part.
或いは例えば、特開2006−72770号公報に記載の手法を用いてもよい。この手法では、1つの正面顔を左側半分(以下、左顔という)と右側半分(以下、右顔という)とに分けて考え、学習処理を介して左顔に関するパラメータと右顔に関するパラメータを事前に生成しておく。顔検出時には、入力画像内の着目領域を左右に分割し、各分割領域と、上記2つのパラメータの内の対応するパラメータとの類似度を算出する。そして、一方又は双方の類似度が閾値以上の時に、着目領域が顔領域であると判別する。更に、各分割領域に対する類似度の大小関係から顔の向きを検出する。 Alternatively, for example, a method described in JP 2006-72770 A may be used. In this method, one front face is divided into a left half (hereinafter referred to as a left face) and a right half (hereinafter referred to as a right face), and parameters related to the left face and right face are preliminarily determined through a learning process. Generate in advance. At the time of face detection, the region of interest in the input image is divided into left and right, and the similarity between each divided region and the corresponding parameter of the two parameters is calculated. Then, when one or both of the similarities are equal to or greater than the threshold, it is determined that the region of interest is a face region. Furthermore, the orientation of the face is detected from the magnitude relationship of the similarity to each divided region.
顔検出処理部21は、自身による顔検出結果を表す顔検出情報を出力する。顔検出処理部21により或る入力画像から顔が検出された場合、該入力画像に対する顔検出情報は、該入力画像上における「顔の位置、顔の大きさ、顔の傾き及び顔の向き」を特定する。実際には例えば、顔検出処理部21は、顔を含む矩形領域を顔領域として抽出し、入力画像上における該顔領域の位置及び画像サイズによって顔の位置及び大きさを表現する。また、顔の位置とは、例えば、その顔についての顔領域の中心位置を示す。各入力画像に対する顔検出情報は、顔検出安定化処理部22に与えられる。尚、顔検出処理部21において顔が検出されなかった場合は、顔検出情報は生成及び出力されず、代わりに、その旨を表す情報が顔検出安定化処理部22に伝達される。
The face
ところで、顔検出処理部21による顔検出は、あらゆる条件下で成功する訳ではなく、安定的に顔検出が行われないこともある。例えば、顔を検出できる顔の向きにも限界があり、限界付近で顔の検出を失敗することもある。また例えば、ノイズ、顔検出処理部21が想定していない顔の表情変化、顔の動きによる画像ボケ、急激な光源変化又はオクルージョンの発生によって、顔検出を失敗することもある。また例えば、顔検出の演算量削減のために顔を探査する領域を間引いたりすることもあり、その場合には、検出顔位置がふらつくこともある。
Incidentally, face detection by the face
上述の如く、顔検出処理部21だけでは顔検出が安定的に行われないことがあるが、顔検出部18では、顔検出安定化処理部22が顔検出の安定性を担保する。顔検出安定化処理部22は、複数フレーム分の入力画像と顔検出処理部21からの顔検出情報とに基づいて顔検出の安定化を図り、これによって安定化顔情報を生成及び出力する。顔検出の安定化とは、顔検出の途切れやふらつきを抑制することを意味する。安定化顔情報は、顔検出の安定化が行われた後の顔の検出結果を表している。安定化顔情報は、着目した入力画像上における顔の位置及び顔の大きさを特定する情報を少なくとも含み、更に、着目した入力画像上における顔の傾き及び顔の向きを特定する情報をも含みうる。
As described above, face detection may not be performed stably only by the face
着目した入力画像に対する安定化顔情報は、その入力画像に対する顔検出部18の顔検出結果を表す情報として、図1の主制御部13に伝達される。つまり、主制御部13は、安定化顔情報にて特定される顔の位置及び大きさ等に基づいて、上述のような様々な処理(画像圧縮処理やオートフォーカス制御等)を実施する。
The stabilized face information for the focused input image is transmitted to the
図3は、顔検出安定化処理部22の内部ブロック図である。図3に示す如く、顔検出安定化処理部22は、エリア設定部31、画像変化判定部32及び安定化顔情報生成部33を備える。
FIG. 3 is an internal block diagram of the face detection
今、説明の具体化のため、顔検出の安定化を施したい入力画像が第nフレーム画像であるとし、第nフレーム画像についての安定化顔情報を生成することを想定する(この想定は、特に記述無き限り、以下の説明文の全てに適用される)。顔検出の安定化を施したい入力画像(今の例の場合、第nフレーム画像)を、「安定化対象画像」とも呼ぶ。 Now, for the sake of concrete explanation, it is assumed that the input image for which face detection is to be stabilized is the nth frame image, and that the stabilized face information for the nth frame image is generated (this assumption is This applies to all of the following descriptions unless otherwise stated). An input image (in the present example, the nth frame image) on which face detection is to be stabilized is also referred to as a “stabilization target image”.
概略的には、顔検出安定化処理部22は、顔領域及び顔領域周辺の画像変化を監視し、その画像変化をも考慮して最終的に検出すべき顔の位置等を決定する。
Schematically, the face detection
例えば、或る区間において、顔領域及び顔領域周辺に画像変化が殆どなければ顔自体及び顔の位置は変わっていないと判断することができる。また例えば、顔領域周辺に画像変化がなければ、顔自体は動いているかもしれないが顔の位置は変わっていないと判断できる。顔領域及び顔領域周辺の双方に画像変化がある場合は、顔の位置の移動等が発生したと判断できる。 For example, in a certain section, it can be determined that the face itself and the face position have not changed if there is almost no image change in the face area and the periphery of the face area. Also, for example, if there is no image change around the face area, it can be determined that the face itself may have moved but the face position has not changed. When there is an image change in both the face area and the periphery of the face area, it can be determined that the movement of the face position has occurred.
そして例えば、顔の位置が変わっていないと判断できたならば、図4に示す如く、安定化対象画像の前のフレーム画像に対する顔検出結果を安定化対象画像に対する顔検出結果として流用することができる。これにより、安定化対象画像に対する顔検出処理部21の顔検出が失敗したとしても、顔検出の途切れ等の発生を抑制可能である。
For example, if it can be determined that the face position has not changed, the face detection result for the frame image before the stabilization target image can be used as the face detection result for the stabilization target image, as shown in FIG. it can. Thereby, even if face detection of the face
図3の顔検出安定化処理部22内の各部の機能を概略的に説明する(詳細説明は、後述の各実施例内に設ける)。
The function of each unit in the face detection
エリア設定部31は、エリア設定用画像についての顔検出情報に基づいて画像変化を監視するべき中心視エリア及び周辺視エリア(例えば、後述の図5(a)の中心視エリア220及び周辺視エリア230)を設定する。安定化対象画像が第nフレーム画像である場合、エリア設定用画像を第(n−1)フレーム画像とする。
The
画像変化判定部32は、安定化対象画像についての中心視エリア及び周辺視エリア内の各画像変化を検出する。安定化対象画像についての中心視エリア及び周辺視エリア内の各画像変化とは、安定化対象画像を含む2つの画像変化検出用画像間における中心視エリア及び周辺視エリア内の各画像変化である。安定化対象画像が第nフレーム画像である場合、上記2つの画像変化検出用画像は、第(n−1)及び第nフレーム画像である。尚、画像変化判定部32にて実施される処理を、総称して「画像変化検出処理」と呼ぶ。
The image
安定化顔情報生成部33は、画像変化判定部32による画像変化検出処理の結果と、参照過去画像及び安定化対象画像についての顔検出情報とに基づいて、安定化対象画像についての安定化顔情報を生成して出力する。安定化対象画像が第nフレーム画像である場合、参照過去画像とは、第(n−1)フレーム画像である。
The stabilization face
以下に、図1の撮像装置1の顔検出機能に関与する詳細な実施例として、第1〜第4実施例を説明する。
Below, the 1st-4th Example is described as a detailed Example related to the face detection function of the
<<第1実施例>>
まず、第1実施例について説明する。第1実施例では、エリア設定部31によるエリア設定法について説明する。エリア設定部31が利用可能なエリア設定法として、第1〜第4エリア設定法を個別に例示する。尚、本明細書では、画像内の或る部分を表す言葉としてエリアと領域という2つの文言を用いているが、両者は同義である。
<< First Example >>
First, the first embodiment will be described. In the first embodiment, an area setting method by the
[第1エリア設定法]
第1エリア設定法について説明する。図5(a)を参照する。図5(a)において、符号200は、エリア設定用画像としての第(n−1)フレーム画像である。符号210が付された破線矩形領域は、図2の顔検出処理部21によって第(n−1)フレーム画像から抽出された顔領域である。顔領域210の位置及び大きさは、第(n−1)フレーム画像の顔検出情報によって特定される。
[First area setting method]
The first area setting method will be described. Reference is made to FIG. In FIG. 5A,
図5(a)において、符号220が付された実線矩形領域は、顔領域210を含む中心視エリア(基準エリア)である。中心視エリア220は、顔領域210についての顔の位置、大きさ及び向きに基づいて設定される。典型的には例えば、中心視エリア220の中心と顔領域210の中心を一致させる。また、図5(b)に示す如く、顔の向きに応じて両中心をずらすようにしてもよい。中心視エリア220の大きさ(画像サイズ)は、顔領域210の大きさ(画像サイズ)に比例した大きさとする、或いは、顔領域210の大きさに応じた一定の大きさとする。
In FIG. 5A, a solid line rectangular area denoted by
図5(a)において、符号230が付されたロの字状の斜線領域は、中心視エリア220の周辺に配置された周辺視エリア(周辺エリア)である。周辺視エリア230は、中心視エリア220に隣接しつつ中心視エリア220の全周を取り囲むように配置されたエリアであり、中心視エリア220と周辺視エリア230は互いに重なり合わない。故に、周辺視エリア230内には、顔領域210は存在しない。周辺視エリア230は、典型的には例えば、中心視エリア220の中心と中心が合致する、中心視エリア220よりもサイズの大きな矩形領域から、中心視エリア220を省いた部分とされる。
In FIG. 5A, a square-shaped hatched area denoted by
第1エリア設定法を採用する場合、図3のエリア設定部31は、エリア設定用画像の顔検出情報に基づいて中心視エリア220及び周辺視エリア230を設定し、入力画像上における中心視エリア220及び周辺視エリア230の位置及び大きさを画像変化判定部32に伝達する。画像変化判定部32は、2つの画像変化検出用画像(今の例の場合、第(n−1)及び第nフレーム画像)に対して中心視エリア220及び周辺視エリア230を設定し、2つの画像変化検出用画像間において中心視エリア220及び周辺視エリア230内の各画像変化を検出する。これにより、中心視エリア220及び周辺視エリア230内の動き(顔が動いたか等)を把握することができる。
When the first area setting method is adopted, the
尚、図5(a)は、顔が傾いていない時の例を示しているが、顔が傾いているときは、その顔の傾きに応じて中心視エリア220及び周辺視エリア230も傾く(第2〜第4エリア設定法についても同様)。
FIG. 5A shows an example when the face is not tilted, but when the face is tilted, the
[第2エリア設定法]
次に、第2エリア設定法について説明する。図6(a)及び(b)を参照する。図6(a)において、符号200はエリア設定用画像としての第(n−1)フレーム画像であり、顔領域210及び中心視エリア220は、図5(a)のそれらと同じものである。
[Second area setting method]
Next, the second area setting method will be described. Reference is made to FIGS. 6 (a) and 6 (b). In FIG. 6A,
第2エリア設定法では、周辺視エリアが4つに分割されており、上エリア231、下エリア232、左エリア233及び右エリア234によって、図5(a)に示すそれと同じ周辺視エリア230が形成される。尚、図6(b)は、周辺視エリア230の部分のみを抽出した図である。また、記述の簡略化上、以下、上エリア、下エリア、左エリア及び右エリアを、夫々単にエリアとも記述する。
In the second area setting method, the peripheral vision area is divided into four, and the same
図6(a)の紙面上側と合致する顔の額側を上とし、図6(a)の紙面下側と合致する顔の顎側を下と定義する。上エリア231は周辺視エリア230内の上側の一部矩形領域であり、下エリア232は周辺視エリア230内の下側の一部矩形領域であり、左エリア233は周辺視エリア230内の左側の一部矩形領域であり、右エリア234は周辺視エリア230内の右側の一部矩形領域である。各エリア231〜234を合成したエリアが周辺視エリア230であり、各エリア231〜234は互いに重なり合わない。
The forehead side of the face that matches the upper side of the page of FIG. 6A is defined as the upper side, and the chin side of the face that matches the lower side of the page of FIG. The
第2エリア設定法を採用する場合、図3のエリア設定部31は、エリア設定用画像の顔検出情報に基づいて中心視エリア220及びエリア231〜234を設定し、入力画像上における中心視エリア220及びエリア231〜234の位置及び大きさを画像変化判定部32に伝達する。画像変化判定部32は、2つの画像変化検出用画像(今の例の場合、第(n−1)及び第nフレーム画像)に対して中心視エリア220及びエリア231〜234を設定し、2つの画像変化検出用画像間において中心視エリア220及びエリア231〜234内の各画像変化を検出する。
When the second area setting method is adopted, the
また、顔領域の下側には人物の身体が存在しているため、下エリア232には人物の身体が描画されることとなる。そして、顔の位置が変わっていなくても身体は動きうる。本実施形態では、顔領域周辺の変化を監視して顔の位置が変化したのか否か等を判断し、これによって顔検出の安定化を図ろうとしているため、顔の位置に変化を及ぼさないような身体の動きは、顔検出の安定化にとって、いわばノイズ成分となる。身体の動きを考慮して、顔領域周辺に変化が生じたか否かを判別する判定閾値を大きめに設定しておくという手法をとることもできるが、周辺視エリアの分割によって、これに対応することが可能である。
In addition, since the human body exists below the face area, the human body is drawn in the
つまり、画像変化判定部32の画像変化検出処理において、エリア231〜234の一部を無視するようにしてもよい。エリア231〜234の内、何れのエリアを無視するかは、エリア設定用画像の顔検出情報に応じて決定することができる。例えば、図6(a)の例の場合、顔の顎側のエリア(即ち、身体の一部を含むエリア)である下エリア232を、画像変化検出処理において無視するようにする。尚、顔検出可能な顔検出処理部21(図2)は、当然、顔の額側や顎側を認識可能であり、その認識内容も顔検出情報に含まれている。
That is, in the image change detection process of the image
また、重力の向きを検出可能な傾きセンサ(不図示)を撮像装置1に設けることも可能であり、この場合は、傾きセンサの検出結果に基づいて、エリア231〜234の内の何れのエリアを無視するかを決定しても良い。つまり、傾きセンサによって検出された重力の向きから、エリア231〜234の内、何れのエリアが顔の顎側のエリア(即ち、身体の一部を含むエリア)であるかを特定し、特定されたエリアを画像変化検出処理において無視するようにする。
In addition, an inclination sensor (not shown) capable of detecting the direction of gravity can be provided in the
尚、画像変化検出処理において、エリア231〜234の内の何れかのエリアを完全に無視するのではなく、エリア231〜234の夫々に重みを付けた上で画像変化検出処理を実施するようにしても良い。例えば、顔の顎側のエリアである下エリア232の重みを他のエリア(231、233又は234)の重みよりも小さくすることによって、前者の画像変化が画像変化検出処理の結果に与える寄与度を後者のそれよりも小さくする。或るエリアに関し、重みをゼロにするということは、画像変化検出処理において、そのエリアを無視することと等価である。
In the image change detection process, any one of the
[第3エリア設定法]
また、第2エリア設定法の如く周辺視エリアを分割するのではなく、図7に示す如く、周辺視エリアの形状をコの字状にすることによっても、身体の動きに対応可能である。これを第3エリア設定法とする。
[Third area setting method]
Further, instead of dividing the peripheral vision area as in the second area setting method, it is possible to cope with body movement by making the shape of the peripheral vision area U-shaped as shown in FIG. This is the third area setting method.
図7において、符号200はエリア設定用画像としての第(n−1)フレーム画像であり、顔領域210及び中心視エリア220は、図5(a)のそれと同じものである。符号230aが付されたコの字状の斜線領域は、第3エリア設定法に係る周辺視エリアであり、周辺視エリア230aは、図6(a)のエリア231、233及び234を合成したエリアに相当する。
In FIG. 7,
第3エリア設定法を採用する場合、図3のエリア設定部31は、エリア設定用画像の顔検出情報に基づいて中心視エリア220及び周辺視エリア230aを設定し、入力画像上における中心視エリア220及び周辺視エリア230aの位置及び大きさを画像変化判定部32に伝達する。画像変化判定部32は、2つの画像変化検出用画像(今の例の場合、第(n−1)及び第nフレーム画像)に対して中心視エリア220及び周辺視エリア230aを設定し、2つの画像変化検出用画像間において中心視エリア220及び周辺視エリア230a内の各画像変化を検出する。
When the third area setting method is adopted, the
[第4エリア設定法]
次に、第4エリア設定法について説明する。図8を参照する。図8において、符号200はエリア設定用画像としての第(n−1)フレーム画像であり、顔領域210、中心視エリア220は、図5(a)のそれらと同じものである。
[Fourth area setting method]
Next, the fourth area setting method will be described. Please refer to FIG. In FIG. 8,
図8において、符号240は、中心視エリア220の周辺に配置された第1周辺視エリアである。第1周辺視エリア240は、ロの字状の領域であり、図5(a)の周辺視エリア230と同様のものである(但し、サイズは異なりうる)。つまり、第1周辺視エリア240は、中心視エリア220に隣接しつつ中心視エリア220の全周を取り囲むように配置されたエリアであり、中心視エリア220と第1周辺視エリア240は互いに重なり合わない。第1周辺視エリア240は、典型的には例えば、中心視エリア220の中心と中心が合致する、中心視エリア220よりもサイズの大きな矩形領域から、中心視エリア220を省いた部分とされる。
In FIG. 8,
図8において、符号250が付されたロの字状の斜線領域は、第1周辺視エリア240の周辺に配置された第2周辺視エリアである。第2周辺視エリア250は、第1周辺視エリア240に隣接しつつ第1周辺視エリア240の全周を取り囲むように配置されたエリアであり、第1周辺視エリア240と第2周辺視エリア250は互いに重なり合わない。
In FIG. 8, a square-shaped hatched area denoted by
第4エリア設定法を採用する場合、図3のエリア設定部31は、エリア設定用画像の顔検出情報に基づいて中心視エリア220、第1周辺視エリア240及び第2周辺視エリア250を設定し、入力画像上における中心視エリア220、第1周辺視エリア240及び第2周辺視エリア250の位置及び大きさを画像変化判定部32に伝達する。画像変化判定部32は、2つの画像変化検出用画像(今の例の場合、第(n−1)及び第nフレーム画像)に対して中心視エリア220、第1周辺視エリア240及び第2周辺視エリア250を設定し、2つの画像変化検出用画像間において中心視エリア220、第1周辺視エリア240及び第2周辺視エリア250内の各画像変化を検出する。
When the fourth area setting method is adopted, the
第4エリア設定法における周辺視エリアは、第1周辺視エリア240及び第2周辺視エリア250を合成したエリアであり、周辺視エリアが階層化されている。周辺視エリアを階層化ことにより、より高度な画像変化状態を検出可能となる。例えば、顔の位置が移動した場合と、顔が他の物体によって隠れた場合とを、正確に区別することも可能となる。なぜなら、顔の位置が移動した場合は、中心視エリア220、第1周辺視エリア240、第2周辺視エリア250の順番で動きが伝播するのに対して、顔が他の物体によって隠れた場合は、第2周辺視エリア250、第1周辺視エリア240、中心視エリア220の順番で動きが伝播するからであり、各エリアの画像変化を監視することで両者の区別が可能となるからである。
The peripheral vision area in the fourth area setting method is an area obtained by combining the first
尚、第1エリア設定法を第2エリア設定法に変形したように、第1周辺視エリア240及び第2周辺視エリア250の夫々を、複数のエリアに分割するようにしてもよい。そして、顔の顎側のエリア(即ち、身体の一部を含むエリア)を画像変化検出処理において無視するようにしてもよい。また、第3エリア設定法のように、第1周辺視エリア240及び第2周辺視エリア250の夫々を、顔の顎側のエリアを含まない、コの字状の領域としてもよい。
Note that each of the first
また、説明の明確化及び具体化のため、中心視エリア220と周辺視エリア230又は230aとが互いに重なり合わない場合を想定したが、両者の一部が重なり合っていても構わない(図5(a)及び図7参照)。これは、「互いに重なり合わない」と述べた他のエリア間についても当てはまる。つまり例えば、図6(a)のエリア231の一部と中心視エリア220の一部、図6(a)のエリア231の一部とエリア233の一部、図8の中心視エリア220の一部と第1周辺視エリア240の一部、又は、図8の第1周辺視エリア240の一部と第2周辺視エリア250の一部が重なり合っていても構わない。
Further, for the sake of clarification and concrete explanation, it is assumed that the
<<第2実施例>>
次に、第2実施例について説明する。第2実施例では、図3の画像変化判定部32で実施される画像変化の検出手法を説明する。
<< Second Example >>
Next, a second embodiment will be described. In the second embodiment, an image change detection method performed by the image
画像変化判定部32は、エリア設定部31で設定されたエリアの夫々を検出対象エリアとして取り扱い、検出対象エリアごとに検出対象エリア内の画像変化を検出する。
The image
例えば、エリア設定部31が上述の第1エリア設定法を採用する場合は、図5(a)の中心視エリア220及び周辺視エリア230の夫々が検出対象エリアとして取り扱われる。エリア設定部31が上述の第2エリア設定法を採用する場合は、図6(a)の中心視エリア220並びにエリア231〜234の夫々が検出対象エリアとして取り扱われる。エリア設定部31が上述の第3エリア設定法を採用する場合は、図7の中心視エリア220及び周辺視エリア230aの夫々が検出対象エリアとして取り扱われる。エリア設定部31が上述の第4エリア設定法を採用する場合は、図8の中心視エリア220並びに第1周辺視エリア240及び第2周辺視エリア250の夫々が検出対象エリアとして取り扱われる。
For example, when the
但し、画像変化検出処理において無視されるエリアは、検出対象エリアとならない。例えば、上述の第2エリア設定法の例において、図6(a)の下エリア232を画像変化検出処理において無視することができると述べたが、その場合、下エリア232は検出対象エリアとならない。
However, an area that is ignored in the image change detection process is not a detection target area. For example, in the example of the second area setting method described above, it has been described that the
画像変化判定部32は、2つの画像変化検出用画像(今の例の場合、第(n−1)及び第nフレーム画像)間における各検出対象エリア内の画像変化を検出する。或る1つの検出対象エリアに着目して、画像変化の検出手法を説明する。
The image
[動きベクトルによる画像変化検出]
例えば、画像変化判定部32は、各画像変化検出用画像における検出対象エリア内の映像信号(画像データ)に基づいて動きベクトルを算出し、この動きベクトルの算出によって検出対象エリア内の画像変化を検出する。着目した検出対象エリアについて算出された動きベクトルは、その検出対象エリア内の画像の動きの向き及び大きさを特定する。
[Image change detection based on motion vectors]
For example, the image
動きベクトルの算出手法自体は公知であるため、その詳細な算出手法の説明を割愛する。例えば、特開昭61−201581号公報等に示されている代表点マッチング法を用いて動きベクトルを算出することができる。また、検出対象エリアのオプティカルフローを検出することによって動きベクトルを算出しても良い。オプティカルフローは、上記非特許文献1(特にページ36〜40)等に示されている、ブロックマッチング法、勾配法又はLK(Lucas-Kanade)法に基づいて検出することができる。 Since the motion vector calculation method itself is known, a detailed description of the calculation method is omitted. For example, a motion vector can be calculated using a representative point matching method disclosed in Japanese Patent Application Laid-Open No. 61-201581. Alternatively, the motion vector may be calculated by detecting the optical flow in the detection target area. The optical flow can be detected based on the block matching method, the gradient method, or the LK (Lucas-Kanade) method described in Non-Patent Document 1 (particularly, pages 36 to 40).
1つの検出対象エリアに対して1つの動きベクトルを算出するようにしても構わないが、より高度な画像変化検出を行うために、検出対象エリアを複数のブロックに分割し、ブロックごとに動きベクトルを算出するとよい。この場合、1つの検出対象エリアに対して複数の動きベクトルが算出される。 One motion vector may be calculated for one detection target area. However, in order to perform more advanced image change detection, the detection target area is divided into a plurality of blocks, and the motion vector for each block is calculated. Should be calculated. In this case, a plurality of motion vectors are calculated for one detection target area.
動きベクトルを算出する場合、検出対象エリア内の画像変化を以下のように判断することができる。即ち、着目した検出対象エリアの動きベクトルの大きさが所定の判定閾値未満である場合、その検出対象エリア内の画像変化はないと判断し、その動きベクトルの大きさが該判定閾値以上である場合、その検出対象エリア内の画像変化があると判断する。尚、「画像変化がない」とは、画像変化が完全にないことを意味するだけでなく、画像変化が殆どないことをも意味する概念である。また、検出対象エリア内の画像変化を、検出対象エリア内の状態変化とも言い換えることができる。 When calculating a motion vector, an image change in the detection target area can be determined as follows. That is, when the size of the motion vector in the detection target area of interest is less than a predetermined determination threshold, it is determined that there is no image change in the detection target area, and the size of the motion vector is greater than or equal to the determination threshold In this case, it is determined that there is an image change in the detection target area. “No image change” is a concept that not only means that there is no image change, but also means that there is almost no image change. In addition, an image change in the detection target area can be rephrased as a state change in the detection target area.
また、1つの検出対象エリアに対して複数の動きベクトルを算出する場合は、複数の動きベクトルの大きさの平均値を算出し、その平均値と所定の判定閾値とを比較すれば良い。そして、その平均値が該判定閾値未満である場合に、着目した検出対象エリア内の画像変化はないと判断し、その平均値が該判定閾値以上である場合に、検出対象エリア内の画像変化はあると判断する。尚、複数の動きベクトルの大きさの平均値の代わりに、複数の動きベクトルの大きさの最大値を用いて画像変化の有無を検出するようにしてもよい。最大値の方が画像変化の有無検出に適している場合があるからである。同様に、複数の動きベクトルの大きさの平均値の代わりに、複数の動きベクトルの大きさの、最頻値、最小値又は中央値などを用いることも可能である。 In addition, when calculating a plurality of motion vectors for one detection target area, an average value of the sizes of the plurality of motion vectors may be calculated and the average value may be compared with a predetermined determination threshold. When the average value is less than the determination threshold, it is determined that there is no image change in the target detection target area, and when the average value is equal to or greater than the determination threshold, the image change in the detection target area Judge that there is. Note that the presence or absence of image change may be detected using the maximum value of the magnitudes of the plurality of motion vectors instead of the average value of the magnitudes of the plurality of motion vectors. This is because the maximum value may be more suitable for detecting the presence / absence of an image change. Similarly, instead of the average value of the sizes of the plurality of motion vectors, the mode value, the minimum value, or the median value of the sizes of the plurality of motion vectors can be used.
[カメラ制御情報による画像変化検出]
動きベクトルではなく、カメラ制御情報に基づいて画像変化を検出することも可能である。これについて説明する。
[Image change detection based on camera control information]
It is also possible to detect image changes based on camera control information instead of motion vectors. This will be described.
カメラ制御情報とは、例えば、自動露出制御に利用可能なAE評価値である。AE評価値は、着目したエリア内の画像の明るさに応じた値を持ち、例えば、着目したエリア内の輝度信号値の平均値とされる。AE評価値によって表される画像の明るさの変化によって、画像変化(顔の位置の移動等)を検出可能である。AE評価値を利用する場合、2つの画像変化検出用画像における検出対象エリア内のAE評価値を算出し、一方の画像変化検出用画像におけるAE評価値と他方の画像変化検出用画像におけるAE評価値とを比較する。そして、両者の差分値が所定の差分閾値未満である場合、着目した検出対象エリア内の画像変化はないと判断し、そうでない場合、着目した検出対象エリア内の画像変化はあると判断する。 The camera control information is, for example, an AE evaluation value that can be used for automatic exposure control. The AE evaluation value has a value corresponding to the brightness of the image in the focused area, and is, for example, an average value of luminance signal values in the focused area. An image change (movement of the face position, etc.) can be detected by a change in the brightness of the image represented by the AE evaluation value. When using the AE evaluation value, the AE evaluation value in the detection target area in the two image change detection images is calculated, and the AE evaluation value in one image change detection image and the AE evaluation in the other image change detection image. Compare the value. If the difference value between the two is less than the predetermined difference threshold, it is determined that there is no image change in the focused detection target area. Otherwise, it is determined that there is an image change in the focused detection target area.
また、カメラ制御情報とは、例えば、オートフォーカス制御に利用可能なAF評価値である。AF評価値は、着目したエリア内の画像のコントラスト量(エッジ量)に応じた値を持ち、例えば、該エリア内の画像に含まれる所定の高域周波数成分の積算値から算出される。AE評価値によって表される画像のコントラスト量の変化によって、画像変化(顔の位置の移動等)を検出可能である。AF評価値を利用する場合も、AE評価値を利用する場合と同様にして、検出対象エリア内の画像変化の有無検出が可能である。即ち、AF評価値を利用する場合、2つの画像変化検出用画像における検出対象エリア内のAF評価値を算出し、一方の画像変化検出用画像におけるAF評価値と他方の画像変化検出用画像におけるAF評価値とを比較する。そして、両者の差分値が所定の差分閾値未満である場合、着目した検出対象エリア内の画像変化はないと判断し、そうでない場合、着目した検出対象エリア内の画像変化はあると判断する。 The camera control information is, for example, an AF evaluation value that can be used for autofocus control. The AF evaluation value has a value corresponding to the contrast amount (edge amount) of the image in the focused area, and is calculated from, for example, an integrated value of a predetermined high-frequency component included in the image in the area. An image change (movement of the face position, etc.) can be detected by a change in the contrast amount of the image represented by the AE evaluation value. Even when the AF evaluation value is used, it is possible to detect the presence or absence of an image change in the detection target area in the same manner as when the AE evaluation value is used. That is, when the AF evaluation value is used, the AF evaluation value in the detection target area in the two image change detection images is calculated, and the AF evaluation value in one image change detection image and the other image change detection image are calculated. The AF evaluation value is compared. If the difference value between the two is less than the predetermined difference threshold, it is determined that there is no image change in the focused detection target area. Otherwise, it is determined that there is an image change in the focused detection target area.
また、カメラ制御情報とは、例えば、オートホワイトバランス制御に利用可能なAWB評価値である。オートホワイトバランス制御では、着目したエリア内の画像のRGB信号の比率が所望の比率となるように自動制御され、その自動制御の元となる評価値がAWB評価値である。AWB評価値は、例えば、着目したエリア内の画像のRGB信号の比率に応じた値を持つ。検出対象エリア内の画像に動きが生じた場合(顔の位置の移動等が生じた場合)、検出対象エリアについてのAWB評価値に変化が生じる。故に、AWB評価値に基づいても、AE評価値又はAF評価値を利用する場合と同様にして、検出対象エリア内の画像変化の有無検出が可能である。 The camera control information is, for example, an AWB evaluation value that can be used for auto white balance control. In the auto white balance control, automatic control is performed so that the ratio of the RGB signals of the image in the focused area becomes a desired ratio, and the evaluation value that is the basis of the automatic control is the AWB evaluation value. For example, the AWB evaluation value has a value corresponding to the ratio of the RGB signals of the image in the focused area. When a motion occurs in an image in the detection target area (when a face position is moved or the like), a change occurs in the AWB evaluation value for the detection target area. Therefore, based on the AWB evaluation value, it is possible to detect the presence or absence of an image change in the detection target area in the same manner as when the AE evaluation value or the AF evaluation value is used.
尚、エリア設定部31で設定される中心視エリアや周辺視エリア等の各エリアを、カメラ制御情報の算出用のエリアに合わせ込むようにしてもよい。例えば、カメラ制御情報の算出用のエリアは、フレーム画像を縦方向に16分割し且つ横方向に16分割して得られる合計256個の分割エリアの夫々とされ、その合計256個の分割エリアの夫々に対してカメラ制御情報が算出されるが、エリア設定部31で設定される各エリア(中心視エリアや周辺視エリア)を1又は複数の分割エリアから形成するようにしてもよい。つまり例えば、図2の顔検出処理部21によって抽出された顔領域の位置及び大きさに基づきつつ、その顔領域を含む、1つの分割エリア又は互いに隣接する複数の分割エリアの合成エリアを中心視エリヤとして設定する。このようにすれば、カメラ制御情報を中心視エリアや周辺視エリア用に再計算する必要がなくなる。
Each area such as the central vision area and the peripheral vision area set by the
自動露出制御を実行するために顔検出部18外で算出されたAE評価値、オートフォーカス制御を実行するために顔検出部18外で算出されたAF評価値、又は、オートホワイトバランス制御を実行するために顔検出部18外で算出されたAWB評価値を流用することによって検出対象エリア内の画像変化を検出することもできるが、画像変化の検出を行うために、それに適したAE評価値、AF評価値又はAWB評価値を算出する部位を図3の画像変化判定部32内に設けるようにしてもよい。
AE evaluation value calculated outside the
動きベクトルを用いる場合もカメラ制御情報を用いる場合も、結局、画像変化判定部32は、各画像変化検出用画像における検出対象エリア内の映像信号(画像データ)に基づいて検出対象エリア内の画像変化を検出していることになる。
Regardless of whether the motion vector is used or the camera control information is used, the image
<<第3実施例>>
次に、第3実施例について説明する。第3実施例では、図3の画像変化判定部32の画像変化検出処理に基づく安定化顔情報の生成手法を説明する。第3実施例は、上述の第1及び第2実施例と組み合わせて実施される。第1実施例の如く中心視エリア及び周辺視エリアが設定され、第2実施例の如く、検出対象エリアとしての中心視エリア及び周辺視エリアの各画像変化が検出される。
<< Third Example >>
Next, a third embodiment will be described. In the third embodiment, a method for generating stabilized face information based on the image change detection process of the image
第3実施例において、周辺視エリアとは、第1又は第2エリア設定法を採用した場合は図5(a)又は図6(b)の周辺視エリア230を指し、第3エリア設定法を採用した場合は図7の周辺視エリア230aを指し、第4エリア設定法を採用した場合は図8の第1周辺視エリア240及び第2周辺視エリア250の合成エリアを指す。中心視エリアとは、何れのエリア設定法を用いた場合も、中心視エリア220を指す(図5(a)等参照)。
In the third embodiment, the peripheral vision area refers to the
画像変化判定部32は、検出した中心視エリア及び周辺視エリアの各画像変化の有無に基づいて、安定化対象画像についての画像変化状態を4つの状態の何れかに分類する。この分類処理を「概略分類処理」という。また、上記4つの状態を、第1、第2、第3及び第4分類状態と呼ぶ。第4分類状態に分類された場合、画像変化判定部32は、更に「詳細分類処理」を実施する。図9に、概略分類処理及び詳細分類処理の内容を大まかに示す。
The image
概略分類処理において、中心視エリア及び周辺視エリアの双方に画像変化がないと判断される場合は、第1分類状態に分類する。この場合は、前フレームからの変化がなく、顔の位置に変化はないと考えられる。例えば、図5(a)に対応する第1エリア設定法を採用する場合は、第(n−1)及び第nフレーム画像間において中心視エリア220及び周辺視エリア230内の各画像変化が第2実施例の如く検出され、中心視エリア220及び周辺視エリア230の双方の画像変化がないと判断される場合は、第1分類状態に分類する。
In the rough classification process, when it is determined that there is no image change in both the central vision area and the peripheral vision area, the classification is performed in the first classification state. In this case, there is no change from the previous frame, and it is considered that there is no change in the face position. For example, when the first area setting method corresponding to FIG. 5A is adopted, each image change in the
概略分類処理において、中心視エリア内の画像変化はあるものの、周辺視エリア内の画像変化がないと判断される場合は、第2分類状態に分類する。この場合は、首振り動作等によって顔領域(及び顔領域近傍)に変化があるものの、顔の位置自体には変化はないと考えられる。 In the rough classification process, when it is determined that there is an image change in the central vision area but no image change in the peripheral vision area, the image is classified into the second classification state. In this case, although there is a change in the face area (and the vicinity of the face area) due to a swinging motion or the like, it is considered that the face position itself does not change.
概略分類処理において、中心視エリア内の画像変化はないが、周辺視エリア内の画像変化があると判断される場合は、第3分類状態に分類する。ノイズの影響、顔領域周辺の木の葉の揺れ、身体の揺れ等によって第3分類状態に分類されうる。但し、この場合も、顔の位置自体には変化はないと考えられる。 In the rough classification process, when it is determined that there is no image change in the central vision area but there is an image change in the peripheral vision area, the image is classified into the third classification state. It can be classified into the third classification state by the influence of noise, the shaking of the leaves around the face area, the shaking of the body, and the like. However, also in this case, it is considered that the face position itself does not change.
尚、上述の第2エリア設定法を採用して周辺視エリアが細分化されている場合は、図6(a)のエリア231〜234の全てにおいて画像変化がない場合に、周辺視エリア内の画像変化がないと判断し、エリア231〜234の何れかに画像変化がある場合は、周辺視エリア内の画像変化はあると判断する。
In addition, when the peripheral vision area is subdivided by adopting the above-described second area setting method, when there is no image change in all the
また、第2実施例で述べたように、画像変化検出処理において無視されるエリアは画像変化の検出対象エリアとなっていないため、その無視されるエリアの画像変化は、概略分類処理及び詳細分類処理に影響を与えない(概略分類処理及び詳細分類処理において無視される)。例えば、上述の第2エリア設定法の例において、図6(a)の下エリア232を画像変化検出処理において無視することができると述べたが、第2エリア設定法を採用して且つ下エリア232を無視する場合、上エリア231、左エリア233及び右エリア234のみを含む周辺視エリアを想定する。そして、上エリア231、左エリア233及び右エリア234の全てに画像変化がない場合、周辺視エリア内の画像変化はないと判断し、上エリア231、左エリア233及び右エリア234の何れかに画像変化がある場合、周辺視エリア内の画像変化はあると判断する。
Further, as described in the second embodiment, since the area ignored in the image change detection process is not the image change detection target area, the image change in the ignored area is performed by the rough classification process and the detailed classification. Does not affect processing (ignored in rough classification processing and detailed classification processing). For example, in the above-described example of the second area setting method, it has been described that the
第1〜第3分類状態に分類された場合は、何れも顔の位置自体に変化はないものと考えられる。このため、前のフレーム画像に対する顔検出情報を安定化対象画像に対する安定化顔情報として流用することができ、これによって顔検出の途切れ及びふらつき等を抑制可能である。但し、安定化対象画像である第nフレーム画像の顔検出情報がある場合とない場合とで取り扱いを異なせることも可能である。即ち例えば、第1〜第3分類状態に分類された場合において、第nフレーム画像の顔検出情報がないときは、参照過去画像としての第(n−1)フレーム画像の顔検出情報を第nフレーム画像に対する安定化顔情報としてそのまま用いる。一方において、第nフレーム画像の顔検出情報があるときは、第nフレーム画像の顔検出情報そのものを第nフレーム画像に対する安定化顔情報とする、或いは、第(n−1)及び第nフレーム画像の顔検出情報の双方を考慮して第nフレーム画像に対する安定化顔情報を生成する。 In the case of classification into the first to third classification states, it is considered that there is no change in the face position itself. For this reason, the face detection information for the previous frame image can be used as the stabilization face information for the stabilization target image, and thereby it is possible to suppress face detection interruptions and fluctuations. However, the handling may be different depending on whether or not there is face detection information of the nth frame image that is the stabilization target image. That is, for example, in the case of classification into the first to third classification states, when there is no face detection information of the nth frame image, the face detection information of the (n−1) th frame image as the reference past image is changed to the nth frame image. It is used as it is as stabilized face information for the frame image. On the other hand, when there is face detection information of the nth frame image, the face detection information itself of the nth frame image is used as stabilized face information for the nth frame image, or (n-1) th and nth frames Stabilized face information for the nth frame image is generated in consideration of both face detection information of the image.
概略分類処理において、中心視エリア及び周辺視エリアの双方に画像変化があると判断される場合、安定化対象画像は第4分類状態に分類され、更に「詳細分類処理」が実施される。 In the rough classification process, when it is determined that there is an image change in both the central vision area and the peripheral vision area, the stabilization target image is classified into the fourth classification state, and “detailed classification process” is further performed.
第4分類状態は、詳細分類処理によって、第1〜第3細分化状態の何れかに細分化される。第1細分化状態は、着目した人物が歩くこと等によって、実空間において実際に顔が移動した状態に相当する。第2細分化状態は、所謂手ぶれやパン又はチルト操作によって撮像装置1自体が動いた状態に相当する。第3細分化状態は、顔の前に他の物体が進入し顔が他の物体によって隠れた状態に相当する(オクルージョンの発生)。
The fourth classification state is subdivided into any of the first to third subdivision states by the detailed classification process. The first subdivided state corresponds to a state in which the face is actually moved in the real space due to a walking person walking. The second subdivided state corresponds to a state in which the
動きベクトルに基づいて画像変化の検出を行った場合を想定して、詳細分類処理の手順を説明する。この場合、まず、中心視エリアの動きベクトルの向き及び大きさが周辺視エリアの動きベクトルの向き及び大きさと同じであるか否かを判断し、同じである場合は、ぶれやパン又はチルト操作によって撮像装置1自体が動いたと判断して、安定化対象画像を第2細分化状態に分類する。尚、動きベクトルの向き及び大きさに関する「同じ」とは、完全に「同じ」だけでなく実質的に「同じ」であることをも意味する幅のある概念である。また、撮像装置1の角速度を検出するためのジャイロセンサ(不図示)が撮像装置1に設けられている場合は、そのジャイロセンサの検出結果から得られた、撮像装置1の全体の動きを表す全体動きベクトルを利用することで安定化対象画像が第2細分化状態に分類されるか否かを判断することもできる。
The procedure of the detailed classification process will be described assuming that image change is detected based on the motion vector. In this case, first, it is determined whether the direction and magnitude of the motion vector in the central vision area are the same as the direction and magnitude of the motion vector in the peripheral vision area. Thus, it is determined that the
中心視エリアの動きベクトルの向き及び大きさが周辺視エリアの動きベクトルの向き及び大きさと同じでない場合、安定化対象画像は、第1及び第3細分化状態の何れかに分類される。第1と第3細分化状態間の区別も、中心視エリア及び周辺視エリアの動きベクトルに基づいて行うことができる。 When the direction and magnitude of the motion vector in the central vision area are not the same as the direction and magnitude of the motion vector in the peripheral vision area, the stabilization target image is classified into one of the first and third subdivided states. A distinction between the first and third subdivision states can also be made based on the motion vectors of the central vision area and the peripheral vision area.
例えば、第2実施例で述べたように、1つの検出対象エリアを複数のブロックに分割し、中心視エリア及び周辺視エリアの夫々について複数の動きベクトルを検出するようにする。この場合において、第(n−1)及び第nフレーム間で、顔の位置が右方向に移動した場合、図10(a)に示す如く、中心視エリア及び周辺視エリアの各動きベクトルの向きは右向き(中心視エリアから出て行く向き)となり且つ周辺視エリアにおいて右側にのみ有意な大きさを有する右向きの動きベクトルが検出される。このような動きベクトルが検出されたならば安定化対象画像を第1細分化状態に分類する。また、第(n−1)及び第nフレーム間で、顔の右側から他の物体が顔の前に侵入してきた場合、図10(b)に示す如く、中心視エリア及び周辺視エリアの各動きベクトルの向きは左向き(中心視エリアに入っていく向き)となり且つ周辺視エリアにおいて右側にのみ有意な大きさを有する左向きの動きベクトルが検出される。このような動きベクトルが検出されたならば安定化対象画像を第3細分化状態に分類する。 For example, as described in the second embodiment, one detection target area is divided into a plurality of blocks, and a plurality of motion vectors are detected for each of the central vision area and the peripheral vision area. In this case, when the position of the face moves to the right between the (n−1) th and nth frames, the direction of each motion vector in the central viewing area and the peripheral viewing area as shown in FIG. Is rightward (direction going out of the central vision area) and a rightward motion vector having a significant magnitude only on the right side in the peripheral vision area is detected. If such a motion vector is detected, the stabilization target image is classified into the first subdivided state. Also, when another object enters the front of the face from the right side of the face between the (n−1) th and nth frames, as shown in FIG. 10B, each of the central vision area and the peripheral vision area The direction of the motion vector is leftward (direction entering the central vision area), and a leftward motion vector having a significant magnitude only on the right side is detected in the peripheral vision area. If such a motion vector is detected, the stabilization target image is classified into the third subdivided state.
第4分類状態に分類された場合、図3の安定化顔情報生成部33は、第(n−1)フレーム画像の顔検出情報と第n及び第(n−1)フレーム画像間における中心視エリア及び周辺視エリアの動きベクトルに基づいて第nフレーム画像における顔の位置等を推定する。
When classified into the fourth classification state, the stabilized face
例えば、第(n−1)及び第nフレーム間で顔の位置が右方向に移動して図10(a)に示すような動きベクトルが検出された時は、第nフレーム画像を第1細分化状態に分類すると共に、第nフレーム画像における顔の位置が、第(n−1)フレーム画像の顔検出情報によって特定される顔の位置よりも右方向にずれていると推定する(ずれの向き及びずれ量は動きベクトルの向き及び大きさから決定できる)。
また例えば、第(n−1)及び第nフレーム間で顔の右側から他の物体が顔の前に侵入してきて図10(b)に示すような動きベクトルが検出された時は、第nフレーム画像を第3細分化状態に分類すると共に、第nフレーム画像における顔の位置は、第(n−1)フレーム画像の顔検出情報によって特定される顔の位置と同じであると推定する。
また例えば、第nフレーム画像が第2細分化状態に分類された場合は、第n及び第(n−1)フレーム画像間における中心視エリア及び周辺視エリアの動きベクトルに相当する分だけ、第nフレーム画像における顔の位置が、第(n−1)フレーム画像の顔検出情報によって特定される顔の位置からずれていると推定する(ずれの向き及びずれ量は動きベクトルの向き及び大きさから決定できる)。上述の如く推定された顔の位置を推定顔位置という。
For example, when the face position moves rightward between the (n−1) th and nth frames and a motion vector as shown in FIG. 10A is detected, the nth frame image is divided into the first subdivision. And the position of the face in the nth frame image is estimated to be shifted to the right from the position of the face specified by the face detection information of the (n−1) th frame image. The direction and amount of deviation can be determined from the direction and magnitude of the motion vector).
Further, for example, when another object enters the front of the face from the right side of the face between the (n−1) th and nth frames and a motion vector as shown in FIG. The frame image is classified into the third subdivision state, and the face position in the nth frame image is estimated to be the same as the face position specified by the face detection information of the (n−1) th frame image.
Further, for example, when the nth frame image is classified into the second subdivision state, the first frame image is divided by an amount corresponding to the motion vector of the central vision area and the peripheral vision area between the nth and (n−1) th frame images. It is estimated that the position of the face in the n frame image is deviated from the position of the face specified by the face detection information of the (n−1) th frame image (the direction and amount of deviation are the direction and magnitude of the motion vector). Can be determined). The face position estimated as described above is referred to as an estimated face position.
第4分類状態に分類された場合は、安定化対象画像である第nフレーム画像の顔検出情報がある場合とない場合とで安定化顔情報の生成手法が異なる。 When classified into the fourth classification state, the method for generating stabilized face information differs depending on whether or not there is face detection information of the nth frame image that is the stabilization target image.
第nフレーム画像が第4分類状態に分類され且つ第nフレーム画像の顔検出情報がない場合は、上記の推定顔位置より、第nフレーム画像の安定化顔情報を生成する。つまり、上記の推定顔位置を、第nフレーム画像の安定化顔情報によって特定される顔の位置とする。また、第nフレーム画像の安定化顔情報によって特定される顔の大きさ等は、第(n−1)フレーム画像のそれと同じとされる。 When the nth frame image is classified into the fourth classification state and there is no face detection information of the nth frame image, stabilized face information of the nth frame image is generated from the estimated face position. That is, the estimated face position is set as the face position specified by the stabilized face information of the nth frame image. The size of the face specified by the stabilized face information of the nth frame image is the same as that of the (n−1) th frame image.
第nフレーム画像が第4分類状態に分類され且つ第nフレーム画像の顔検出情報がある場合は、上記の推定顔位置と第nフレーム画像の顔検出情報によって特定される顔の位置の何れかを、第nフレーム画像の安定化顔情報における顔の位置とする。基本的には、第(n−1)フレーム画像の安定化顔情報における顔の位置に近い方を、第nフレーム画像の安定化顔情報における顔の位置とする。これにより、検出顔位置のふらつきが抑制される。尚、第nフレーム画像の安定化顔情報によって特定される顔の大きさ等は、第nフレーム画像の顔検出情報に従えばよい。 When the nth frame image is classified into the fourth classification state and there is face detection information of the nth frame image, either of the estimated face position and the face position specified by the face detection information of the nth frame image Is the face position in the stabilized face information of the nth frame image. Basically, the face closer to the face position in the stabilized face information of the (n−1) th frame image is set as the face position in the stabilized face information of the nth frame image. Thereby, the fluctuation of the detected face position is suppressed. Note that the size of the face specified by the stabilized face information of the nth frame image may follow the face detection information of the nth frame image.
<<第4実施例>>
次に、第4実施例について説明する。第4実施例でも、第3実施例と同様、図3の画像変化判定部32の画像変化検出処理に基づく安定化顔情報の生成手法を説明する。第4実施例も、上述の第1及び第2実施例と組み合わせて実施される。但し、第4実施例では、図3のエリア設定部31において上述の第4エリア設定法が採用された場合のみを想定する。
<< 4th Example >>
Next, a fourth embodiment will be described. In the fourth embodiment, as in the third embodiment, a method for generating stabilized face information based on the image change detection process of the image
第4エリア設定法を採用する場合も、概略分類処理は第3実施例におけるそれと同じである。概略分類処理において安定化対象画像が第4分類状態に分類された場合、詳細分類処理を実行する。第4エリア設定法の採用は、特に、第1と第3細分化状態の区別に関与する、オクルージョンの発生検知に有益である。オクルージョンの発生検知の原理を、図11(a)〜(c)を参照して説明する。 Even when the fourth area setting method is adopted, the rough classification process is the same as that in the third embodiment. When the stabilization target image is classified into the fourth classification state in the rough classification process, the detailed classification process is executed. The adoption of the fourth area setting method is particularly useful for detecting the occurrence of occlusion, which is involved in the distinction between the first and third subdivided states. The principle of detection of occurrence of occlusion will be described with reference to FIGS.
第(n−2)フレーム〜第nフレーム間において、入力画像内の顔の位置が静止している状態を想定する。この場合、第(n−2)〜第nフレーム画像の夫々に対して、同じ位置に中心視エリア220、第1周辺視エリア240及び第2周辺視エリア250が設定される。そして、第(n−2)フレーム〜第nフレーム間において、顔の右側から物体300が顔に向かって進入してきた場合を想定する。図11(a)、(b)及び(c)は、夫々、第(n−2)フレーム画像、第(n−1)フレーム画像及び第nフレーム画像内に設定された中心視エリア220、第1周辺視エリア240及び第2周辺視エリア250を、上記の物体300と共に示している。
It is assumed that the face position in the input image is stationary between the (n−2) th frame and the nth frame. In this case, the
第(n−2)フレーム画像において物体300は第2周辺視エリア250内に位置しているが、第(n−2)及び第(n−1)フレーム間において物体300が左方向に移動することにより、 第(n−1)フレーム画像において物体300が第1周辺視エリア240内に位置したものとする。そして、第(n−1)及び第nフレーム間において物体300が更に左方向に移動することにより、 第nフレーム画像において物体300が中心視エリア220内に位置したものとする。
The
この場合、第(n−2)及び第(n−1)フレーム画像間において、第1周辺視エリア240と第2周辺視エリア250の双方に画像変化が表れ、また、第(n−1)及び第nフレーム画像間において、第1周辺視エリア240と中心視エリア220の双方に画像変化が表れる。このような画像変化を検出することで、物体300による顔のオクルージョンの発生を検知することが可能である。
In this case, an image change appears in both the first
具体的には以下のようにして、詳細分類処理を実行する。図11(b)及び(c)に示すような物体300の移動があった場合は、中心視エリア及び周辺視エリアの双方に画像変化があると判断されて、安定化対象画像は第4分類状態に分類され、詳細分類処理が実行される。詳細分類処理では、まず、安定化対象画像が第2細分化状態に分類されるか否かを判断する。この判断は、第3実施例と同様にできる。
Specifically, the detailed classification process is executed as follows. When the
安定化対象画像が第2細分化状態に分類されない場合、第1と第3細分化状態を区別する。この区別に当たり、図3の画像変化判定部32は、第(n−1)及び第nフレーム画像間の画像変化だけでなく、第(n−2)及び第(n−1)フレーム画像間の画像変化をも参照する。故に、第4実施例では、図3の画像変化判定部32に対する画像変化検出用画像は、3つのフレーム画像(第(n−2)〜第nフレーム画像)を含むこととなる。
When the stabilization target image is not classified into the second subdivision state, the first and third subdivision states are distinguished. In this distinction, the image
画像変化判定部32は、第(n−2)及び第(n−1)フレーム画像間における中心視エリア220、第1周辺視エリア240及び第2周辺視エリア250内の各画像変化の有無を検出する。この検出結果は、第(n−1)フレーム画像を安定化対象画像とした時における画像変化検出処理において既に得られているため、それを利用することができる。そして、第(n−2)及び第(n−1)フレーム画像間において、第1周辺視エリア240と第2周辺視エリア250内にのみ画像変化があると判断される場合は、第nフレーム画像において顔のオクルージョンが発生していると判断して第nフレーム画像(安定化対象画像)を第3細分化状態に分類する一方、そうでない場合は、第nフレーム画像(安定化対象画像)を第1細分化状態に分類する。
The image
第1と第3細分化状態の区別は、動きベクトルに基づく画像変化の有無検出によっても、カメラ制御情報に基づく画像変化の有無検出によっても実行可能である。 The distinction between the first and third subdivided states can be performed either by detecting the presence / absence of an image change based on a motion vector or by detecting the presence / absence of an image change based on camera control information.
第1〜第3細分化状態の何れかへの分類が終了した後の処理は、第3実施例とほぼ同様である。即ち、図3の安定化顔情報生成部33は、第(n−1)フレーム画像の顔検出情報と第n及び第(n−1)フレーム画像間における中心視エリア及び周辺視エリアの動きベクトルに基づいて第nフレーム画像における顔の位置等を推定し、上述の推定顔位置を決定する。特に、安定化対象画像としての第nフレーム画像が第3細分化状態に分類された場合、推定顔位置を、第(n−1)フレーム画像の顔検出情報によって特定される顔の位置と同じとすればよい。第1又は第2細分化状態に分類された場合の推定処理は、第3実施例と同様である。
The processing after the classification into any of the first to third subdivided states is almost the same as in the third embodiment. That is, the stabilized face
そして、第nフレーム画像が第4分類状態に分類され且つ第nフレーム画像の顔検出情報がない場合は、上記の推定顔位置より、第nフレーム画像の安定化顔情報を生成する。つまり、上記の推定顔位置を、第nフレーム画像の安定化顔情報によって特定される顔の位置とする。また、第nフレーム画像の安定化顔情報によって特定される顔の大きさ等は、第(n−1)フレーム画像のそれと同じとされる。 If the nth frame image is classified into the fourth classification state and there is no face detection information of the nth frame image, stabilized face information of the nth frame image is generated from the estimated face position. That is, the estimated face position is set as the face position specified by the stabilized face information of the nth frame image. The size of the face specified by the stabilized face information of the nth frame image is the same as that of the (n−1) th frame image.
第nフレーム画像が第4分類状態に分類され且つ第nフレーム画像の顔検出情報がある場合は、上記の推定顔位置と第nフレーム画像の顔検出情報によって特定される顔の位置の何れかを、第nフレーム画像の安定化顔情報における顔の位置とする。基本的には、第(n−1)フレーム画像の安定化顔情報における顔の位置に近い方を、第nフレーム画像の安定化顔情報における顔の位置とする。これにより、検出顔位置のふらつきが抑制される。尚、第nフレーム画像の安定化顔情報によって特定される顔の大きさ等は、第nフレーム画像の顔検出情報に従えばよい。 When the nth frame image is classified into the fourth classification state and there is face detection information of the nth frame image, either of the estimated face position and the face position specified by the face detection information of the nth frame image Is the face position in the stabilized face information of the nth frame image. Basically, the face closer to the face position in the stabilized face information of the (n−1) th frame image is set as the face position in the stabilized face information of the nth frame image. Thereby, the fluctuation of the detected face position is suppressed. Note that the size of the face specified by the stabilized face information of the nth frame image may follow the face detection information of the nth frame image.
<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈6を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 6 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.
[注釈1]
図8に対応する第4エリア設定法では周辺視エリアを2段階に階層化しているが、周辺視エリアを3以上の段階で階層化してもよい。例えば、周辺視エリアを3段階に階層化すれば、4つのフレーム画像に基づくことによって、より高精度にオクルージョンの発生検知を行うことができる。
[Note 1]
In the fourth area setting method corresponding to FIG. 8, the peripheral vision area is hierarchized in two stages, but the peripheral vision area may be hierarchized in three or more stages. For example, if the peripheral vision area is hierarchized in three stages, it is possible to detect the occurrence of occlusion with higher accuracy based on four frame images.
[注釈2]
図3のエリア設定部31は、エリア設定用画像についての顔検出情報に基づいて画像変化を監視するべき中心視エリア及び周辺視エリアを設定する。この際、上述の例では、安定化対象画像が第nフレーム画像である場合、エリア設定用画像を第(n−1)フレーム画像とした。
[Note 2]
The
第nフレーム画像を基準として顔領域及び顔領域周辺の画像変化を監視したいのであるから、なるだけ近い過去のフレーム画像の顔検出情報を用いて上記エリアを設定した方が望ましい(遠い過去のフレーム画像における顔位置等は、第nフレーム画像におけるそれとかけ離れている可能性が高いため)。故に、第(n−1)フレーム画像をエリア設定用画像として取り扱うのが望ましいのであるが、それよりも過去のフレーム画像(例えば、第(n−2)フレーム画像)をエリア設定用画像とすることも可能ではある。 Since we want to monitor the face area and image changes around the face area based on the nth frame image, it is desirable to set the above area using face detection information of the past frame image as close as possible (distant past frames The face position in the image is likely to be far from that in the nth frame image). Therefore, it is desirable to handle the (n−1) th frame image as the area setting image, but a past frame image (for example, the (n−2) th frame image) is used as the area setting image. It is also possible.
仮に、エリア設定用画像を第(n−2)フレーム画像とした場合、第(n−2)フレーム画像の顔検出情報に基づいて、第nフレーム画像に対する中心視エリア及び周辺視エリアが設定される。 If the area setting image is the (n-2) th frame image, the central viewing area and the peripheral viewing area for the nth frame image are set based on the face detection information of the (n-2) th frame image. The
[注釈3]
図3の安定化顔情報生成部33は、画像変化判定部32による画像変化検出処理の結果と、参照過去画像及び安定化対象画像についての顔検出情報とに基づいて、安定化対象画像についての安定化顔情報を生成する。この際、上述の例では、安定化対象画像が第nフレーム画像である場合、参照過去画像を第(n−1)フレーム画像とした。
[Note 3]
The stabilization face
参照過去画像は、安定化対象画像における顔の位置の推定等に用いられるため、なるだけ近い過去のフレーム画像とすべきである。故に、第(n−1)フレーム画像を参照過去画像として取り扱うのが望ましいのであるが、それよりも過去のフレーム画像(例えば、第(n−2)フレーム画像)を参照過去画像とすることも可能ではある。 Since the reference past image is used to estimate the position of the face in the stabilization target image, it should be a past frame image as close as possible. Therefore, it is desirable to treat the (n-1) th frame image as the reference past image, but a past frame image (for example, the (n-2) th frame image) may be used as the reference past image. It is possible.
例えば、参照過去画像を第(n−2)フレーム画像とした場合でも、安定化対象画像としての第nフレーム画像が第1〜第3分類状態に分類され且つ第nフレーム画像の顔検出情報がない時は、第(n−2)フレーム画像の顔検出情報そのものを第nフレーム画像の安定化顔情報とするといった処理を行うことができ、これによって顔検出の途切れ等を有効に抑制できる。 For example, even when the reference past image is the (n-2) th frame image, the nth frame image as the stabilization target image is classified into the first to third classification states, and the face detection information of the nth frame image is When there is not, it is possible to perform processing such that the face detection information itself of the (n−2) th frame image is used as the stabilized face information of the nth frame image, thereby effectively preventing the face detection from being interrupted.
尚、注釈2と本注釈(注釈3)から分かるように、同一の安定化対象画像に対するエリア設定用画像と参照過去画像は、互いに異なりうる。
As can be seen from the
[注釈4]
上述の実施形態では、中心視エリアと周辺視エリアの双方における画像変化を考慮して顔位置を最終的に検出するようにしているが、周辺視エリアの画像変化のみを考慮するだけでも顔検出の安定化に寄与する。例えば、第(n−1)フレーム画像の顔検出情報があり且つ安定化対象画像としての第nフレーム画像の顔検出情報がない場合において、第(n−1)及び第nフレーム画像間における周辺視エリア(図5(a)の周辺視エリア230等)の画像変化がないと判断される時は顔の位置に変化がないと推定されるため、第(n−1)フレーム画像の顔検出情報そのものを第nフレーム画像の安定化顔情報とするといった処理を行うことができる。これによって顔検出の途切れ等を有効に抑制できる。
[Note 4]
In the above-described embodiment, the face position is finally detected in consideration of the image change in both the central vision area and the peripheral vision area, but the face detection is performed only by considering only the image change in the peripheral vision area. Contributes to the stabilization of For example, when there is face detection information of the (n-1) th frame image and no face detection information of the nth frame image as the stabilization target image, the periphery between the (n-1) th and nth frame images When it is determined that there is no image change in the viewing area (such as the
[注釈5]
上述の実施形態では、撮像装置1内に物体検出装置としての顔検出部18を設け、入力画像内から検出する対象物(特定種類の物体)を人間の顔としているが、本発明はこれに限定されない。即ち、顔以外を入力画像内から検出すべき対象物として取り扱うことも可能である。例えば、入力画像内から検出すべき対象物を車両とすれば、本発明を駐車場管理システム等に適用することも可能である。顔以外の対象物の検出も公知の手法(パターンマッチング等)を用いることによって実現可能である。
[Note 5]
In the above-described embodiment, the
[注釈6]
図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図2及び図3に示される各部位の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。
[Note 6]
The
また、顔検出部18にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
Further, all or part of the functions realized by the
1 撮像装置
18 顔検出部
21 顔検出処理部
22 顔検出安定化処理部
31 エリア設定部
32 画像変化判定部
33 安定化顔情報生成部
DESCRIPTION OF
Claims (9)
前記動画像内における前記物体の周辺の画像変化をも考慮して、前記物体の位置を検出する
ことを特徴とする物体検出装置。 In an object detection apparatus for detecting the position of a specific type of object in a moving image based on the moving image,
An object detection apparatus for detecting a position of the object in consideration of an image change around the object in the moving image.
前記動画像内における前記物体の位置を暫定的に検出する第1検出手段と、
前記第1検出手段の検出結果と、前記物体を含む基準エリア内及び前記基準エリアの周辺に位置する周辺エリア内の画像変化と、に基づいて前記動画像内における前記物体の位置を最終的に検出する第2検出手段と、を備えた
ことを特徴とする物体検出装置。 In an object detection apparatus for detecting the position of a specific type of object in a moving image based on the moving image,
First detection means for tentatively detecting the position of the object in the moving image;
The position of the object in the moving image is finally determined based on the detection result of the first detection means and the image change in the reference area including the object and in the peripheral area located around the reference area. An object detection apparatus comprising: a second detection means for detecting.
前記第1検出手段は、各入力画像内における前記物体の位置を暫定的に検出し、
前記第2検出手段は、
前記第1検出手段によって検出された過去の入力画像についての前記物体の位置に基づいて現在の入力画像に対する前記基準エリア及び前記周辺エリアを設定するエリア設定手段と、
現在の入力画像に対して設定された前記基準エリア及び前記周辺エリアを現在と過去の入力画像に対して定義し、現在と過去の入力画像間における前記基準エリア及び前記周辺エリア内の画像変化を、現在の入力画像についての画像変化として検出する画像変化検出手段と、を備え、
過去及び現在の入力画像に対する前記第1検出手段の検出結果と、前記画像変化検出手段によって検出された、現在の入力画像についての前記画像変化と、に基づいて現在の入力画像内における前記物体の位置を最終的に検出する
ことを特徴とする請求項2に記載の物体検出装置。 The moving image is formed from a plurality of input images arranged in time series,
The first detection means tentatively detects the position of the object in each input image,
The second detection means includes
Area setting means for setting the reference area and the peripheral area for the current input image based on the position of the object with respect to the past input image detected by the first detection means;
The reference area and the peripheral area set for the current input image are defined for the current and past input images, and image changes in the reference area and the peripheral area between the current and past input images are defined. Image change detecting means for detecting as an image change for the current input image,
Based on the detection result of the first detection means for the past and current input images and the image change for the current input image detected by the image change detection means, the object in the current input image The object detection apparatus according to claim 2, wherein the position is finally detected.
前記画像変化検出手段は、前記周辺エリアの一部エリアを除外した上で、前記周辺エリアについての前記画像変化を検出する
ことを特徴とする請求項2に記載の物体検出装置。 The peripheral area is set so as to surround the entire circumference of the reference area,
The object detection apparatus according to claim 2, wherein the image change detection unit detects the image change for the peripheral area after excluding a part of the peripheral area.
ことを特徴とする請求項2に記載の物体検出装置。 The object detection apparatus according to claim 2, wherein the peripheral area is set so as to surround a part of the entire circumference of the reference area.
前記第2検出手段は、前記第1検出手段の検出結果と、前記基準エリア並びに第1及び第2周辺エリア内の画像変化と、に基づいて前記物体の位置を最終的に検出する
ことを特徴とする請求項2に記載の物体検出装置。 The peripheral area is hierarchized to include a first peripheral area that is relatively close to the reference area and a second peripheral area that is relatively far from the reference area,
The second detection means finally detects the position of the object based on a detection result of the first detection means and image changes in the reference area and the first and second peripheral areas. The object detection device according to claim 2.
ことを特徴とする請求項1〜請求項6の何れかに記載の物体検出装置。 The object detection apparatus according to claim 1, wherein the specific type of object is a human face.
前記撮像手段によって得られた前記動画像を受ける、請求項1〜請求項7の何れかに記載の物体検出装置と、を備えた
ことを特徴とする撮像装置。 Imaging means for acquiring a moving image according to the subject;
An imaging apparatus comprising: the object detection apparatus according to claim 1 that receives the moving image obtained by the imaging means.
前記動画像内における前記物体の周辺の画像変化をも考慮して、前記物体の位置を検出する
ことを特徴とする物体検出方法。 In an object detection method for detecting a position of a specific type of object in a moving image based on the moving image,
An object detection method for detecting a position of the object in consideration of an image change around the object in the moving image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007176214A JP2009017194A (en) | 2007-07-04 | 2007-07-04 | Object detecting device and method therefor, and imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007176214A JP2009017194A (en) | 2007-07-04 | 2007-07-04 | Object detecting device and method therefor, and imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009017194A true JP2009017194A (en) | 2009-01-22 |
Family
ID=40357539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007176214A Pending JP2009017194A (en) | 2007-07-04 | 2007-07-04 | Object detecting device and method therefor, and imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009017194A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011211327A (en) * | 2010-03-29 | 2011-10-20 | Fujifilm Corp | White balance stabilization adjusting device, method of controlling the same, and program for white balance stabilization adjustment |
US20110267489A1 (en) * | 2010-04-30 | 2011-11-03 | Canon Kabushiki Kaisha | Image processing apparatus configured to detect object included in image and method therefor |
JPWO2021192007A1 (en) * | 2020-03-24 | 2021-09-30 |
-
2007
- 2007-07-04 JP JP2007176214A patent/JP2009017194A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011211327A (en) * | 2010-03-29 | 2011-10-20 | Fujifilm Corp | White balance stabilization adjusting device, method of controlling the same, and program for white balance stabilization adjustment |
US20110267489A1 (en) * | 2010-04-30 | 2011-11-03 | Canon Kabushiki Kaisha | Image processing apparatus configured to detect object included in image and method therefor |
US9001219B2 (en) | 2010-04-30 | 2015-04-07 | Canon Kabushiki Kaisha | Image processing apparatus configured to detect object included in image and method therefor |
JPWO2021192007A1 (en) * | 2020-03-24 | 2021-09-30 | ||
WO2021192007A1 (en) * | 2020-03-24 | 2021-09-30 | 三菱電機株式会社 | Face detection device |
JP7345632B2 (en) | 2020-03-24 | 2023-09-15 | 三菱電機株式会社 | face detection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10979614B2 (en) | Control apparatus, method of controlling imaging device, and non-transitory computer-readable storage medium that control an imaging device for tracking a tracking target | |
JP4201809B2 (en) | Camera shake correction apparatus and method, and imaging apparatus | |
JP4912117B2 (en) | Imaging device with tracking function | |
US8531557B2 (en) | Method, apparatus and system for performing a zoom operation | |
JP2009031760A (en) | Imaging apparatus and automatic focus control method | |
US20120147150A1 (en) | Electronic equipment | |
US20090009651A1 (en) | Imaging Apparatus And Automatic Focus Control Method | |
JP2010021943A (en) | Imaging apparatus | |
JP2008129554A (en) | Imaging device and automatic focusing control method | |
US20190230269A1 (en) | Monitoring camera, method of controlling monitoring camera, and non-transitory computer-readable storage medium | |
US20170150054A1 (en) | Image pickup apparatus for detecting moving amount of main subject or background, method for controlling image pickup apparatus, and storage medium | |
JP2016085487A (en) | Information processing device, information processing method and computer program | |
US10931882B2 (en) | Imaging device, control method of imaging device, and storage medium, with controlling of exposure levels of plurality of imaging units | |
US20160084932A1 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
JP2009017194A (en) | Object detecting device and method therefor, and imaging apparatus | |
JP5703788B2 (en) | Imaging apparatus, image processing apparatus, and image processing program | |
JP2009157130A (en) | Electronic camera | |
US10880457B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP6145822B2 (en) | Imaging device | |
US20160080661A1 (en) | Image generation device, imaging device, image generation method, and program | |
JP2008211534A (en) | Face detecting device | |
JP4799367B2 (en) | Image reproducing apparatus and method, and imaging apparatus | |
JP2007156606A (en) | Image display device and program | |
JP6016546B2 (en) | Imaging device, control method thereof, and control program | |
JP6460510B2 (en) | Image processing apparatus, image processing method, and program |