JP2010283609A - Imaging apparatus, face detection processing method, program and recording medium - Google Patents
Imaging apparatus, face detection processing method, program and recording medium Download PDFInfo
- Publication number
- JP2010283609A JP2010283609A JP2009135348A JP2009135348A JP2010283609A JP 2010283609 A JP2010283609 A JP 2010283609A JP 2009135348 A JP2009135348 A JP 2009135348A JP 2009135348 A JP2009135348 A JP 2009135348A JP 2010283609 A JP2010283609 A JP 2010283609A
- Authority
- JP
- Japan
- Prior art keywords
- face
- face detection
- change
- angle
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
Description
本発明は、撮像装置、顔検出処理方法、プログラム及び記録媒体に関し、特に、デジタルカメラやデジタルビデオカメラ等の撮像装置における顔検出処理に好ましく適用される技術に関するものである。 The present invention relates to an imaging apparatus, a face detection processing method, a program, and a recording medium, and more particularly to a technique that is preferably applied to face detection processing in an imaging apparatus such as a digital camera or a digital video camera.
近年、デジタルカメラ等の撮像装置において、撮影画像中から人物の顔を検出し、検出した顔領域にフォーカスや露出等が合うように制御される機能や、検出された顔があらかじめ登録されている顔であるかどうかを認証する機能が実現されている。しかしながら、これらの機能を実現しようとした場合には、処理に時間がかかってしまい、検出中にカメラ自体を動かすか、被写体が動いてしまうと、顔の検出枠が実際の顔の位置と異なる場所に表示されたり、顔の追従にタイムラグが生じてしまったりすることがある。 In recent years, in an imaging device such as a digital camera, a function of detecting a person's face from a captured image and controlling the detected face area to be in focus, exposure, or the like, and the detected face are registered in advance. A function to authenticate whether or not the face is present is realized. However, when trying to realize these functions, the processing takes time, and if the camera itself is moved during detection or the subject moves, the face detection frame differs from the actual face position. It may be displayed at a place or there may be a time lag in following the face.
例えば特許文献1では、角速度センサによって得られたカメラのパン/ティルト量の変化に基づいて顔を検出したフレーム画像からの顔位置動き量を予測し、検出された位置を基準として顔検出枠を表示する位置を補正することにより、顔の検出枠が現在のモニタリング画像の顔の位置とずれてしまうことを防止している。
For example, in
しかしながら、特許文献1による方法では、カメラのパン/ティルト量の変化からの顔位置動き量の予測が実際の動き量とずれてしまった場合に、顔検出枠表示が実際の顔の位置とずれてしまうことになる。
However, in the method according to
そこで、本発明は、撮像装置において、顔検出処理で発生する顔表示枠のずれを防止するとともに、無駄な処理を減らして検出を高速化することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to prevent a face display frame from being shifted in a face detection process in an image pickup apparatus, and to reduce useless processing to speed up detection.
本発明の一側面である撮像装置は、撮影された被写体の画像データを入力するための撮像手段と、画像データの画角が変化したことを検出する画角変化検出手段と、撮像手段で得られた画像データを用いて、撮影画像から人物の顔を検出する顔検出手段と、を有し、顔検出手段は、顔検出の演算処理中に、画角変化検出手段により画角変化が検出された場合、該演算処理を一度停止し、新規に画像を取得して前記顔検出の演算処理を行う。 An imaging apparatus according to one aspect of the present invention is obtained by an imaging unit for inputting image data of a photographed subject, an angle-of-view change detecting unit for detecting that the angle of view of the image data has changed, and an imaging unit. Face detection means for detecting a person's face from the captured image using the obtained image data. The face detection means detects a change in the view angle by the view angle change detection means during the face detection calculation process. If so, the calculation process is once stopped, a new image is acquired, and the face detection calculation process is performed.
本発明の一側面である顔検出処理方法は、撮影された被写体の画像データを取得する撮像ステップと、画像データの画角が変化したことを検出する画角変化検出ステップと、撮像ステップで得られた画像データを用いて、撮影画像から人物の顔を検出する顔検出ステップと、を有し、顔検出ステップは、顔検出の演算処理中に、画角変化検出ステップにより画角変化が検出された場合、該演算処理を一度停止し、新規に画像を取得して前記顔検出の演算処理を行う。 The face detection processing method according to one aspect of the present invention is obtained by an imaging step of acquiring image data of a photographed subject, an angle-of-view change detecting step of detecting a change in the angle of view of the image data, and an imaging step. A face detection step for detecting a human face from the photographed image using the captured image data. The face detection step detects a change in the angle of view during the face detection calculation process. If so, the calculation process is once stopped, a new image is acquired, and the face detection calculation process is performed.
本発明の一側面であるプログラムは、撮影された被写体の画像データを入力するための撮像手段を有する撮像装置のコンピュータに、画像データの画角が変化したことを検出する画角変化検出機能と、撮像手段で得られた画像データを用いて、撮影画像から人物の顔を検出する顔検出機能と、を実現させ、顔検出機能は、顔検出の演算処理中に、画角変化検出機能により画角変化が検出された場合、該演算処理を一度停止し、新規に画像を取得して前記顔検出の演算処理を行う。 A program according to one aspect of the present invention includes a field angle change detection function for detecting that a field angle of image data has changed in a computer of an imaging apparatus having an imaging unit for inputting image data of a photographed subject. And a face detection function for detecting a person's face from the captured image using the image data obtained by the imaging means, and the face detection function is performed by a field angle change detection function during the face detection calculation process. When a change in the angle of view is detected, the calculation process is stopped once, a new image is acquired, and the face detection calculation process is performed.
本発明の一側面である記録媒体は、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体である。 A recording medium according to one aspect of the present invention is a computer-readable recording medium on which the above program is recorded.
本発明によれば、撮像装置において、顔検出処理で発生する顔表示枠のずれを防止するとともに、無駄な処理を減らして検出を高速化することが可能となる。 According to the present invention, in the imaging apparatus, it is possible to prevent the face display frame from being shifted in the face detection process and reduce the useless process to speed up the detection.
以下、図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は本実施形態に係わるデジタルスチルカメラの外観図、図2はデジタルスチルカメラ内部のシステム概要図である。最初にデジタルスチルカメラの動作概要を説明する。 FIG. 1 is an external view of a digital still camera according to the present embodiment, and FIG. 2 is a system schematic diagram inside the digital still camera. First, an outline of the operation of the digital still camera will be described.
図1の撮影/再生切り替えのモードダイアル3を撮影モードに設定し、電源釦1を押すことで、カメラが記録モードで起動する。モードダイアル3および電源釦1は、図2における操作部60に含まれており、モードダイアル3の状態が撮影モードの状態で電源釦1がONになったことをCPU43が検知すると、CPU43はモータドライバ20を制御して、ズーム/AFレンズ11、絞りとカラーフィルタ12、メカシャッタ13からなる鏡胴ユニットを撮影可能位置に移動させる。さらに撮像センサ30、LCDディスプレイ等の各部に電源を投入して動作を開始させる。
When the shooting / playback switching mode dial 3 in FIG. 1 is set to the shooting mode and the
各部の電源が投入されると、ファインダモードの動作が開始される。ファインダモードでは、レンズを通して撮像センサ(CCD、CMOS)30に入射した光は、電気に変換されてA/D変換器32に送られる。A/D変換器32では、入力されたアナログ信号を12bitのデジタルデータに変換する。デジタル信号に変換されたそれぞれの信号は、デジタル信号処理IC40内のセンサI/F部41に取り込まれ、YUV変換部44で表示可能な形式であるYUV信号に変換されて、メモリコントローラ42によってフレームメモリとしてのSDRAM50に書き込まれる。このYUV信号はメモリコントローラ42に読み出されて、表示出力制御部46を介してTVやLCDモニタへ送られて表示が行われる。この処理が1/30秒間隔で行われ、1/30秒ごとに更新されるファインダモードの表示となる。
When the power of each part is turned on, the operation in the finder mode is started. In the finder mode, light incident on the image sensor (CCD, CMOS) 30 through the lens is converted into electricity and sent to the A / D converter 32. The A / D converter 32 converts the input analog signal into 12-bit digital data. Each signal converted into a digital signal is taken into the sensor I / F unit 41 in the digital signal processing IC 40, converted into a YUV signal in a format that can be displayed by the
撮像センサ30は800万画素のセンサである。静止画撮影時は全画素を1/30秒ごとに出力することができる。ファインダモード時は周辺画素を加算と間引きを組み合わせて、1/30秒ごと例えば640×480画素に画素数を減らして出力を行う。 The imaging sensor 30 is an 8 million pixel sensor. During still image shooting, all pixels can be output every 1/30 seconds. In the finder mode, output is performed by reducing the number of pixels to 640 × 480 pixels every 1/30 seconds by combining peripheral pixels with addition and thinning.
デジタル信号処理IC40のセンサI/F41は、ブロック内に取り込まれたデジタルRGB信号より、画面の合焦度合いを示すAF評価値と、被写体輝度を検出したAE評価値と、被写体色を検出したAWB評価値が算出する。それらデータは、特徴データとしてCPU43に読み出されて、AE(Automatic Exposure)、AF(Auto Focus)、AWB(Auto White Balance)のそれぞれの処理に利用される。
The sensor I / F 41 of the digital signal processing IC 40 detects an AF evaluation value indicating the degree of focus on the screen, an AE evaluation value that detects the subject brightness, and an AWB that detects the subject color from the digital RGB signal captured in the block. An evaluation value is calculated. These data are read out as feature data to the
AF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって作成される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AFによる合焦検出動作時は、それぞれのフォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦位置としてAFを実行する。 The AF evaluation value is created by, for example, an output integrated value of a high frequency component extraction filter or an integrated value of a luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. By utilizing this, at the time of the focus detection operation by AF, the AF evaluation value at each focus lens position is acquired, and AF is executed with the point where the maximum is obtained as the focus position.
AE評価値とAWB評価値は、RGBのそれぞれの積分値から作成される。例えば画面を256エリアに等分割(水平16分割、垂直16分割)し、それぞれのエリアのRGB積算を算出する。CPU43はRGB積分値を読み出し、AEでは、それぞれのエリアの輝度を算出して、輝度分布から適正な露光時間を決定する。AWBでは、RGBの分布から光源の色に合わせたAWBの制御値を決定する。このAEとAWBの処理は、ファインダモード中は連続的に行われている。
The AE evaluation value and the AWB evaluation value are created from the respective RGB integration values. For example, the screen is equally divided into 256 areas (16 horizontal divisions and 16 vertical divisions), and the RGB integration of each area is calculated. The
図1のレリーズシャッタ釦2が操作されると、合焦位置検出であるAF動作と静止画記録処理が行われる。レリーズシャッタ釦2が押されると、図2の操作部20から静止画撮影開始信号がCPU43に取り込まれると、CPU43がフレームレートに同期してモータドライバ20を介してレンズを駆動することにより山登りAFを実行する。AF対象範囲が無限から至近までの全領域であった場合、フォーカスレンズは至近から無限、または無限から至近までの間の各フォーカス位置移動し、デジタル信号処理IC40で作成された各フレーム(=各フォーカス位置)におけるAF評価値をCPU43が読み出す。各フォーカス位置のAF評価値が極大になる点を合焦位置として、フォーカスレンズを合焦位置に移動する。
When the release shutter button 2 in FIG. 1 is operated, an AF operation that is a focus position detection and a still image recording process are performed. When the release shutter button 2 is pressed, when a still image shooting start signal is fetched into the
AF完了後に撮像センサ30から出力されたデジタルRGB信号に変換され、デジタル信号処理IC40を介してSDRAM50に格納される。デジタルRGB信号は再度デジタル信号処理IC40に読み込まれ、YUV変換部44でYUVデータに変換されて、SDRAM50に書き戻される。
It is converted into a digital RGB signal output from the image sensor 30 after the AF is completed, and stored in the SDRAM 50 via the digital signal processing IC 40. The digital RGB signal is read again into the digital signal processing IC 40, converted into YUV data by the
スチル画像撮像時は、YUV変換された画像データがデジタル信号処理IC40内の圧縮伸張回路45に送られる。圧縮伸張回路45に送られたYUVデータは圧縮され、SDRAM50に書き戻される。SDRAM50の圧縮データはデジタル信号処理IC40を介して読み出され、データ記憶メモリに格納される。
At the time of capturing a still image, YUV converted image data is sent to the compression / decompression circuit 45 in the digital signal processing IC 40. The YUV data sent to the compression / decompression circuit 45 is compressed and written back to the
加速度センサ90はPCB上に実装され、2軸X、Yと温度Tのデータを出力する。そのデータからカメラのロール角、ピッチ角等の傾きを演算し、LCDモニタ等に表示する。加速度センサの水平に対するロール角θは以下の式で表される。
θ[deg]=(180/π)*arctan(Y0−G0/X0−G0)
G0は重力ゼロ時の出力である。
カメラが図1下段の姿勢のときに、カメラのロール角θが0度であるとし、LCDモニタが時計回り方向に傾いた場合に正の傾き、反時計回りに傾いた場合に負の傾きであるとする。
The acceleration sensor 90 is mounted on the PCB and outputs data of two axes X and Y and temperature T. The tilt of the camera roll angle, pitch angle, etc. is calculated from the data and displayed on an LCD monitor or the like. The roll angle θ with respect to the horizontal of the acceleration sensor is expressed by the following equation.
θ [deg] = (180 / π) * arctan (Y0−G0 / X0−G0)
G0 is an output at the time of zero gravity.
When the camera is in the lower position in FIG. 1, the roll angle θ of the camera is assumed to be 0 degree, and when the LCD monitor is tilted clockwise, the tilt is positive, and when the camera is tilted counterclockwise, the tilt is negative. Suppose there is.
続いて、顔検出の方法について説明する。被写体像の中から人物像を検出する方法は、多くの手法が公知となっており、本実施形態では、例えば以下の参考文献に示された方法を用いるものとする。以下参考文献では、AdaBoost学習により多数の弱識別器をカスケード型に線形結合したものを識別器として作成し、識別器に基づいてHaar−Like特徴量を計算して顔を検出する方法が記載されている。 Next, a face detection method will be described. Many methods are known for detecting a human image from a subject image. In this embodiment, for example, the method shown in the following reference is used. The following reference describes a method for detecting a face by calculating a Haar-Like feature value based on a classifier by creating a cascade combination of a number of weak classifiers in cascade by AdaBoost learning. ing.
(参考文献)
P.Viola and M.Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, Proc. IEEE International Conference on Computer Vision and Pattern Recgnition, vol.1, pp.511−518, 2001
(References)
P. Viola and M.M. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, Proc. IEEE International Conference on Computer Vision and Pattern Rec., Vol. 1, pp. 511-518, 2001
以下、本実施形態では、上記方法における弱識別器を特徴データ、弱識別器をカスケード型に線形結合した識別器を特徴データ群として記述する。なお、前サイクルの顔検出結果に基づいた顔追尾の方法については、前サイクルの顔検出で検出された顔の周りの小範囲に限定して上記顔検出処理を実施することで追尾を実現するものとする。 Hereinafter, in this embodiment, a weak classifier in the above method is described as feature data, and a classifier obtained by linearly combining weak classifiers in a cascade form is described as a feature data group. As for the face tracking method based on the face detection result of the previous cycle, tracking is realized by performing the face detection process limited to a small range around the face detected by the face detection of the previous cycle. Shall.
[第1の実施形態]
次に、本発明の特徴となる動作である顔検出処理について、3つの実施形態に分けて説明する。図3は、第1の実施形態に相当する顔検出処理で、撮像光学系によって撮像された画像に対し、顔検出処理を実施して画像の中から人物の顔を検出する顔検出処理のフローである。
[First Embodiment]
Next, face detection processing, which is an operation that characterizes the present invention, will be described in three embodiments. FIG. 3 is a face detection process corresponding to the first embodiment. The face detection process is a flow of detecting a person's face from the image by performing the face detection process on the image captured by the imaging optical system. It is.
カメラの動作モードが顔検出処理を実施するモードであるとき、顔検出モジュールは、モニタリング画像の中からあるタイミングで一枚の画像をコピーする(ステップS101)。CPU43は、コピーした画像に対して顔検出処理を実施し、画像内に人物の顔があるか否かを判断する。顔検出処理は、あらかじめメモリ内に保持している人物の顔の特徴データと画像内の対称矩形との類似度を算出していくが、本実施形態ではメモリ内の特徴データは複数階層に分かれて保持されており、階層ごとに特徴データの類似度算出をしていくものとする。
When the camera operation mode is a mode for performing face detection processing, the face detection module copies one image from the monitoring image at a certain timing (step S101). The
ここで、特徴データとは、例えば図5に示すような対象矩形の中の2つまたは3つの小矩形において、各小矩形の平均輝度値の加重和が閾値以上であるときに類似度がいくつであるか、というデータである。本実施例では各小矩形の平均輝度値の加重和を特徴評価値と呼ぶ。浅い階層における特徴データは、対象矩形が顔であるかどうかを比較的大まかに判断するものであり、例えば図5(a)に示すような、対象矩形内の小矩形が大きいものが保持されており、特徴データの数も少ない。階層が深くなるほど顔の細かい特徴を判断するように、図5(b)、図5(c)のような小矩形の小さいものが多くなり、階層内の特徴データの数も多くなっていく。各階層での類似度は、階層内の各特徴データにおける特徴評価値を求めることにより算出していく。特徴評価値が閾値を超える特徴データが多いほど類似度は高くなる。階層iでの特徴データjの特徴評価値をEvj、Evjが閾値Thj以上であるときに類似度がsimjであるとすると、階層iの類似度Simiは以下の式で算出される。 Here, for example, in the feature data, in two or three small rectangles in the target rectangle as shown in FIG. 5, when the weighted sum of the average luminance values of the small rectangles is equal to or greater than a threshold value, It is data that it is. In this embodiment, the weighted sum of the average luminance values of each small rectangle is called a feature evaluation value. The feature data in the shallow hierarchy is a relatively rough judgment as to whether or not the target rectangle is a face. For example, as shown in FIG. 5A, a large small rectangle in the target rectangle is retained. The number of feature data is also small. The deeper the hierarchy, the smaller the small rectangles as shown in FIGS. 5 (b) and 5 (c), so that the fine features of the face are judged, and the number of feature data in the hierarchy also increases. The similarity in each hierarchy is calculated by obtaining a feature evaluation value in each feature data in the hierarchy. The more the feature data whose feature evaluation value exceeds the threshold value, the higher the similarity. If the feature evaluation value of the feature data j in the hierarchy i is Evj, and the similarity is simj when Evj is equal to or greater than the threshold Thj, the similarity Sim of the hierarchy i is calculated by the following equation.
まず、画像の中から最初の対象矩形を決定する(ステップS102)。ここでは画像の左上の端とする。本実施形態では、図4に示すように、画像の左上の端から右下の端まで順に対象矩形領域を少しずつずらしながらスキャンしていくものとする。 First, the first target rectangle is determined from the image (step S102). Here, it is the upper left edge of the image. In the present embodiment, as shown in FIG. 4, scanning is performed while gradually shifting the target rectangular area in order from the upper left end to the lower right end of the image.
最初は階層L=1とし(ステップS103)、第1階層の特徴データと対象矩形の類似度を算出する(ステップS104)。ここで、類似度が所定の閾値以上であれば、対象矩形はその階層の特徴データとマッチしたものとする。特徴データとマッチし(ステップS105/YES)かつその階層が最終階層であれば(ステップS106/YES)、その矩形領域は顔であると判断して矩形領域の情報をメモリに登録する(ステップS108)。階層が最終階層でなければ(ステップS106/NO)、階層Lを1インクリメントして(ステップS107)、次の階層の特徴データとの類似度を算出する(ステップS104)。また、ここでその階層内の特徴データとマッチしなければ(ステップS105/NO)、その時点で対象矩形領域は顔でないと判断される。 First, the hierarchy L = 1 is set (step S103), and the similarity between the feature data of the first hierarchy and the target rectangle is calculated (step S104). Here, if the similarity is greater than or equal to a predetermined threshold, the target rectangle is assumed to match the feature data of that hierarchy. If it matches the feature data (step S105 / YES) and the hierarchy is the last hierarchy (step S106 / YES), it is determined that the rectangular area is a face, and information on the rectangular area is registered in the memory (step S108). ). If the hierarchy is not the final hierarchy (step S106 / NO), the hierarchy L is incremented by 1 (step S107), and the similarity with the feature data of the next hierarchy is calculated (step S104). If the feature data in the hierarchy is not matched (step S105 / NO), it is determined that the target rectangular area is not a face at that time.
ここで、カメラに動きがあったかどうかを判定する(ステップS109)。カメラの動き判定は、加速度センサ90の出力値変化に基づいて判定する。加速度センサ90の出力値を所定の間隔(ここでは100ms間隔とする)でメモリに保存しておき、動き判定の際に前回動き判定時のセンサ出力との差分をチェックする。センサ出力の差分が、所定の閾値(角度)を超えた場合にカメラに動きがあったと判定する。このとき、判定に用いる所定の閾値とは、レンズのズーム位置に応じて異なるものとする。ズーム位置が広角よりのときは角度変化に対するモニタリング画角変化が比較的小さいため、閾値は大きいものとし、ズーム位置が望遠よりの時は画角変化に対するモニタリング画角変化が比較的大きいため、逆に閾値は小さいものとする。カメラに動きがあったと判定された場合(ステップS109/YES)には、現在処理中のモニタリング画像とは顔の位置が変わっている可能性が高いので、現在の検出結果をクリアし(ステップS110)、顔検出用のモニタリング画像を再取得し、検出動作を最初からやり直す。 Here, it is determined whether or not the camera has moved (step S109). The camera movement is determined based on a change in the output value of the acceleration sensor 90. The output value of the acceleration sensor 90 is stored in a memory at a predetermined interval (here, 100 ms interval), and the difference from the sensor output at the previous motion determination is checked at the time of motion determination. When the sensor output difference exceeds a predetermined threshold (angle), it is determined that the camera has moved. At this time, the predetermined threshold used for the determination is different depending on the zoom position of the lens. When the zoom position is a wide angle, the change in the monitoring angle of view with respect to the angle change is relatively small. Therefore, the threshold is set to be large. It is assumed that the threshold is small. If it is determined that the camera has moved (step S109 / YES), there is a high possibility that the position of the face has changed from the currently processed monitoring image, so the current detection result is cleared (step S110). ) Re-acquire the face detection monitoring image and repeat the detection operation from the beginning.
カメラに動きがないと判定された場合(ステップS109/NO)には、そのまま顔検出処理を続行する。対象矩形領域が顔であるか否か判断されたら、画像内の顔検出対象領域全体をスキャンしたかどうかを確認する(ステップS111)。ここでまだスキャンする領域が残っていれば(ステップS111/NO)、所定のステップ幅、例えばスキャンしている矩形領域の10%に相当する画素だけ前回対象矩形領域よりずらして次の矩形領域を決定する(ステップS112)。 If it is determined that there is no motion in the camera (step S109 / NO), the face detection process is continued as it is. If it is determined whether or not the target rectangular area is a face, it is confirmed whether or not the entire face detection target area in the image has been scanned (step S111). If the area to be scanned still remains (step S111 / NO), the next rectangular area is shifted from the previous target rectangular area by a predetermined step width, for example, a pixel corresponding to 10% of the rectangular area being scanned. Determine (step S112).
ある対象矩形領域について顔であるか否かの判断がなされたとき、もし顔検出対象領域全体をスキャンし終えていれば(ステップS111/YES)、当該画像に対する顔検出処理は終了とし、顔検出モードが継続される場合はモニタリングデータから新たに画像をコピーし、その画像に対して同様に顔検出処理を実施する(ステップS113/YES)。顔検出モードを継続しない場合(ステップS113/NO)にはここで処理を終了する。 When it is determined whether or not a certain target rectangular area is a face, if the entire face detection target area has been scanned (YES in step S111), the face detection processing for the image ends, and face detection is performed. When the mode is continued, a new image is copied from the monitoring data, and face detection processing is similarly performed on the image (step S113 / YES). If the face detection mode is not continued (step S113 / NO), the process ends here.
[第2の実施形態]
図6に、第2の実施形態に相当する顔検出処理のフローを示す。カメラの動作モードが顔検出処理を実施するモードであるとき、顔検出モジュールは、モニタリング画像の中からあるタイミングで1枚の画像をコピーする(ステップS201)。CPU43は、コピーした画像に対して顔検出処理を実施し、画像内に人物の顔があるか否かを判断する。
[Second Embodiment]
FIG. 6 shows a flow of face detection processing corresponding to the second embodiment. When the camera operation mode is a mode for performing face detection processing, the face detection module copies one image from the monitoring image at a certain timing (step S201). The
顔検出処理は、あらかじめメモリ内に多数保持している人物の顔の特徴データと画像内の対称矩形領域との類似度の総和を対象矩形領域と特徴データの類似度として算出していくものとする。ここで、顔の特徴データと類似度の算出方法については第1の実施形態と同じとする。 In the face detection process, the sum of the similarities between the feature data of a person's face stored in advance in the memory and the symmetric rectangular area in the image is calculated as the similarity between the target rectangular area and the feature data. To do. Here, the facial feature data and the similarity calculation method are the same as those in the first embodiment.
まず、画像の中から最初の対象矩形領域を決定する(ステップS202)。ここでは第1の実施形態と同様に画像の左上の端とする。本実施形態においても、第1の実施形態と同様、図4に示すように、画像の左上の端から右下の端まで順に対象矩形領域を少しずつずらしながらスキャンしていくものとする。 First, the first target rectangular area is determined from the image (step S202). Here, it is assumed that the upper left edge of the image is the same as in the first embodiment. Also in the present embodiment, as in the first embodiment, as shown in FIG. 4, scanning is performed while gradually shifting the target rectangular area in order from the upper left end of the image to the lower right end.
最初にステップS202で決定した対象矩形領域について、特徴データとの類似度を算出する(ステップS203)。類似度が所定の閾値以上であれば、対象矩形領域は顔の特徴データとマッチしたものとする。対象矩形領域が特徴データとマッチすれば(ステップS204/YES)、その対象矩形領域は顔であるとしてメモリに矩形領域の情報を登録する(ステップS205)。 First, the similarity with the feature data is calculated for the target rectangular area determined in step S202 (step S203). If the degree of similarity is equal to or greater than a predetermined threshold, the target rectangular area matches the facial feature data. If the target rectangular area matches the feature data (step S204 / YES), information on the rectangular area is registered in the memory assuming that the target rectangular area is a face (step S205).
ここで、モニタリング画像に動きがあるかどうかを判定する(ステップS206)。画像の動き判定は、モニタリング画像を32×32のブロックに分割して、各ブロックの輝度平均値の差分に基づいて判定される。顔検出処理開始時のモニタリング画像における各ブロックの輝度平均と、現在のモニタリング画像の各ブロックの輝度平均の差分をとり、差分が閾値を超えたブロックは動きがあると判定される。このとき、動きがあると判定されたブロック数が所定の閾値を超えると、画像全体として動きがあるものと判定される。動きがあると判定された場合(ステップS206/YES)には、現在処理中のモニタリング画像とは顔の位置が変わっている可能性が高いので、現在の検出結果をクリアし(ステップS207)、顔検出用のモニタリング画像を再取得し、検出動作を最初からやり直す。 Here, it is determined whether or not there is a motion in the monitoring image (step S206). The motion determination of the image is performed based on the difference of the average luminance value of each block by dividing the monitoring image into 32 × 32 blocks. The difference between the average luminance of each block in the monitoring image at the start of the face detection process and the average luminance of each block in the current monitoring image is taken, and it is determined that the block whose difference exceeds the threshold has motion. At this time, if the number of blocks determined to have motion exceeds a predetermined threshold, it is determined that the entire image has motion. If it is determined that there is a motion (step S206 / YES), there is a high possibility that the position of the face has changed from the currently processed monitoring image, so the current detection result is cleared (step S207), Re-acquire the face detection monitoring image and repeat the detection operation from the beginning.
画像に動きがないと判定された場合(ステップS206/NO)には、そのまま顔検出処理を続行する。対象矩形領域が顔であるか否かの判断を終え、画像内の顔検出対象領域でスキャンしていない領域が残っていれば(ステップS208/NO)、直前の矩形対象領域における類似度に基づいて次の対象矩形領域を決定するステップ幅を算出する(ステップS209)。ここでは、顔検出対象矩形領域のサイズの10%をステップ幅とし、前回の顔検出対象矩形領域よりもステップ幅分ずらした矩形領域を次の検出対象矩形領域として設定する。 If it is determined that there is no movement in the image (step S206 / NO), the face detection process is continued as it is. If it is determined whether or not the target rectangular area is a face, and there remains an unscanned area in the face detection target area in the image (step S208 / NO), it is based on the similarity in the previous rectangular target area. The step width for determining the next target rectangular area is calculated (step S209). Here, 10% of the size of the face detection target rectangular area is set as the step width, and a rectangular area shifted by the step width from the previous face detection target rectangular area is set as the next detection target rectangular area.
ある対象矩形領域について顔であるか否かの判断がなされたとき、もし顔検出対象領域全体をスキャンし終えていれば(ステップステップS208/YES)、当該画像に対する顔検出処理は終了とし、顔検出モードが継続される場合はモニタリングデータから新たに画像をコピーし、その画像に対して同様に顔検出処理を実施する(ステップS210/YES)。顔検出モードを継続しない場合(ステップS210/NO)にはここで処理を終了する。 When it is determined whether or not a certain rectangular area is a face, if the entire face detection target area has been scanned (step S208 / YES), the face detection processing for the image is terminated, and the face When the detection mode is continued, a new image is copied from the monitoring data, and face detection processing is similarly performed on the image (step S210 / YES). If the face detection mode is not continued (step S210 / NO), the process ends here.
[第3の実施形態]
図7に、第3の実施形態に相当する顔検出処理のフローを示す。カメラの動作モードが顔検出処理を実施するモードであるとき、顔検出モジュールは、モニタリング画像の中からあるタイミングで一枚の画像をコピーする(ステップS301)。CPU43は、コピーした画像に対して顔検出処理を実施し、画像内に人物の顔があるか否かを判断する。
[Third Embodiment]
FIG. 7 shows a flow of face detection processing corresponding to the third embodiment. When the camera operation mode is a mode for performing face detection processing, the face detection module copies one image from the monitoring image at a certain timing (step S301). The
顔検出処理は、あらかじめメモリ内に多数保持している人物の顔の特徴データと画像内の対称矩形領域との類似度の総和を、対象矩形領域と特徴データの類似度として算出していくものとする。ここで、顔の特徴データと類似度の算出方法については、第1の実施形態と同じとする。 In the face detection process, the sum of the similarities between the feature data of a person's face that is stored in advance in the memory and the symmetric rectangular area in the image is calculated as the similarity between the target rectangular area and the feature data. And Here, the facial feature data and the similarity calculation method are the same as those in the first embodiment.
まず、画像の中から最初の対象矩形領域を決定する(ステップS302)。ここでは、第1の実施形態と同様に画像の左上の端とする。本実施形態においても、第1の実施形態と同様、図4に示すように、画像の左上の端から右下の端まで順に対象矩形領域を少しずつずらしながらスキャンしていくものとする。 First, the first target rectangular area is determined from the image (step S302). Here, it is assumed that the upper left edge of the image is the same as in the first embodiment. Also in the present embodiment, as in the first embodiment, as shown in FIG. 4, scanning is performed while gradually shifting the target rectangular area in order from the upper left end of the image to the lower right end.
最初にステップS302で決定した対象矩形領域について、特徴データとの類似度を算出する(ステップS303)。類似度が所定の閾値以上であれば、対象矩形領域は顔の特徴データとマッチしたものとする。対象矩形領域が特徴データとマッチすれば、その対象矩形領域は顔であるとしてメモリに矩形領域の情報を登録する(ステップS305)。 First, the similarity with the feature data is calculated for the target rectangular area determined in step S302 (step S303). If the degree of similarity is equal to or greater than a predetermined threshold, the target rectangular area matches the facial feature data. If the target rectangular area matches the feature data, information on the rectangular area is registered in the memory assuming that the target rectangular area is a face (step S305).
ここで、モニタリング画像に動きがあるかどうかを判定する(ステップS306、ステップS308)。画像の動き判定は、モニタリング画像を32×32のブロックに分割して、各ブロックの輝度平均値の差分に基づいて判定される。顔検出処理開始時のモニタリング画像における各ブロックの輝度平均と、現在のモニタリング画像の各ブロックの輝度平均の差分をとり、差分が閾値を超えたブロックは動きがあると判定される。このとき、動きがあると判定されたブロック数に応じて、顔検出処理の続行・顔検出処理の再実施・追尾処理への移行のいずれかを行う。動きがあると判定されたブロック数が所定の閾値1(Th1)以上である場合(ステップS306/YES)には、現在処理中のモニタリング画像とは顔の位置が大きく変わっている可能性が高いので、現在の検出結果をクリアし(ステップS307)、顔検出用のモニタリング画像を再取得し、検出動作を最初からやり直す。 Here, it is determined whether or not there is movement in the monitoring image (steps S306 and S308). The motion determination of the image is performed based on the difference of the average luminance value of each block by dividing the monitoring image into 32 × 32 blocks. The difference between the average luminance of each block in the monitoring image at the start of the face detection process and the average luminance of each block in the current monitoring image is taken, and it is determined that the block whose difference exceeds the threshold has motion. At this time, the face detection process is continued, the face detection process is re-executed, or the process shifts to the tracking process, depending on the number of blocks determined to have motion. When the number of blocks determined to be moving is equal to or greater than the predetermined threshold value 1 (Th1) (step S306 / YES), there is a high possibility that the position of the face has changed significantly from the monitoring image currently being processed. Therefore, the current detection result is cleared (step S307), the monitoring image for face detection is re-acquired, and the detection operation is restarted from the beginning.
動きがあると判定されたブロック数が所定の閾値1未満であるが、所定の閾値2(Th2 (Th1>Th2))以上である場合(ステップS306/NO、ステップS308/YES)には、現時処理中のモニタリング画像とは顔の位置が変わっている可能性が高いが処理中のモニタリング画像の顔の位置の近辺に顔がある可能性が高いので、現在実施中の顔検出処理を中断し、モニタリング画像を新たに取得し(ステップS309)、現在の検出結果に基づいた追尾処理を実施する(ステップS310)。なお、本実施形態において追尾処理とは、前サイクルでの顔検出結果または顔追尾結果に基づいて、全サイクルでの顔位置の周辺の部分領域に限定して顔検出処理と同様の方法で顔領域を検出する処理とする。
If the number of blocks determined to be moving is less than the
動きがあると判定されたブロック数が所定の閾値2未満であった場合(ステップS308/NO)、画像に動きがないと判定され、そのまま顔検出処理を続行する。対象矩形領域が顔であるか否かの判断を終え、画像内の顔検出対象領域でスキャンしていない領域が残っていれば(ステップS311/NO)、直前の矩形対象領域における類似度に基づいて次の対象矩形領域を決定するステップ幅を算出する(ステップS312)。ここでは、顔検出対象矩形領域のサイズの10%をステップ幅とし、前回の顔検出対象矩形領域よりもステップ幅分ずらした矩形領域を次の検出対象矩形領域として設定する。 If the number of blocks determined to have motion is less than the predetermined threshold 2 (step S308 / NO), it is determined that there is no motion in the image, and the face detection process continues. If it is determined whether or not the target rectangular area is a face, and there remains an unscanned area in the face detection target area in the image (step S311 / NO), it is based on the similarity in the previous rectangular target area. The step width for determining the next target rectangular area is calculated (step S312). Here, 10% of the size of the face detection target rectangular area is set as the step width, and a rectangular area shifted by the step width from the previous face detection target rectangular area is set as the next detection target rectangular area.
ある対象矩形領域について顔であるか否かの判断がなされたとき、もし顔検出対象領域全体をスキャンし終えていれば(ステップS311/YES)、当該画像に対する顔検出処理は終了とし、顔検出モードが継続される場合はモニタリングデータから新たに画像をコピーし、その画像に対して同様に顔検出処理を実施する(ステップS313/YES)。顔検出モードを継続しない場合(ステップS313/NO)にはここで処理を終了する。 When it is determined whether or not a certain target rectangular area is a face, if the entire face detection target area has been scanned (step S311 / YES), the face detection process for the image is terminated, and face detection is performed. When the mode is continued, a new image is copied from the monitoring data, and face detection processing is similarly performed on the image (step S313 / YES). If the face detection mode is not continued (step S313 / NO), the process ends here.
上記の実施形態によれば、カメラの画角が変わったことを判断し、古い画角のモニタリング画像に対する無駄な演算処理を中止するため、顔表示枠が実際の顔の位置とずれることを防止すること、新たな画角の画像に対して無駄時間なく検出することが可能となる。 According to the above embodiment, it is determined that the angle of view of the camera has changed, and unnecessary calculation processing for the monitoring image with the old angle of view is stopped, so that the face display frame is prevented from being shifted from the actual face position. This makes it possible to detect an image with a new angle of view without wasting time.
また、上記の実施形態によれば、撮像装置の姿勢の変化量に応じて最適な演算処理を行うため、顔検出にかかる無駄時間をできるだけ小さくすることが可能となる。 In addition, according to the above-described embodiment, optimal calculation processing is performed in accordance with the amount of change in the attitude of the imaging apparatus, so that it is possible to minimize the dead time required for face detection.
また、上記の実施形態によれば、顔検出の結果に基づいてAF・AE・AWBの各処理を行うことで、人物が画像の中央付近にいない場合においても、人物に容易に合焦させたり適正露出にしたりすることが可能となる。 Further, according to the above-described embodiment, by performing each process of AF, AE, and AWB based on the result of face detection, even when the person is not near the center of the image, the person can be easily focused. It is possible to achieve proper exposure.
なお、上述する実施形態は、本発明の好適な実施形態であり、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。 The above-described embodiment is a preferred embodiment of the present invention, and the scope of the present invention is not limited to the above-described embodiment alone, and various modifications are made without departing from the gist of the present invention. Implementation is possible.
すなわち、本実施形態の撮像装置で実行されるプログラムは、先に述べた各手段(画角変化検出手段、顔検出手段)を含むモジュール構成となっており、実際のハードウエアを用いて具体的手段を実現する。すなわち、コンピュータ(CPU)が所定の記録媒体からプログラムを読み出して実行することにより上記各手段が主記憶装置上にロードされて生成される。 That is, the program executed by the imaging apparatus according to the present embodiment has a module configuration including the above-described units (view angle change detection unit and face detection unit), and is implemented using actual hardware. Realize the means. That is, when the computer (CPU) reads a program from a predetermined recording medium and executes it, the above-mentioned means are loaded onto the main storage device and generated.
本実施形態におけるクライアントPCで実行されるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードさせることにより提供されるように構成してもよい。また、上記プログラムをインターネット等のネットワーク経由で提供あるいは配布するように構成してもよい。 The program executed on the client PC in the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the program may be provided or distributed via a network such as the Internet.
また、上記プログラムは、インストール可能な形式又は実行可能な形式のファイルで、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD、不揮発性のメモリカード等のコンピュータで読み取り可能な記録媒体に記録されて提供されるように構成してもよい。また、上記プログラムは、ROM等にあらかじめ組み込んで提供するように構成してもよい。 The program is a file in an installable or executable format, such as a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD, nonvolatile memory card, or the like. It may be configured to be provided by being recorded on a computer-readable recording medium. Further, the program may be provided by being incorporated in advance in a ROM or the like.
この場合、上記記録媒体から読み出された又は通信回線を通じてロードし実行されたプログラムコード自体が前述の実施形態の機能を実現することになる。そして、そのプログラムコードを記録した記録媒体は本発明を構成する。 In this case, the program code itself read from the recording medium or loaded and executed through the communication line realizes the functions of the above-described embodiments. And the recording medium which recorded the program code comprises this invention.
1 電源釦
2 レリーズシャッタ釦
3 モードダイアル
4 光学ファインダ
5 LCD
6 フラッシュ
7 撮影レンズ
11 ズーム/AFレンズ
12 絞りとカラーフィルタ
13 メカシャッタ
20 モータドライバ
30 撮像センサ
31 受光センサ
32 A/D変換器
33 TG
40 デジタル信号処理IC
41 センサI/F
42 メモリコントローラ
43 CPU
44 YUV変換部
45 圧縮伸張回路
46 表示出力制御
47 リサイズ処理
48 メディアI/F
49 加速度センサI/F
50 SDRAM
60 操作部
70 ROM
80 メモリカード
90 加速度センサ
1 Power button 2 Release shutter button 3
6 Flash 7 Shooting lens 11 Zoom / AF lens 12 Aperture and color filter 13 Mechanical shutter 20 Motor driver 30
40 Digital signal processing IC
41 Sensor I / F
42
44 YUV converter 45 Compression / decompression circuit 46 Display output control 47 Resizing process 48 Media I / F
49 Acceleration sensor I / F
50 SDRAM
60 Operation section 70 ROM
80 memory card 90 acceleration sensor
Claims (16)
前記画像データの画角が変化したことを検出する画角変化検出手段と、
前記撮像手段で得られた画像データを用いて、撮影画像から人物の顔を検出する顔検出手段と、
を有し、
前記顔検出手段は、前記顔検出の演算処理中に、前記画角変化検出手段により画角変化が検出された場合、該演算処理を一度停止し、新規に画像を取得して前記顔検出の演算処理を行うことを特徴とする撮像装置。 Imaging means for inputting image data of the photographed subject;
An angle-of-view change detecting means for detecting that the angle of view of the image data has changed;
Face detection means for detecting a human face from a captured image using image data obtained by the imaging means;
Have
If a change in the angle of view is detected by the angle-of-view change detection unit during the face detection calculation process, the face detection unit temporarily stops the calculation process, newly acquires an image, and performs the face detection An imaging apparatus that performs arithmetic processing.
前記画角変化検出手段は、前記姿勢変化量検出手段で検出された変化量に基づいて、前記画像データの画角変化の有無を判断することを特徴とする請求項1に記載の撮像装置。 It has posture change amount detection means for detecting the amount of change in posture of the imaging device itself,
The imaging apparatus according to claim 1, wherein the angle-of-view change detection unit determines whether or not there is a change in the angle of view of the image data based on a change amount detected by the posture change amount detection unit.
前記画角変化検出手段は、前記姿勢変化量検出手段で検出された変化量と所定の閾値とに基づいて、前記画像データの画角変化の有無を判断し、
前記所定の閾値は、撮像装置の焦点距離に応じて異なることを特徴とする請求項1又は2に記載の撮像装置。 It has posture change amount detection means for detecting the amount of change in posture of the imaging device itself,
The angle-of-view change detection means determines the presence or absence of a change in the angle of view of the image data based on the change amount detected by the posture change amount detection means and a predetermined threshold value,
The imaging apparatus according to claim 1, wherein the predetermined threshold value varies depending on a focal length of the imaging apparatus.
前記撮影画像における分割領域ごとの画素輝度値差分に基づいて、前記顔検出手段による顔検出処理又は前記顔追尾手段による顔追尾処理が実行されることを特徴とする請求項4に記載の撮像装置。 It has face tracking means for tracking the face with a small amount of calculation based on the previous face detection result,
5. The imaging apparatus according to claim 4, wherein a face detection process by the face detection unit or a face tracking process by the face tracking unit is executed based on a pixel luminance value difference for each divided region in the photographed image. .
前記顔追尾手段は、前記画素輝度値差分に基づいて動きがあると判断された分割領域が、前記第1の閾値以下かつ該閾値よりも小さい第2の閾値を超えた場合に、演算中の顔検出処理を中止し、新規に画像を取得して顔追尾処理を行い、
前記顔検出手段は、前記画素輝度値差分に基づいて動きがあると判断された分割領域が前記第2の閾値以下である場合に、演算中の顔検出処理を継続して行うことを特徴とする請求項5に記載の撮像装置。 The face detection unit stops the face detection process during calculation and acquires a new image when a divided area determined to have movement based on the pixel luminance value difference exceeds a first threshold. To perform face detection processing,
The face tracking means is performing computation when a divided area determined to have movement based on the pixel luminance value difference exceeds a second threshold that is equal to or less than the first threshold and smaller than the threshold. Stop the face detection process, acquire a new image, perform the face tracking process,
The face detection unit continuously performs face detection processing during calculation when a divided region determined to have motion based on the pixel luminance value difference is equal to or less than the second threshold value. The imaging device according to claim 5.
前記画像データの画角が変化したことを検出する画角変化検出ステップと、
前記撮像ステップで得られた画像データを用いて、撮影画像から人物の顔を検出する顔検出ステップと、
を有し、
前記顔検出ステップは、前記顔検出の演算処理中に、前記画角変化検出ステップにより画角変化が検出された場合、該演算処理を一度停止し、新規に画像を取得して前記顔検出の演算処理を行うことを特徴とする顔検出処理方法。 An imaging step of acquiring image data of the photographed subject;
An angle-of-view change detecting step for detecting that the angle of view of the image data has changed;
Using the image data obtained in the imaging step, a face detection step of detecting a human face from the captured image;
Have
In the face detection step, when a change in the angle of view is detected by the angle-of-view change detection step during the face detection calculation process, the calculation process is temporarily stopped, and a new image is acquired to detect the face detection. A face detection processing method characterized by performing arithmetic processing.
前記画像データの画角が変化したことを検出する画角変化検出機能と、
前記撮像手段で得られた画像データを用いて、撮影画像から人物の顔を検出する顔検出機能と、
を実現させ、
前記顔検出機能は、前記顔検出の演算処理中に、前記画角変化検出機能により画角変化が検出された場合、該演算処理を一度停止し、新規に画像を取得して前記顔検出の演算処理を行うことを特徴とするプログラム。 In a computer of an imaging apparatus having an imaging means for inputting image data of a photographed subject,
An angle-of-view change detection function for detecting that the angle of view of the image data has changed;
A face detection function for detecting a person's face from a photographed image using image data obtained by the imaging means;
Realized,
In the face detection function, if a view angle change is detected by the view angle change detection function during the face detection calculation process, the face detection function temporarily stops the calculation process, newly acquires an image, and performs the face detection function. A program characterized by performing arithmetic processing.
前記画角変化検出機能は、前記姿勢変化量検出機能で検出された変化量に基づいて、前記画像データの画角変化の有無を判断することを特徴とする請求項9に記載のプログラム。 Let the computer of the imaging device realize a posture change amount detection function for detecting the amount of change in posture of the imaging device itself,
The program according to claim 9, wherein the angle-of-view change detection function determines whether or not there is a change in the angle of view of the image data based on a change amount detected by the posture change amount detection function.
前記画角変化検出機能は、前記姿勢変化量検出機能で検出された変化量と所定の閾値とに基づいて、前記画像データの画角変化の有無を判断し、
前記所定の閾値は、撮像装置の焦点距離に応じて異なることを特徴とする請求項9又は10に記載のプログラム。 Let the computer of the imaging device realize a posture change amount detection function for detecting the amount of change in posture of the imaging device itself,
The angle-of-view change detection function determines the presence or absence of a change in the angle of view of the image data based on the change amount detected by the posture change amount detection function and a predetermined threshold,
The program according to claim 9 or 10, wherein the predetermined threshold value varies depending on a focal length of the imaging apparatus.
前記撮影画像における分割領域ごとの画素輝度値差分に基づいて、前記顔検出機能による顔検出処理又は前記顔追尾機能による顔追尾処理が実行されることを特徴とする請求項12に記載のプログラム。 The computer of the imaging device realizes a face tracking function for tracking a face with a small amount of calculation based on the previous face detection result,
The program according to claim 12, wherein a face detection process by the face detection function or a face tracking process by the face tracking function is executed based on a pixel luminance value difference for each divided region in the captured image.
前記顔追尾機能は、前記画素輝度値差分に基づいて動きがあると判断された分割領域が、前記第1の閾値以下かつ該閾値よりも小さい第2の閾値を超えた場合に、演算中の顔検出処理を中止し、新規に画像を取得して顔追尾処理を行い、
前記顔検出機能は、前記画素輝度値差分に基づいて動きがあると判断された分割領域が前記第2の閾値以下である場合に、演算中の顔検出処理を継続して行うことを特徴とする請求項13に記載のプログラム。 The face detection function cancels the face detection process during calculation and acquires a new image when a divided area determined to have motion based on the pixel luminance value difference exceeds a first threshold. To perform face detection processing,
The face tracking function is performing an operation when a divided region determined to have movement based on the pixel luminance value difference exceeds a second threshold value that is equal to or less than the first threshold value and smaller than the threshold value. Stop the face detection process, acquire a new image, perform the face tracking process,
The face detection function continuously performs face detection processing during calculation when a divided region determined to have movement based on the pixel luminance value difference is equal to or less than the second threshold value. The program according to claim 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009135348A JP2010283609A (en) | 2009-06-04 | 2009-06-04 | Imaging apparatus, face detection processing method, program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009135348A JP2010283609A (en) | 2009-06-04 | 2009-06-04 | Imaging apparatus, face detection processing method, program and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010283609A true JP2010283609A (en) | 2010-12-16 |
Family
ID=43539962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009135348A Withdrawn JP2010283609A (en) | 2009-06-04 | 2009-06-04 | Imaging apparatus, face detection processing method, program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010283609A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016189616A (en) * | 2016-06-17 | 2016-11-04 | オリンパス株式会社 | Portable apparatus, display method, and program |
-
2009
- 2009-06-04 JP JP2009135348A patent/JP2010283609A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016189616A (en) * | 2016-06-17 | 2016-11-04 | オリンパス株式会社 | Portable apparatus, display method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2273450B1 (en) | Target tracking and detecting in images | |
JP6106921B2 (en) | Imaging apparatus, imaging method, and imaging program | |
US8879802B2 (en) | Image processing apparatus and image processing method | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
US7957633B2 (en) | Focus adjusting apparatus and focus adjusting method | |
KR20080012790A (en) | Face detection device, imaging apparatus, and face detection method | |
KR20080012770A (en) | Face detection device, imaging apparatus and face detection method | |
US8648960B2 (en) | Digital photographing apparatus and control method thereof | |
US8988545B2 (en) | Digital photographing apparatus and method of controlling the same | |
JP2007074394A (en) | Image pickup device and control method of same | |
KR20130112059A (en) | Image capturing apparatus, image capturing method, and computer program product | |
JP2018117280A (en) | Image processing apparatus, image processing method, program | |
JP2009111716A (en) | Imaging apparatus, program and template generating method | |
JP2008299784A (en) | Object determination device and program therefor | |
JP2008028747A (en) | Imaging device and program thereof | |
JP2009175821A (en) | Detection method and photographing device for specific image | |
JP2013098935A (en) | Tracking apparatus and tracking method | |
US9357124B2 (en) | Focusing control device and controlling method of the same | |
KR20120080376A (en) | Digital image photographing apparatus and method for controlling the same | |
JP6172973B2 (en) | Image processing device | |
JP2020102059A (en) | Image processor | |
JP2006094059A (en) | Imaging apparatus and program | |
JP5189913B2 (en) | Image processing device | |
JP3985005B2 (en) | IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE CONTROL METHOD | |
JP2016092513A (en) | Image acquisition device, shake reduction method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120807 |