JP2010028370A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2010028370A
JP2010028370A JP2008186161A JP2008186161A JP2010028370A JP 2010028370 A JP2010028370 A JP 2010028370A JP 2008186161 A JP2008186161 A JP 2008186161A JP 2008186161 A JP2008186161 A JP 2008186161A JP 2010028370 A JP2010028370 A JP 2010028370A
Authority
JP
Japan
Prior art keywords
face
rectangular area
image data
face detection
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008186161A
Other languages
Japanese (ja)
Inventor
Manabu Yamada
学 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008186161A priority Critical patent/JP2010028370A/en
Publication of JP2010028370A publication Critical patent/JP2010028370A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device mounting a face detection function which makes processing faster without lowering the detection accuracy of a face. <P>SOLUTION: The imaging device comprises: an imaging means for outputting image data corresponding to a subject; and a face detection function which carries out a step scan which shifts a rectangular area of a predetermined image size by a predetermined step width to change target position inside the image data outputted from the imaging means, while evaluating whether or not small image data contains a person's face for each small image data in the rectangular area at each step position to detect the person's face (S104 to S108). The face detection function sets a step width to a next rectangular area based on an evaluation value (the number of cleared hierarchies L) as a degree of certainty containing the person's face in the evaluation made in the rectangular area at a certain step position (S110), to carry out the step scan. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像データを取得する撮像素子を備えるデジタルカメラなどの撮像装置に関するものである。   The present invention relates to an imaging apparatus such as a digital camera provided with an imaging element that acquires image data.

近年、デジタルカメラなどの撮像装置において、撮影画像中から人物の顔を検出して検出した顔領域にフォーカスや露出等が合うように制御される機能や、検出された顔があらかじめ登録されているこれらの機能をソフトウェア処理にて実現する場合には、処理が重くなってしまうために処理時間がかかってしまい、実使用に向かないことがある。処理を軽くする方法としては、単純には低解像度の画像を使用したり間引き処理をすれば処理は軽くなるが、これでは検出あるいは認証の精度が落ちてしまう。そこで、顔検出や顔認証処理をソフトウェアで実現する際に処理の高速化あるいは精度を向上するために様々な手法が開発されている。   In recent years, in an imaging apparatus such as a digital camera, a function that is controlled so that a face area detected by detecting a human face in a captured image is focused and exposed, and a detected face are registered in advance. When these functions are realized by software processing, the processing becomes heavy, which takes processing time, and may not be suitable for actual use. As a method for lightening the processing, simply using a low-resolution image or performing a thinning-out processing makes the processing light, but this reduces the accuracy of detection or authentication. In view of this, various methods have been developed in order to increase the processing speed or accuracy when realizing face detection and face authentication processing by software.

例えば、特許文献1では、ルックアップテーブル等を用いることにより、特徴量毎に判定値を独立して対応付けることにより、処理の高精度化を実現し、高精度化により計算の余計な繰り返し回数を減らすことで高速化を実現させている。しかし、この方法では対象画像内の全ての領域において同ステップ幅でスキャンしているため、明らかに顔でない領域においては無駄なスキャンをしているといえるものであった。   For example, in Patent Document 1, by using a lookup table or the like, a determination value is associated with each feature amount independently, thereby realizing high processing accuracy. Speeding up is realized by reducing it. However, in this method, since all regions in the target image are scanned with the same step width, it can be said that a scan that is obviously not a face is wasted.

また、特許文献2では、合焦動作から得られた距離情報により、被写体の顔サイズを特定し、顔サイズによって規定される領域内で顔検出動作を実施することで無駄なスキャンを減らし、高速化を可能としている。しかし、この方法では一度合焦動作を実施しなければならないという問題があった。   Further, in Patent Document 2, the face size of the subject is specified based on the distance information obtained from the focusing operation, and the face detection operation is performed within an area defined by the face size, thereby reducing unnecessary scanning. Is possible. However, this method has a problem that the focusing operation has to be performed once.

特開2004−362468号公報JP 2004-362468 A 特開2006−25238号公報JP 2006-25238 A

本発明は、以上の従来技術における問題に鑑みてなされたものであり、顔の検知精度を落とすことなく処理を高速化した顔検知機能を搭載した撮像装置を提供することを目的とする。   The present invention has been made in view of the above problems in the prior art, and an object of the present invention is to provide an imaging apparatus equipped with a face detection function that speeds up processing without reducing the accuracy of face detection.

前記課題を解決するために提供する本発明は、以下の通りである。
〔1〕 被写体に応じた画像データを出力する撮像手段(撮像センサー104)と、前記撮像手段から出力される画像データ(画像20)内において、所定画像サイズの矩形領域(矩形領域S)を所定ステップ幅(ステップ幅St)だけずらして対象位置を変更するステップスキャンを行いながら、各ステップ位置における前記矩形領域の小画像データごとに該小画像データが人物の顔を含むか否かを評価して、人物の顔を検出する顔検出機能(S104〜S108,S203〜S205)と、を備える撮像装置であって、前記顔検出機能は、あるステップ位置の矩形領域において行われた前記評価での人物の顔を含む確からしさの程度である評価値に基づいて、次の矩形領域へのステップ幅を設定(S110,S207)し、ステップスキャンを行うことを特徴とする撮像装置(図2,図3,図7)。
〔2〕 前記顔検出機能は、前記矩形領域における小画像データに対して、人物の顔を含むか否かを階層的に判定し、最上位の階層(LayerN)での判定をクリアすると人物の顔を含むと評価するものであり、前記評価値は、クリアした階層数(階層L)に基づいて決定されることを特徴とする前記〔1〕に記載の撮像装置(図6)。
〔3〕 前記顔検出機能は、前記矩形領域における小画像データと顔の特徴データであるテンプレートデータ(顔の特徴データ)との類似度を求め、該類似度が閾値以上であれば人物の顔を含むと評価するものであり、前記評価値は、前記テンプレートデータとの類似度に基づいて決定されることを特徴とする前記〔1〕に記載の撮像装置(図8)。
〔4〕 前記顔検出機能は、前記評価値に反比例する関係で、次の矩形領域へのステップ幅を設定し、ステップスキャンを行うことを特徴とする前記〔2〕または〔3〕に記載の撮像装置。
The present invention provided to solve the above problems is as follows.
[1] A rectangular area (rectangular area S) having a predetermined image size is predetermined in an imaging unit (imaging sensor 104) that outputs image data corresponding to a subject and image data (image 20) output from the imaging unit. While performing step scan that changes the target position by shifting the step width (step width St), it is evaluated whether or not the small image data includes a human face for each small image data of the rectangular area at each step position. And a face detection function (S104 to S108, S203 to S205) for detecting a human face, wherein the face detection function is based on the evaluation performed in a rectangular area at a certain step position. A step width to the next rectangular area is set (S110, S207) based on the evaluation value that is the degree of probability including the human face (step S110, S207). An image pickup apparatus (FIGS. 2, 3, and 7) characterized by
[2] The face detection function hierarchically determines whether or not the small image data in the rectangular area includes a person's face, and if the determination at the highest layer (LayerN) is cleared, The imaging apparatus according to [1], wherein the image is evaluated to include a face, and the evaluation value is determined based on the number of cleared layers (hierarchy L) (FIG. 6).
[3] The face detection function obtains a similarity between the small image data in the rectangular area and template data (face feature data) that is facial feature data. The image pickup apparatus according to [1], wherein the evaluation value is determined based on a similarity to the template data (FIG. 8).
[4] The face detection function according to the above [2] or [3], wherein the face detection function sets a step width to the next rectangular area in a relationship inversely proportional to the evaluation value and performs step scan Imaging device.

本発明の効果として、請求項1の発明によれば、例えば矩形領域の評価値が所定レベルよりも低い時、すなわち顔である可能性が低い時にはその領域は顔でない(あるいは顔を含まない)と判断して、次の矩形領域は元の矩形領域と重ならない、あるいは重なりが小さくなるようなステップ幅とすることで計算量を減らして検出処理を高速化することが可能となる。
請求項2の発明によれば、矩形領域の評価値(クリアした階層数)が所定レベル(最上位の階層)よりも低い時、すなわち顔である可能性が低い時には、その領域は顔でない(顔を含まない)と判断して、次の矩形領域は元の矩形領域と重ならない、あるいは重なりが小さくなるようなステップ幅とすることで計算量を減らして検出処理を高速化することを可能とする。また、階層的に判断していくことにより、顔である可能性が低い矩形領域は早い段階の階層で顔でない(顔を含まない)と判断されて次の矩形領域に移るため、計算量が少なくなり検出処理を高速化することが可能となる。
請求項3の発明によれば、矩形領域の評価値(テンプレートデータとの類似度)が所定レベル(閾値)よりも低い時、すなわち顔である可能性が低い時には、その領域は顔でない(顔を含まない)と判断して、次の矩形領域は元の矩形領域と重ならない、あるいは重なりが小さくなるようなステップ幅とすることで計算量を減らして検出処理を高速化することを可能とする。
請求項4の発明によれば、評価値に反比例する関係で、次の矩形領域へのステップ幅を設定することにより、矩形領域の評価値が所定レベルよりも低い時(顔である可能性が低い時)にはその領域は顔でない(顔を含まない)と判断して、次の矩形領域は元の矩形領域と重ならない、あるいは重なりが小さくなるようなステップ幅とすることができ、計算量を減らして検出処理を高速化することが可能となる。
As an effect of the present invention, according to the invention of claim 1, for example, when the evaluation value of the rectangular area is lower than a predetermined level, that is, when the possibility of being a face is low, the area is not a face (or does not include a face). Therefore, the next rectangular area does not overlap with the original rectangular area or has a step width that reduces the overlap, thereby reducing the amount of calculation and speeding up the detection process.
According to the invention of claim 2, when the evaluation value of the rectangular area (the number of cleared hierarchies) is lower than a predetermined level (the highest hierarchy), that is, when the possibility of being a face is low, the area is not a face ( The next rectangular area does not overlap the original rectangular area, or the step width is such that the overlap is small, thereby reducing the amount of calculation and speeding up the detection process. And In addition, by determining hierarchically, a rectangular area that is unlikely to be a face is determined not to be a face (not including a face) at an early stage and moves to the next rectangular area. The number of detection processes can be reduced and the detection process can be speeded up.
According to the invention of claim 3, when the evaluation value (similarity with the template data) of the rectangular area is lower than a predetermined level (threshold), that is, when the possibility of being a face is low, the area is not a face (face The next rectangular area does not overlap with the original rectangular area, or the step width is such that the overlap becomes small, thereby reducing the amount of calculation and speeding up the detection process. To do.
According to the invention of claim 4, by setting the step width to the next rectangular area in a relationship inversely proportional to the evaluation value, the evaluation value of the rectangular area is lower than a predetermined level (the possibility of being a face). When the area is low, the area is determined not to be a face (does not include a face), and the next rectangular area can be set to a step width that does not overlap with the original rectangular area or the overlap becomes small. It is possible to reduce the amount and speed up the detection process.

以下に、本発明に係る撮像装置の構成について説明する。
図1は、本発明に係る撮像装置の一態様であるデジタルスチルカメラ外観図、図2は該デジタルスチルカメラ内部のシステム概要図である。
The configuration of the imaging device according to the present invention will be described below.
FIG. 1 is an external view of a digital still camera which is an aspect of an imaging apparatus according to the present invention, and FIG. 2 is a system schematic diagram inside the digital still camera.

最初にデジタルスチルカメラの動作概要を説明する。
図1の撮影/再生切り替えのモードダイアル2を撮影モードに設定し、電源釦1を押すことで、デジタルスチルカメラ(以下、カメラ)10が記録モードで起動する。モードダイアル2および電源釦1は、図2における操作部107に含まれており、モードダイアル2の状態が撮影モードの状態で電源釦1がONになったことをCPU105cが検知すると、CPU105cはモータドライバ108を制御して、鏡胴ユニットを撮影可能位置に移動させる。さらに撮像センサー104、LCDディスプレイ5等の各部に電源を投入して動作を開始させる。
First, an outline of the operation of the digital still camera will be described.
The digital still camera (hereinafter referred to as camera) 10 is activated in the recording mode by setting the shooting / playback switching mode dial 2 in FIG. 1 to the shooting mode and pressing the power button 1. The mode dial 2 and the power button 1 are included in the operation unit 107 in FIG. 2, and when the CPU 105c detects that the power button 1 is turned on while the mode dial 2 is in the shooting mode, the CPU 105c The driver 108 is controlled to move the lens barrel unit to the photographing enabled position. Furthermore, power is turned on to the image sensor 104, the LCD display 5, and the like to start the operation.

各部の電源が投入されると、ファインダモードの動作が開始される。
ファインダモードでは、レンズ101を通して受光センサー(CCD,CMOS)104aに入射した光は、電気に変換されてA/D変換器104bに送られる。A/D変換器104bでは、入力されたアナログ信号を12bitのデジタルデータに変換する。デジタル信号に変換されたそれぞれの信号は、デジタル信号処理IC105内のセンサーI/F部105aに取り込まれ、YUV変換部105dで表示可能な形式であるYUV信号に変換されて、メモリコントローラ105bによってフレームメモリ106に書き込まれる。このYUV信号はメモリコントローラ105bに読み出されて、表示出力制御部105fを介してTVやLCDモニタへ送られて表示が行われる。この処理が1/30秒間隔で行われ、1/30秒ごとに更新されるファインダモードの表示となる。
When the power of each part is turned on, the operation in the finder mode is started.
In the finder mode, light incident on the light receiving sensor (CCD, CMOS) 104a through the lens 101 is converted into electricity and sent to the A / D converter 104b. The A / D converter 104b converts the input analog signal into 12-bit digital data. Each signal converted into a digital signal is taken into the sensor I / F unit 105a in the digital signal processing IC 105, converted into a YUV signal in a format that can be displayed by the YUV conversion unit 105d, and framed by the memory controller 105b. It is written in the memory 106. The YUV signal is read by the memory controller 105b and sent to the TV or LCD monitor via the display output control unit 105f for display. This process is performed at 1/30 second intervals, and a finder mode display updated every 1/30 seconds is obtained.

この撮像センサー104は800万画素のセンサーである。静止画撮影時は全画素を1/30秒ごとに出力することができる。ファインダモード時は周辺画素を加算と間引きを組み合わせて、1/30秒ごと例えば640×480画素に画素数を減らして出力を行う。   The image sensor 104 is a sensor having 8 million pixels. During still image shooting, all pixels can be output every 1/30 seconds. In the finder mode, output is performed by reducing the number of pixels to 640 × 480 pixels every 1/30 seconds by combining peripheral pixels with addition and thinning.

デジタル信号処理IC105のセンサーI/F部105aは、ブロック内に取り込まれたデジタルRGB信号より、画面の合焦度合いを示すAF評価値と、被写体輝度を検出したAE評価値と、被写体色を検出したAWB評価値が算出する。それらデータは、特徴データとしてCPU105cに読み出されて、AE、AF、AWBのそれぞれの処理に利用される。   The sensor I / F unit 105a of the digital signal processing IC 105 detects an AF evaluation value that indicates the degree of focus on the screen, an AE evaluation value that detects the subject brightness, and a subject color from the digital RGB signal captured in the block. The calculated AWB evaluation value is calculated. These data are read out as feature data to the CPU 105c and used for each of AE, AF, and AWB processes.

AF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって作成される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AFによる合焦検出動作時は、それぞれのフォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦位置としてAFを実行する。   The AF evaluation value is created by, for example, an output integrated value of a high frequency component extraction filter or an integrated value of a luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. By utilizing this, at the time of the focus detection operation by AF, the AF evaluation value at each focus lens position is acquired, and AF is executed with the point where the maximum is obtained as the focus position.

AE評価値とAWB評価値は、RGBのそれぞれの積分値から作成される。例えば画面を256エリアに等分割(水平16分割、垂直16分割)し、それぞれのエリアのRGB積算を算出する。CPU105cはRGB積分値を読み出し、AEでは、それぞれのエリアの輝度を算出して、輝度分布から適正な露光時間を決定する。AWBでは、RGBの分布から光源の色に合わせたAWBの制御値を決定する。このAEとAWBの処理は、ファインダモード中は連続的に行われている。   The AE evaluation value and the AWB evaluation value are created from the respective RGB integration values. For example, the screen is equally divided into 256 areas (16 horizontal divisions and 16 vertical divisions), and the RGB integration of each area is calculated. The CPU 105c reads the RGB integrated values, and in AE, the brightness of each area is calculated, and an appropriate exposure time is determined from the brightness distribution. In AWB, an AWB control value that matches the color of the light source is determined from the RGB distribution. The AE and AWB processes are continuously performed during the finder mode.

図1のレリーズ釦(シャッタボタン)3が操作されると、合焦位置検出であるAF動作と静止画記録処理が行われる。   When the release button (shutter button) 3 shown in FIG. 1 is operated, an AF operation for detecting a focus position and a still image recording process are performed.

レリーズ釦3が押されると、図2のカメラ操作部107から静止画撮影開始信号がCPU105cに取り込まれると、CPU105cがフレームレートに同期してモータドライバ108を介してレンズ101を駆動ことにより山登りAFを実行する。AF対象範囲が無限から至近までの全領域であった場合、フォーカスレンズは至近から無限、または無限から至近までの間の各フォーカス位置移動し、デジタル信号処理IC105で作成された各フレーム(=各フォーカス位置)におけるAF評価値をCPU105cが読み出す。各フォーカス位置のAF評価値が極大になる点を合焦位置として、フォーカスレンズを合焦位置に移動する。   When the release button 3 is pressed, when a still image shooting start signal is taken into the CPU 105c from the camera operation unit 107 in FIG. 2, the CPU 105c drives the lens 101 via the motor driver 108 in synchronization with the frame rate, thereby performing hill-climbing AF. Execute. When the AF target range is the entire region from infinity to close, the focus lens moves to each focus position from close to infinity, or from infinity to close, and each frame (= each) created by the digital signal processing IC 105 The CPU 105c reads the AF evaluation value at the (focus position). The focus lens is moved to the in-focus position with the point at which the AF evaluation value at each focus position is maximized as the in-focus position.

AF完了後に撮像センサー104から出力されたデジタルRGB信号に変換され、デジタル信号処理IC105を介してフレームメモリ(SDRAM)106に格納される。デジタルRGB信号は再度デジタル信号処理回路に読み込まれ、YUV変換部105dでYUVデータに変換されて、フレームメモリ106に書き戻される。   It is converted into a digital RGB signal output from the image sensor 104 after the AF is completed, and stored in a frame memory (SDRAM) 106 via a digital signal processing IC 105. The digital RGB signal is read again into the digital signal processing circuit, converted into YUV data by the YUV converter 105d, and written back to the frame memory 106.

スチル画像撮像時はYUV変換された画像データがデジタル信号処理IC105内の画像圧縮伸張回路105eに送られる。画像圧縮伸張回路105eに送られたYUVデータは圧縮され、フレームメモリ106に書き戻される。フレームメモリ106の圧縮データはデジタル信号処理IC105を介して読み出され、データ記憶メモリに格納される。   At the time of capturing a still image, the YUV converted image data is sent to the image compression / decompression circuit 105e in the digital signal processing IC 105. The YUV data sent to the image compression / decompression circuit 105 e is compressed and written back to the frame memory 106. The compressed data in the frame memory 106 is read out via the digital signal processing IC 105 and stored in the data storage memory.

続いて、顔検出の方法について説明する。
被写体像の中から人物像を検出する方法は、以下に示す手法が公知となっており、本実施例では、そのうちのいずれかの方法を用いるものとする。
(1) テレビジョン学会誌Vol.49、No.6、pp.787−797(1995)の「顔領域抽出に有効な修正HSV表色系の提案」に示されるように、カラー画像をモザイク画像化し、肌色領域に着目して顔領域を抽出する方法。
(2) 電子情報通信学会誌Vol.74−D−II、No.11、pp.1625−1627(1991)の「静止濃淡情景画像からの顔領域を抽出する手法」に示されているように、髪や目や口など正面人物像の頭部を構成する各部分に関する幾何学的な形状特徴を利用して正面人物の頭部領域を抽出する方法。
(3) 画像ラボ1991−11(1991)の「テレビ電話用顔領域検出とその効果」に示されるように、動画像の場合、フレーム間の人物の微妙な動きによって発生する人物像の輪郭エッジを利用して正面人物像を抽出する方法。
Next, a face detection method will be described.
As a method for detecting a person image from a subject image, the following method is known, and in this embodiment, any one of the methods is used.
(1) Television Society Journal Vol. 49, no. 6, pp. No. 787-797 (1995) “Proposal of a modified HSV color system effective for face area extraction” is a method of extracting a face area by converting a color image into a mosaic image and paying attention to a skin color area.
(2) Journal of the Institute of Electronics, Information and Communication Engineers, Vol. 74-D-II, no. 11, pp. 1625-1627 (1991) “A method for extracting a face region from a still gray scene image”, the geometrical structure of each part constituting the head of a front human figure such as hair, eyes and mouth. Of extracting the head region of a frontal person using various shape features.
(3) As shown in “Video phone face area detection and its effect” in Image Lab 1991-11 (1991), in the case of a moving image, the contour edge of a person image generated by a subtle movement of the person between frames To extract a frontal portrait using GIS.

( 第1の実施形態 )
次に本発明の特徴となる動作である顔検出処理について説明する。
図3は、図1,図2のカメラ10の撮像光学系によって撮像された画像に対し、顔検出処理を実施して画像の中から人物の顔を検出する顔検出処理のフロー(実施例1)である。なお、カメラ10は、顔検出機能(顔検出モジュール)を有しており、例えばLCDディスプレイ5に表示されるメニューより顔検出モジュールを作動させる顔検出処理モードの選択が可能である。
(First embodiment)
Next, face detection processing, which is an operation that characterizes the present invention, will be described.
FIG. 3 shows a flow of face detection processing for detecting a human face from images by performing face detection processing on the image captured by the imaging optical system of the camera 10 of FIGS. ). Note that the camera 10 has a face detection function (face detection module), and a face detection processing mode for operating the face detection module can be selected from a menu displayed on the LCD display 5, for example.

カメラ10の動作モードが顔検出処理を実施するモードである時、顔検出モジュールはモニタリング画像の中からあるタイミングで一枚の画像データ(以下、画像ともいう)をコピーする(S101)。CPU105cはコピーした画像に対して顔検出処理を実施し、画像内に人物の顔があるか否かを判断する。ここでは、顔検出モジュールは、対象矩形領域における小画像データに対して、人物の顔を含むか否かを階層的に判定し、最上位の階層(最終的な階層)での判定をクリアすると人物の顔を含むと評価するものである。すなわち、顔の大まかな特徴に基づいて判定する下位の階層からより細かな特徴に基づいて判定する上位の階層までの複数の階層に対して、前記小画像データが該当の階層での判定をクリアすればつぎの上の階層に上がって判定を受けるという段階的な判定を受け、該当の階層での判定でNGとなればその段階で評価が終了するものである。   When the operation mode of the camera 10 is a mode for performing face detection processing, the face detection module copies one piece of image data (hereinafter also referred to as an image) from the monitoring image at a certain timing (S101). The CPU 105c performs face detection processing on the copied image and determines whether or not there is a human face in the image. Here, the face detection module hierarchically determines whether or not a human face is included in the small image data in the target rectangular area, and clears the determination in the highest hierarchy (final hierarchy). It is evaluated that it includes a human face. That is, for a plurality of hierarchies from a lower hierarchy determined based on the rough features of the face to an upper hierarchy determined based on the finer features, the small image data clears the determination in the corresponding hierarchy. In this case, a step-by-step determination of going up to the next higher level and receiving a determination is received, and if the determination at the corresponding layer is NG, the evaluation is completed at that step.

また、顔検出処理はあらかじめメモリ(SDRAM106)内に保持している人物の顔の特徴データと画像内の対称矩形領域(小画像データ)との類似度を算出していくが、本実施例ではメモリ(SDRAM106)内の特徴データは複数階層に分かれて保持されており、階層ごとに特徴データの類似度算出をしていくものとする。   In the face detection process, the similarity between the facial feature data of the person stored in the memory (SDRAM 106) in advance and the symmetrical rectangular area (small image data) in the image is calculated. The feature data in the memory (SDRAM 106) is stored in a plurality of layers, and the similarity of the feature data is calculated for each layer.

ここで、特徴データとは、例えば図4に示すような対象矩形領域Sの中の2つまたは3つの小矩形(図4(a)におけるS1,S2、(b)におけるS3,S4、(c)におけるS5〜S7)において、各小矩形の平均輝度値の加重和(特徴評価値)が閾値以上であるときに類似度がいくつであるか、というデータである。また、本実施例では各小矩形の平均輝度値の加重和を特徴評価値と呼ぶ。   Here, the feature data is, for example, two or three small rectangles (S1, S2 in FIG. 4A, S3, S4 in (b), (c) in the target rectangular area S as shown in FIG. In S5 to S7), the degree of similarity is the data when the weighted sum (feature evaluation value) of the average luminance value of each small rectangle is equal to or greater than the threshold value. In this embodiment, the weighted sum of the average luminance values of the small rectangles is called a feature evaluation value.

また、浅い階層(下位の階層)における特徴データは、対象矩形領域が顔であるかどうか(あるいは顔を含むかどうか)を比較的大まかに判断するものであり、例えば図4(a)のような、対象矩形領域S内の小矩形S1,S2が大きいものとして保持されており、特徴データの数も少ない。そして、階層が深くなるほど顔の細かい特徴を判断するように、図4の(b)、(c)のような、小矩形S3〜S7が小さいものとされ、階層内の特徴データの数も多くなっていく。   The feature data in the shallow hierarchy (lower hierarchy) is a relatively rough judgment as to whether the target rectangular area is a face (or whether it includes a face). For example, as shown in FIG. The small rectangles S1 and S2 in the target rectangular area S are held as large ones, and the number of feature data is small. Then, the small rectangles S3 to S7 as shown in FIGS. 4B and 4C are made small so that the feature of the face is judged as the hierarchy becomes deeper, and the number of feature data in the hierarchy is large. It will become.

各階層での類似度は、階層内の各特徴データにおける特徴評価値を求めることにより算出していく。特徴評価値が閾値を超える特徴データが多いほど類似度は高くなる。階層iでの特徴データjの特徴評価値をEvj、Evjが閾値Thj以上であるときに類似度がsimjであるとすると、階層iの類似度Simiは以下の式(1)で算出される。   The similarity in each hierarchy is calculated by obtaining a feature evaluation value in each feature data in the hierarchy. The more the feature data whose feature evaluation value exceeds the threshold value, the higher the similarity. Assuming that the feature evaluation value of the feature data j in the hierarchy i is Evj and Evj is equal to or greater than the threshold Thj, and the similarity is simj, the similarity Simi of the hierarchy i is calculated by the following equation (1).

Figure 2010028370
Figure 2010028370

図3において、つぎに、画像データの中から最初の対象矩形領域を決定する(S102)。ここでは画像の左上の端とする。本実施例では、図5に示すように画像20の左上の端から右下の端まで順に対象矩形領域Sを所定のステップ幅で少しずつずらしながらステップスキャンしていくものとする。   In FIG. 3, the first target rectangular area is determined from the image data (S102). Here, it is the upper left edge of the image. In this embodiment, as shown in FIG. 5, step scanning is performed while the target rectangular area S is gradually shifted by a predetermined step width from the upper left end of the image 20 to the lower right end.

対象矩形領域Sにおいて、最初は、階層L=1として第1階層(Layer1)を選択し(S103)、第1階層の特徴データと対象矩形領域Sの類似度を算出する(S104)。ここで、類似度が所定の閾値以上であれば対象矩形はその階層の特徴データとマッチしたものとする(クリア判定)。特徴データとマッチして、かつその階層が最終階層であればその矩形領域は顔である(あるいは顔を含む)と判断して矩形領域Sの情報をメモリ(SDRAM106)に登録する(S108)。   In the target rectangular area S, first, the first hierarchy (Layer 1) is selected with the hierarchy L = 1 (S103), and the similarity between the feature data of the first hierarchy and the target rectangular area S is calculated (S104). Here, if the similarity is greater than or equal to a predetermined threshold, the target rectangle is assumed to match the feature data of that hierarchy (clear determination). If it matches the feature data and the hierarchy is the final hierarchy, it is determined that the rectangular area is a face (or includes a face), and information on the rectangular area S is registered in the memory (SDRAM 106) (S108).

階層が最終階層でなければ、階層LをL=L+1として(S107)、対象矩形領域Sと次の階層の特徴データとの類似度を算出する。   If the hierarchy is not the final hierarchy, the hierarchy L is set to L = L + 1 (S107), and the similarity between the target rectangular area S and the feature data of the next hierarchy is calculated.

また、ステップS105において、その階層内の特徴データとマッチしなければ(NG判定)、その時点で対象矩形領域Sは顔でない(顔を含まない)と判断され、ステップS109に進む。   If the feature data in the hierarchy is not matched in step S105 (NG determination), it is determined that the target rectangular area S is not a face (does not include a face) at that time, and the process proceeds to step S109.

対象矩形領域Sが顔であるか否か(顔を含むか否か)が評価されたら、画像20内の顔検出対象領域全体をスキャンしたかどうかを確認する(S109)。ここで、まだスキャンする領域が残っていれば、直前の対象矩形領域Sにおいて行われた前記評価での人物の顔を含む確からしさの程度である評価値に基づいて、次の矩形領域S’へのステップ幅を設定する。すなわち、直前の矩形領域Sで特徴データとの類似度を算出した階層L(クリアした階層数)に応じて次の矩形領域へのステップ幅を決め、次の矩形領域S’を決定する(S110)。   If it is evaluated whether or not the target rectangular area S is a face (whether or not it includes a face), it is confirmed whether or not the entire face detection target area in the image 20 has been scanned (S109). Here, if the area to be scanned still remains, the next rectangular area S ′ is based on the evaluation value which is the degree of probability including the human face in the evaluation performed in the immediately preceding target rectangular area S. Set the step width to. That is, the step width to the next rectangular area is determined according to the hierarchy L (number of cleared hierarchies) for which the similarity with the feature data is calculated in the immediately preceding rectangular area S, and the next rectangular area S ′ is determined (S110). ).

図6には、階層Lに応じた次の矩形領域S’へのステップ幅の変化の例を示す。
図6(a)は、高階層、ここでは全階層Nのうち、階層N−1でNG判定となった場合であり、矩形領域Sの周辺で顔を含む可能性が高いために次の対象矩形領域S’へのステップ幅は小さくなっており、前の対象矩形領域Sとの重なりが大きくなっている。一方、図6(b)は低階層、ここでは第3階層でNG判定となった場合であり、矩形領域Sの周辺で顔を含む可能性が低いために次の対象矩形領域S’へのステップ幅が大きくなっており、前の対象矩形領域Sとの重なりがないものとなっている。
FIG. 6 shows an example of a change in the step width to the next rectangular area S ′ according to the hierarchy L.
FIG. 6A shows a case where the NG determination is made in the higher hierarchy, here, all the hierarchies N, in the hierarchy N-1, and the possibility of including a face around the rectangular area S is high. The step width to the rectangular area S ′ is small, and the overlap with the previous target rectangular area S is large. On the other hand, FIG. 6B shows a case where an NG determination is made in the lower hierarchy, here, the third hierarchy. Since there is a low possibility of including a face around the rectangular area S, the next target rectangular area S ′ is displayed. The step width is large, and there is no overlap with the previous target rectangular area S.

このとき、前記評価値に反比例する関係で、次の矩形領域S’へのステップ幅を設定するとよい。あるいは評価値が大きければステップ幅を小さくし、評価値が小さければステップ幅を大きくするようにしてもよい。この実施例では、横幅がWの矩形領域Sでスキャンしているとき、階層nでNGとなった場合の次の矩形領域へのステップ幅Stは、St=W*(N−n)/Nで算出するものとする。   At this time, the step width to the next rectangular area S ′ may be set in a relationship inversely proportional to the evaluation value. Alternatively, the step width may be reduced if the evaluation value is large, and the step width may be increased if the evaluation value is small. In this embodiment, when scanning is performed in a rectangular area S having a horizontal width W, the step width St to the next rectangular area in the case of NG in the hierarchy n is St = W * (N−n) / N It shall be calculated by

ある対象矩形領域について顔であるか否かの評価がなされた時、もし顔検出対象領域全体をスキャンし終えていれば(S109のYes)、当該画像に対する顔検出処理は終了とし、ついで顔検出モードが継続される場合(S111のYes)は、ステップS101に戻ってモニタリングデータから新たに画像をコピーし、その画像に対して同様に顔検出処理を実施する。顔検出モードを継続しない場合(S111のNo)にはここで処理を終了する(END)。   When it is evaluated whether or not a certain target rectangular area is a face, if the entire face detection target area has been scanned (Yes in S109), the face detection processing for the image ends, and then face detection is performed. When the mode is continued (Yes in S111), the process returns to step S101, a new image is copied from the monitoring data, and face detection processing is similarly performed on the image. If the face detection mode is not continued (No in S111), the process ends here (END).

以上のように、対象矩形領域Sの評価値(クリアした階層数)が所定レベル(最上位の階層)よりも低い時、すなわち顔である可能性が低い時には、その領域は顔でない(顔を含まない)と判断して、次の矩形領域S’は元の矩形領域Sと重ならない、あるいは重なりが小さくなるようなステップ幅Stとすることで計算量を減らして検出処理を高速化することができる。また、対象矩形領域Sについて、階層的に判断していくことにより、顔である可能性が低い矩形領域は早い段階の階層で顔でない(顔を含まない)と判断されて次の矩形領域に移るため、計算量が少なくなり検出処理を高速化することが可能となる。   As described above, when the evaluation value (the number of cleared layers) of the target rectangular region S is lower than a predetermined level (the highest layer), that is, when the possibility of being a face is low, the region is not a face (the face is The next rectangular area S ′ is not overlapped with the original rectangular area S, or the step width St is such that the overlap is reduced, thereby reducing the amount of calculation and speeding up the detection process. Can do. Further, by determining the target rectangular area S in a hierarchical manner, a rectangular area having a low possibility of being a face is determined not to be a face (not including a face) at an early stage, and the next rectangular area is determined. Therefore, the amount of calculation is reduced, and the detection process can be speeded up.

( 第2の実施形態 )
図7に、実施例2における顔検出・顔認証処理のフローを示す。
カメラ10の動作モードが顔検出処理を実施するモードである時、顔検出モジュールはモニタリング画像の中からあるタイミングで一枚の画像データ(以下、画像ともいう)をコピーする(S201)。CPU105cは、コピーした画像に対して顔検出処理を実施し、画像内に人物の顔があるか否かを判断する。
(Second Embodiment)
FIG. 7 shows a flow of face detection / face authentication processing in the second embodiment.
When the operation mode of the camera 10 is a mode for performing face detection processing, the face detection module copies one piece of image data (hereinafter also referred to as an image) from the monitoring image at a certain timing (S201). The CPU 105c performs face detection processing on the copied image, and determines whether there is a human face in the image.

顔検出処理はあらかじめメモリ(SDRAM106)内に多数保持している人物の顔の特徴データと画像20内の対称矩形領域Sとの類似度の総和を対象矩形領域と特徴データの類似度として算出していくものとする。ここで、顔の特徴データと類似度の算出方法については実施例1と同じとする。   In the face detection process, the sum of the similarities between the feature data of a person's face that is stored in advance in the memory (SDRAM 106) and the symmetric rectangular region S in the image 20 is calculated as the similarity between the target rectangular region and the feature data. Shall be. Here, the facial feature data and the similarity calculation method are the same as those in the first embodiment.

つぎに、画像の中から最初の対象矩形領域を決定する(S202)。ここでは実施例1と同様に画像の左上の端とする。本実施例においても実施例1と同様に、図5に示すように画像20の左上の端から右下の端まで順に対象矩形領域Sを所定のステップ幅で少しずつずらしながらステップスキャンしていくものとする。   Next, the first target rectangular area is determined from the image (S202). Here, as in the first embodiment, the upper left edge of the image is used. In this embodiment, as in the first embodiment, step scanning is performed while gradually shifting the target rectangular area S by a predetermined step width from the upper left end to the lower right end of the image 20 as shown in FIG. Shall.

ここで、顔検出モジュールは、対象矩形領域Sにおける小画像データとテンプレートデータ(顔の特徴データ)との類似度を求め、該類似度が閾値以上であれば人物の顔を含むと評価する。すなわち、最初にステップS202で決定した対象矩形領域Sについて、特徴データとの類似度を算出する(S203)。つぎに、該類似度と予め設定された閾値とを比較して(S204)、類似度が所定の閾値以上であれば対象矩形領域は顔の特徴データとマッチしたものとする(クリア判定、S204のYes)。そして、対象矩形領域Sが特徴データとマッチすればその対象矩形領域は顔である(あるいは顔を含む)としてメモリ(SDRAM106)に矩形領域の情報を登録する(S206)。   Here, the face detection module obtains the similarity between the small image data and the template data (face feature data) in the target rectangular area S, and evaluates that the human face is included if the similarity is equal to or greater than a threshold value. That is, the similarity with the feature data is calculated for the target rectangular area S first determined in step S202 (S203). Next, the similarity is compared with a preset threshold value (S204), and if the similarity is equal to or greater than a predetermined threshold value, the target rectangular area matches the facial feature data (clear determination, S204). Yes). When the target rectangular area S matches the feature data, the target rectangular area is registered as the face (or includes a face) in the memory (SDRAM 106) (S206).

対象矩形領域が顔であるか否かの判断を終え、画像20内の顔検出対象領域でスキャンしていない領域が残っていれば(S206のNo)、直前の対象矩形領域Sにおいて行われた前記評価での人物の顔を含む確からしさの程度である評価値に基づいて、次の矩形領域S’へのステップ幅を設定する。すなわち、直前の矩形対象領域Sにおける前記テンプレートデータ(特徴データ)との類似度に基づいて次の対象矩形領域S’を決定するステップ幅を算出する(S207)。   If it is determined whether or not the target rectangular area is a face, and there is an unscanned area in the face detection target area in the image 20 (No in S206), the process was performed in the immediately preceding target rectangular area S. A step width to the next rectangular area S ′ is set based on an evaluation value that is a degree of probability including the human face in the evaluation. That is, the step width for determining the next target rectangular area S ′ is calculated based on the similarity to the template data (feature data) in the immediately preceding rectangular target area S (S207).

図8に、対象矩形領域の類似度に基づくステップ幅の変更の例を示す。ここでは、直前の対象矩形領域Sの横幅がW、類似度がSimiであり、それに応じたステップ幅Stは図8(a)に示すように、St=W/Simiとして算出され、次の対象矩形領域S’は直前の対象矩形領域Sからステップ幅Stだけ右にずれた領域となる(図8(b))。   FIG. 8 shows an example of changing the step width based on the similarity of the target rectangular area. Here, the width of the immediately preceding target rectangular area S is W, the similarity is Simi, and the step width St corresponding thereto is calculated as St = W / Simi as shown in FIG. The rectangular area S ′ is an area shifted to the right by the step width St from the immediately preceding target rectangular area S (FIG. 8B).

ある対象矩形領域について顔であるか否かの判断がなされた時、もし顔検出対象領域全体をスキャンし終えていれば(S206のYes)、当該画像に対する顔検出処理は終了とし、顔検出モードが継続される場合(S208のYes)は、ステップS201に戻りモニタリングデータから新たに画像をコピーし、その画像に対して同様に顔検出処理を実施する。顔検出モードを継続しない場合(S208のNo)にはここで処理を終了する(END)。   When it is determined whether or not a certain target rectangular area is a face, if the entire face detection target area has been scanned (Yes in S206), the face detection process for the image is terminated and the face detection mode is completed. Is continued (Yes in S208), the process returns to step S201, a new image is copied from the monitoring data, and the face detection process is similarly performed on the image. If the face detection mode is not continued (No in S208), the process ends here (END).

以上のように、対象矩形領域Sの評価値(テンプレートデータ(特徴データ)との類似度)が所定レベル(閾値)よりも低い時、すなわち顔である可能性が低い時には、その領域は顔でない(顔を含まない)と判断して、次の矩形領域S’は元の矩形領域Sと重ならない、あるいは重なりが小さくなるようなステップ幅Stとすることで計算量を減らして検出処理を高速化することができる。   As described above, when the evaluation value (similarity with template data (feature data)) of the target rectangular area S is lower than a predetermined level (threshold), that is, when the possibility of being a face is low, the area is not a face. Since the next rectangular area S ′ is determined not to include a face, the next rectangular area S ′ is not overlapped with the original rectangular area S, or the step width St is set so as to reduce the overlap, thereby reducing the amount of calculation and speeding up the detection process. Can be

なお、これまで本発明を図面に示した実施形態をもって説明してきたが、本発明は図面に示した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   Although the present invention has been described with the embodiments shown in the drawings, the present invention is not limited to the embodiments shown in the drawings, and other embodiments, additions, modifications, deletions, etc. Can be changed within the range that can be conceived, and any embodiment is included in the scope of the present invention as long as the effects and advantages of the present invention are exhibited.

本発明に係る撮像装置であるデジタルカメラの構成を示す外観図である。1 is an external view illustrating a configuration of a digital camera that is an imaging apparatus according to the present invention. 図1のデジタルカメラの撮像システムの概要を示すブロック図である。It is a block diagram which shows the outline | summary of the imaging system of the digital camera of FIG. 実施例1における顔検出モードの処理手順を示すフローチャートである。6 is a flowchart illustrating a processing procedure in a face detection mode according to the first exemplary embodiment. 本発明で用いる特徴データの説明図である。It is explanatory drawing of the characteristic data used by this invention. 画像データにおけるステップスキャンの様子を示す図である。It is a figure which shows the mode of the step scan in image data. 実施例1における評価値に応じたステップ幅の変更例の説明図である。It is explanatory drawing of the example of a change of the step width according to the evaluation value in Example 1. FIG. 実施例2における顔検出モードの処理手順を示すフローチャートである。12 is a flowchart illustrating a processing procedure in a face detection mode according to the second embodiment. 実施例2における評価値に応じたステップ幅の変更例の説明図である。It is explanatory drawing of the example of a change of the step width according to the evaluation value in Example 2. FIG.

符号の説明Explanation of symbols

1 電源釦
2 撮影/再生切り替えダイアル
3 レリーズ釦
4 光学ファインダ
5 LCDディスプレイ
6 撮影レンズ
7 フラッシュ
10 カメラ(デジタルカメラ)
20 画像(画像データ)
101 レンズ(ズーム/AFレンズ)
102 絞りとカラーフィルタ
103 メカシャッタ
104 撮像センサー
104a 受光センサー
104b A/D変換器
105 信号処理IC
105a センサーI/F部
105b メモリーコントローラ
105c CPU
105d YUV変換部
105e 画像圧縮伸張回路
105f 表示出力制御部
105g リサイズ処理部
105h メディアI/F部
106 SDRAM(メモリ)
107 操作部
108 モータドライバ
109 ROM
S,S’ 矩形領域
S1,S2,S3,S4,S5,S6,S7 小矩形
1 Power button 2 Shooting / playback dial 3 Release button 4 Optical viewfinder 5 LCD display 6 Shooting lens 7 Flash 10 Camera (digital camera)
20 images (image data)
101 lens (zoom / AF lens)
102 Aperture and Color Filter 103 Mechanical Shutter 104 Image Sensor 104a Light Receiving Sensor 104b A / D Converter 105 Signal Processing IC
105a Sensor I / F part 105b Memory controller 105c CPU
105d YUV conversion unit 105e Image compression / decompression circuit 105f Display output control unit 105g Resize processing unit 105h Media I / F unit 106 SDRAM (memory)
107 Operation unit 108 Motor driver 109 ROM
S, S 'rectangular area S1, S2, S3, S4, S5, S6, S7 small rectangle

Claims (4)

被写体に応じた画像データを出力する撮像手段と、
前記撮像手段から出力される画像データ内において、所定画像サイズの矩形領域を所定ステップ幅だけずらして対象位置を変更するステップスキャンを行いながら、各ステップ位置における前記矩形領域の小画像データごとに該小画像データが人物の顔を含むか否かを評価して、人物の顔を検出する顔検出機能と、を備える撮像装置であって、
前記顔検出機能は、あるステップ位置の矩形領域において行われた前記評価での人物の顔を含む確からしさの程度である評価値に基づいて、次の矩形領域へのステップ幅を設定し、ステップスキャンを行うことを特徴とする撮像装置。
Imaging means for outputting image data according to the subject;
In the image data output from the imaging means, while performing a step scan that changes the target position by shifting a rectangular area of a predetermined image size by a predetermined step width, the small image data of the rectangular area at each step position A face detection function for evaluating whether the small image data includes a person's face and detecting the person's face,
The face detection function sets a step width to the next rectangular area based on an evaluation value that is a degree of certainty including a human face in the evaluation performed in the rectangular area at a certain step position, An imaging apparatus that performs scanning.
前記顔検出機能は、前記矩形領域における小画像データに対して、人物の顔を含むか否かを階層的に判定し、最上位の階層での判定をクリアすると人物の顔を含むと評価するものであり、
前記評価値は、クリアした階層数に基づいて決定されることを特徴とする請求項1に記載の撮像装置。
The face detection function hierarchically determines whether or not the small image data in the rectangular area includes a human face, and evaluates that the human face is included if the determination in the highest hierarchy is cleared. Is,
The imaging apparatus according to claim 1, wherein the evaluation value is determined based on a cleared number of hierarchies.
前記顔検出機能は、前記矩形領域における小画像データと顔の特徴データであるテンプレートデータとの類似度を求め、該類似度が閾値以上であれば人物の顔を含むと評価するものであり、
前記評価値は、前記テンプレートデータとの類似度に基づいて決定されることを特徴とする請求項1に記載の撮像装置。
The face detection function obtains the similarity between the small image data in the rectangular area and the template data that is facial feature data, and evaluates that the human face is included if the similarity is equal to or greater than a threshold value.
The imaging apparatus according to claim 1, wherein the evaluation value is determined based on a similarity with the template data.
前記顔検出機能は、前記評価値に反比例する関係で、次の矩形領域へのステップ幅を設定し、ステップスキャンを行うことを特徴とする請求項2または3に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the face detection function performs step scanning by setting a step width to the next rectangular area in a relationship inversely proportional to the evaluation value.
JP2008186161A 2008-07-17 2008-07-17 Imaging device Pending JP2010028370A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008186161A JP2010028370A (en) 2008-07-17 2008-07-17 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008186161A JP2010028370A (en) 2008-07-17 2008-07-17 Imaging device

Publications (1)

Publication Number Publication Date
JP2010028370A true JP2010028370A (en) 2010-02-04

Family

ID=41733797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008186161A Pending JP2010028370A (en) 2008-07-17 2008-07-17 Imaging device

Country Status (1)

Country Link
JP (1) JP2010028370A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258180A (en) * 2010-05-10 2011-12-22 Casio Comput Co Ltd Subject tracking apparatus, subject tracking method, and program
WO2013132836A1 (en) * 2012-03-05 2013-09-12 パナソニック株式会社 Object detection device, object detection method, and object detection program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258180A (en) * 2010-05-10 2011-12-22 Casio Comput Co Ltd Subject tracking apparatus, subject tracking method, and program
US8878939B2 (en) 2010-05-10 2014-11-04 Casio Computer Co., Ltd. Apparatus and method for subject tracking, and recording medium storing program thereof
WO2013132836A1 (en) * 2012-03-05 2013-09-12 パナソニック株式会社 Object detection device, object detection method, and object detection program
US9400929B2 (en) 2012-03-05 2016-07-26 Panasonic Intellectual Property Management Co., Ltd. Object detection device and method for detecting an object by performing a raster scan on a scan window

Similar Documents

Publication Publication Date Title
US8723976B2 (en) Imaging device and storage medium
JP4674471B2 (en) Digital camera
JP6106921B2 (en) Imaging apparatus, imaging method, and imaging program
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
JP5736796B2 (en) Electronic camera, program and recording medium
JP5720275B2 (en) Imaging apparatus and imaging method
JP4974812B2 (en) Electronic camera
CN105934940B (en) Image processing apparatus, method and program
JP2008276214A (en) Digital camera
JPWO2017037978A1 (en) DETECTING DEVICE, DETECTING METHOD, DETECTING PROGRAM, AND IMAGING DEVICE
JP4127521B2 (en) Digital camera and control method thereof
JP4802884B2 (en) Imaging apparatus, captured image recording method, and program
JP2009010616A (en) Imaging device and image output control method
JP5027580B2 (en) Imaging apparatus, method, and program
JP2007199311A (en) Image display device and imaging apparatus
KR20120080376A (en) Digital image photographing apparatus and method for controlling the same
WO2018196854A1 (en) Photographing method, photographing apparatus and mobile terminal
JP5509621B2 (en) Image processing apparatus, camera, and program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP6172973B2 (en) Image processing device
JP2010028370A (en) Imaging device
JP2012074894A (en) Electronic camera
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP2011055272A (en) Imaging apparatus and imaging method
JP2011130243A (en) Image processing apparatus, image processing method, and image input device