JP5664559B2 - Imaging device and specific image detection program - Google Patents

Imaging device and specific image detection program Download PDF

Info

Publication number
JP5664559B2
JP5664559B2 JP2012000937A JP2012000937A JP5664559B2 JP 5664559 B2 JP5664559 B2 JP 5664559B2 JP 2012000937 A JP2012000937 A JP 2012000937A JP 2012000937 A JP2012000937 A JP 2012000937A JP 5664559 B2 JP5664559 B2 JP 5664559B2
Authority
JP
Japan
Prior art keywords
image
detection
specific image
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012000937A
Other languages
Japanese (ja)
Other versions
JP2012108530A (en
Inventor
永友 正一
正一 永友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012000937A priority Critical patent/JP5664559B2/en
Publication of JP2012108530A publication Critical patent/JP2012108530A/en
Application granted granted Critical
Publication of JP5664559B2 publication Critical patent/JP5664559B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影中における特定顔画の検出機能を備えた撮像装置、及び、特定画像検出プログラムに関する。   The present invention relates to an imaging apparatus having a function for detecting a specific face during shooting, and a specific image detection program.

近年、撮影中における顔検出機能を備えたデジタルカメラが登場するに至っている。この種の機能を備えたデジタルカメラは、顔画像を特定するための情報を予め記憶し、撮影モードにおいて、逐次スルー表示される撮像画像に前記情報で特定可能な顔画像が含まれているか否かを判断する。そして、含まれている場合は、シャッターキーの半押しを検出した時点で、顔画像が含まれている画像領域を特定し、この画像領域に対して合焦処理を行うとともにAE処理を行う(例えば、特許文献1参照)。   In recent years, digital cameras equipped with a face detection function during shooting have been introduced. A digital camera having this type of function stores information for specifying a face image in advance, and whether or not a face image that can be specified by the information is included in captured images that are sequentially displayed through in the shooting mode. Determine whether. If it is included, when the half-press of the shutter key is detected, the image area including the face image is specified, and the focusing process and the AE process are performed on the image area ( For example, see Patent Document 1).

特開2007−10898号公報JP 2007-10898 A

しかしながら、前述した機能を有するデジタルカメラにおいては、スルー表示される撮像画像中に顔画像が複数存在すると、撮影者が合焦処理させたい被写体人物の顔画像を検出せず、記録を意図しない被写体人物の顔画像を検出したり、あるいはスルー表示される撮像画像中の全ての被写体人物の顔画像が検出されてしまう場合が生ずる。その結果、撮影者がデジタルカメラに対し合焦処理を指示すべくシャッターキーを半押し操作すると、撮影者が意図しない人物の顔画像領域を合焦すべき領域として判断してしまう可能性がある。   However, in the digital camera having the above-described function, if there are a plurality of face images in the captured image displayed through, the subject that the photographer does not detect the face image of the subject to be focused on and the subject is not intended to be recorded There are cases where a face image of a person is detected, or face images of all the subject persons in a captured image displayed through. As a result, when the photographer performs a half-press operation on the shutter key to instruct the digital camera to perform the focusing process, there is a possibility that the face image area of the person not intended by the photographer is determined as the area to be focused. .

この場合、撮影者は、合焦すべき領域として指示したい人物の顔画像が検出されるまで、シャッターキーの半押し操作、及びその解除を繰り返さなくてはならず、その結果、撮影記録までに時間を要してしまうという問題が生じる可能性があった。   In this case, the photographer must repeat the half-press operation of the shutter key and the release thereof until the face image of the person to be designated as the area to be focused is detected. There was a possibility that the problem of taking time would arise.

本発明は、かかる従来の課題に鑑みてなされたものであり、撮影者が望む検出精度で特定画像の検出を伴う記録を可能とする撮像装置、及び、顔領域検出プログラムを提供することを目的とする。   The present invention has been made in view of such conventional problems, and an object of the present invention is to provide an imaging apparatus and a face area detection program that enable recording with detection of a specific image with detection accuracy desired by a photographer. And

前記課題を解決するため請求項1記載の発明にあっては、撮像手段と、この撮像手段によって逐次撮像される画像に合焦すべき特定画像が含まれているか否かを判断する判断手段と、この判断手段により前記特定画像が含まれていると判断された場合、この特定画像の個数を計数する計数手段と、合焦処理を指示する第1の指示手段と、この第1の指示手段により合焦処理が指示されると、前記判断手段により前記特定画像が含まれていると判断された場合には、この特定画像が存在する画像領域を合焦位置として合焦処理を行う合焦手段と、この合焦手段による合焦処理の後、前記画像の記録を指示する第2の指示手段と、この第2の指示手段により記録が指示されたと判断すると前記画像を記録手段に記録する一方、記録が指示されずに前記第1の指示手段による指示が解除されたと判断し、且つ、前記計数手段によって計数された個数が所定値以上のときには、前記判断手段による前記合焦すべき特定画像の検出の精度を下げるよう制御する制御手段と、を備えることを特徴とする。 In order to solve the above-mentioned problem, in the invention according to claim 1, an image pickup means and a determination means for determining whether or not a specific image to be focused is included in images sequentially picked up by the image pickup means. When the determination unit determines that the specific image is included, the counting unit that counts the number of the specific images, the first instruction unit that instructs the focusing process, and the first instruction unit If the determination unit determines that the specific image is included, the in-focus processing is performed with the image area where the specific image is present as the in-focus position. And a second instruction means for instructing recording of the image after the focusing process by the focusing means, and recording the image on the recording means when it is determined that the recording is instructed by the second instruction means. On the other hand, recording is not instructed Determines that the instructions by the serial first instruction means is released, and, as the number counted by the counting means when the predetermined value or more, reducing the accuracy of detection of the specific image to be focused the alloy by the determination means Control means for controlling.

また、請求項2記載の発明にあっては、請求項1記載の発明において、前記制御手段は、前記計数手段によって計数した個数が前記所定値未満であるときに、前記判断手段による前記合焦すべき特定画像の検出の精度を上げるよう制御することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, when the number counted by the counting unit is less than the predetermined value, the control unit performs the focusing by the determining unit. Control is performed to increase the accuracy of detection of a specific image to be performed.

また、請求項記載の発明にあっては、請求項1又は2記載の発明において、前記特定画像は特定量で定義付けられた情報であり、この情報を前記精度毎に複数記憶する特定画像情報記憶手段と、この特定画像情報記憶手段より所定の精度に対応する情報を読み出す読出手段と、を更に備え、前記判断手段は、前記読出手段によって読み出された情報に基づいて前記逐次撮像される画像に合焦すべき特定画像が含まれるか否かを判断することを特徴とする。 According to a third aspect of the invention, in the first or second aspect of the invention, the specific image is information defined by a specific amount , and a plurality of specific images are stored for each accuracy. An information storage unit; and a reading unit that reads information corresponding to a predetermined accuracy from the specific image information storage unit, and the determination unit is sequentially imaged based on the information read by the reading unit. It is determined whether or not a specific image to be focused is included in the image to be focused.

また、請求項記載の発明にあっては、請求項1乃至3のいずれか記載の発明において、前記撮像画像が人物を撮像したものであるとき、前記特定画像は当該人物の顔画像であることを特徴とする。 According to a fourth aspect of the invention, in the invention according to any one of the first to third aspects, when the captured image is an image of a person, the specific image is a face image of the person. It is characterized by that.

また、請求項5記載の発明にあっては、撮像手段を備える装置が有するコンピュータを、 前記撮像手段によって逐次撮像される画像に合焦すべき特定画像が含まれているか否かを判断する判断手段、この判断手段により前記特定画像が含まれていると判断された場合、この特定画像の個数を計数する計数手段、合焦処理を指示する第1の指示手段、この第1の指示手段により合焦処理が指示されると、前記判断手段により前記特定画像が含まれていると判断された場合には、この特定画像が存在する画像領域を合焦位置として合焦処理を行う合焦手段、この合焦手段による合焦処理の後、前記画像の記録を指示する第2の指示手段と、この第2の指示手段により記録が指示されたと判断すると前記画像を記録手段に記録する一方、記録が指示されずに前記第1の指示手段による指示が解除されたと判断し、且つ、前記計数手段によって計数された個数が所定値以上のときには、前記判断手段による前記合焦すべき特定画像の検出の精度を下げるよう制御する制御手段、として機能させることを特徴とする。 Further, in the invention according to claim 5, the computer having the apparatus having the imaging unit determines whether or not a specific image to be focused is included in the images sequentially captured by the imaging unit. Means, when the determination means determines that the specific image is included, the counting means for counting the number of the specific images, the first instruction means for instructing the focusing process, and the first instruction means. When the focusing process is instructed, when the determining unit determines that the specific image is included, the focusing unit performs the focusing process with the image area where the specific image is present as the in-focus position. After the focusing process by the focusing means, a second instruction means for instructing recording of the image, and if it is determined that the recording is instructed by the second instruction means, the image is recorded in the recording means, Recording directed If it is determined that the instruction by the first instruction unit has been canceled and the number counted by the counting unit is equal to or greater than a predetermined value , the accuracy of detection of the specific image to be focused by the determination unit It is made to function as a control means for controlling to lower the pressure .

本発明によれば、撮影者が望む検出精度で特定画像を検出し、記録することができる。 According to the present invention, a specific image can be detected and recorded with detection accuracy desired by a photographer .

本発明の一実施の実施形態に係るデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 顔用辞書セットの構成を示す概念図である。It is a conceptual diagram which shows the structure of the dictionary set for faces. 回転角度を示す説明図である。It is explanatory drawing which shows a rotation angle. (a)は画素領域範囲を示す説明図であり、(b)は画素領域範囲とされる大領域、中領域、小領域を示す図である。(A) is explanatory drawing which shows a pixel area range, (b) is a figure which shows the large area, medium area, and small area which are made into a pixel area range. 検出精度設定部の設定内容を示す図である。It is a figure which shows the setting content of a detection accuracy setting part. 第1の実施の形態における表示遷移図である。It is a display transition diagram in a 1st embodiment. 第1の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 1st Embodiment. 第2の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 2nd Embodiment. 第3の実施の形態における表示遷移図である。It is a display transition diagram in a 3rd embodiment. 第3の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 3rd Embodiment.

以下、本発明の一実施の形態を図にしたがって説明する。
(第1の実施の形態)
図1は、本発明の各実施の形態に共通するデジタルカメラの概略構成を示すブロック図である。このデジタルカメラはAE(自動露出)、AF(オートフォーカス)、顔領域検出の各機能を備えたものであって、主として以下の各部から構成されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of a digital camera common to the respective embodiments of the present invention. This digital camera has functions of AE (automatic exposure), AF (autofocus), and face area detection, and mainly includes the following parts.

すなわちデジタルカメラは、光学系1により結像された被写体の光学像を光電変換し撮像信号として出力する撮像手段としてCCD2を有している。CCD2は、タイミングジェネレータ(TG)3により生成されるタイミング信号に基づきCCD駆動回路4によって生成される駆動信号により駆動される。CCD2の出力信号はA/D変換器5でデジタル信号に変換された後、画像処理部6へ送られる。   That is, the digital camera has a CCD 2 as an imaging unit that photoelectrically converts an optical image of a subject imaged by the optical system 1 and outputs it as an imaging signal. The CCD 2 is driven by a drive signal generated by a CCD drive circuit 4 based on a timing signal generated by a timing generator (TG) 3. The output signal of the CCD 2 is converted into a digital signal by the A / D converter 5 and then sent to the image processing unit 6.

前記光学系1には、フォーカスレンズ及びそれを光軸上で移動させるためのレンズモータが含まれ、レンズモータが制御部7の指令に従いレンズ駆動回路8により生成される駆動信号によって駆動されることによりフォーカスレンズが光軸上での位置を制御される。   The optical system 1 includes a focus lens and a lens motor for moving the focus lens on the optical axis, and the lens motor is driven by a drive signal generated by the lens drive circuit 8 in accordance with a command from the control unit 7. Thus, the position of the focus lens on the optical axis is controlled.

前記画像処理部6は、A/D変換後の撮像信号に対して、画素毎のR,G,Bの色成分データ(RGBデータ)を生成するRGB補間処理、RGBデータから輝度信号(Y)と色差信号(U、V)からなるYUVデータを画素毎に生成するYUV変換処理、さらにオートホワイトバランスや輪郭強調などの画品質向上のためのデジタル信号処理を行う。画像処理部6で変換されたYUVデータは順次SDRAM9に格納される。   The image processing unit 6 performs RGB interpolation processing for generating R, G, and B color component data (RGB data) for each pixel with respect to the imaging signal after A / D conversion, and luminance signal (Y) from the RGB data. And YUV conversion processing for generating YUV data consisting of color difference signals (U, V) for each pixel, and digital signal processing for improving image quality such as auto white balance and edge enhancement. The YUV data converted by the image processing unit 6 is sequentially stored in the SDRAM 9.

また、デジタルカメラは、液晶モニタ及びその駆動回路から構成される表示部10を有している。撮影用の記録モードが設定されているときSDRAM9に格納されたYUVデータは、SDRAM9において1フレーム分が蓄積される毎に画像処理部6においてビデオ信号に変換された後、表示部10(液晶モニタ)においてスルー画像として画面表示される。そして、記録モードにおける撮影時には、SDRAM9に一時記憶された画像データがJPEG変換部11においてJPEG方式により圧縮符号化された後、外部メモリI/F12を介して、例えば各種のメモリカードにより構成される外部メモリ13に静止画ファイルとして記録される。   In addition, the digital camera has a display unit 10 including a liquid crystal monitor and a driving circuit thereof. When the recording mode for shooting is set, the YUV data stored in the SDRAM 9 is converted into a video signal in the image processing unit 6 every time one frame is accumulated in the SDRAM 9, and then the display unit 10 (liquid crystal monitor). ) Is displayed on the screen as a through image. When shooting in the recording mode, the image data temporarily stored in the SDRAM 9 is compressed and encoded by the JPEG conversion unit 11 using the JPEG method, and then configured by, for example, various memory cards via the external memory I / F 12. It is recorded in the external memory 13 as a still image file.

前記外部メモリ13に記録された静止画ファイルは、再生モードにおいてユーザーの選択操作に応じて適宜読み出されるとともに、JPEG変換部11において伸張されYUVデータとしてSDRAM9に展開された後、表示部10において静止画像として表示される。   The still image file recorded in the external memory 13 is appropriately read in accordance with the user's selection operation in the reproduction mode, is decompressed by the JPEG conversion unit 11 and developed as SDRAM data on the SDRAM 9, and then is statically displayed on the display unit 10. Displayed as an image.

キー入力ブロック14は、シャッターキー141や図示しないモード選択キー、電源キーやMENUキー等の複数キーを含み、各キーの操作状態を制御部7により随時スキャンされる。尚、シャッターキー141は、ユーザーが撮影予告を行うための半押し位置と、実際の撮影動作を指示するための全押し位置との2段階の操作が可能な所謂ハーフシャッター機能を有するものである。   The key input block 14 includes a plurality of keys such as a shutter key 141, a mode selection key (not shown), a power key, and a MENU key, and the operation state of each key is scanned by the control unit 7 as needed. Note that the shutter key 141 has a so-called half shutter function capable of two-step operation, that is, a half-pressed position for a user to make a shooting preview and a full-pressed position for instructing an actual shooting operation. .

制御部7は、CPU及びその周辺回路等とから構成され、デジタルカメラの各部の制御、及び、撮像信号に含まれる輝度情報に基づいたAE制御や、コントラスト検出方式によるAF制御、後述の顔領域検出制御等を行う。尚、これらの制御を制御部7に行わせるための各種のプログラムや、各々の制御に必要な各種データは、記憶データの書き換えが可能な不揮発性メモリであるフラッシュメモリ16に記憶されている。また、フラッシュメモリ16には、顔検出モード設定テーブル161を含め、当該デジタルカメラの各種の機能に関する設定情報等も記憶されている。顔検出モード設定テーブル161は、顔画像の検出精度Lv.1〜Lv.3をフラグ情報で記憶するテーブルであり、
Lv.1〜Lv.3は、
Lv.1=検出精度は荒い(低い)が、検出速度は速い。
Lv.2=検出精度ほぼ中間レベル
Lv.3=検出精度は細かい(高い)が、検出速度は遅い。
という関係にある。
The control unit 7 is composed of a CPU and its peripheral circuits, etc., and controls each part of the digital camera, AE control based on luminance information included in the imaging signal, AF control by a contrast detection method, and a face area described later Perform detection control. Various programs for causing the control unit 7 to perform these controls and various data necessary for each control are stored in the flash memory 16 which is a nonvolatile memory capable of rewriting stored data. The flash memory 16 also stores setting information regarding various functions of the digital camera, including a face detection mode setting table 161. The face detection mode setting table 161 is a table that stores face image detection accuracy Lv.1 to Lv.3 as flag information.
Lv.1-Lv.3 is
Lv.1 = The detection accuracy is rough (low), but the detection speed is fast.
Lv.2 = Detection accuracy Almost intermediate level Lv.3 = The detection accuracy is fine (high), but the detection speed is slow.
There is a relationship.

顔認識処理部15は、画像処理部6によって生成された1フレーム分の画像データにおいて、後述の顔特徴辞書を用いて被写体像の顔画像を検出する顔画像検出処理を行う。より具体的には、前記1フレーム分の画像データを一時記憶するフレームメモリと、顔画像検出動作に必要な各種の画像処理を行うための画像処理回路が設けられているとともに、辞書セット151、検出個数設定部152、回転角度設定部153、範囲設定部154、及び検出精度設定部155が設けられている。   The face recognition processing unit 15 performs face image detection processing for detecting a face image of a subject image using a face feature dictionary described later in the image data for one frame generated by the image processing unit 6. More specifically, a frame memory for temporarily storing the image data for one frame, an image processing circuit for performing various image processing necessary for the face image detection operation, and a dictionary set 151, A detection number setting unit 152, a rotation angle setting unit 153, a range setting unit 154, and a detection accuracy setting unit 155 are provided.

図2は、前記辞書セット151を示す構成図である。この辞書セット151は、複数個(N個)の特徴辞書A〜Nが記憶されている。特徴辞書A〜Nは、夫々が、例えば顔画像の複数の部位(目、鼻、口)の形状や大きさ、顔画像の輪郭、略正面方向から見た場合の各部位の位置等を特徴量情報として、年齢別等に分けて複数個登録されている。顔認識処理部15は、撮像した結果得られたYUVデータについて所定面積の画像領域(後述する画素領域範囲21)を順次読み出し、この画像領域(画素領域範囲21)に対してエッジ抽出等を行って特徴量を算出し、この算出した特徴量と辞書セット151内の特徴辞書A〜Nに登録される特徴量との夫々の一致度を評価して評価値を制御部7に出力する。制御部7はこれらの評価値が入力されることにより、所定面積の画像領域のうち最も評価値の高いもの、すなわち略一致している場合に、顔画像が存在するものとして判断する。   FIG. 2 is a configuration diagram showing the dictionary set 151. The dictionary set 151 stores a plurality (N) of feature dictionaries A to N. Each of the feature dictionaries A to N is characterized by, for example, the shape and size of a plurality of parts (eyes, nose, mouth) of the face image, the outline of the face image, the position of each part when viewed from a substantially front direction, and the like. A plurality of pieces of information are registered for each age group. The face recognition processing unit 15 sequentially reads out an image area (a pixel area range 21 described later) of YUV data obtained as a result of imaging, and performs edge extraction and the like on the image area (pixel area range 21). The feature amount is calculated, the degree of coincidence between the calculated feature amount and the feature amount registered in the feature dictionary A to N in the dictionary set 151 is evaluated, and the evaluation value is output to the control unit 7. When these evaluation values are input, the control unit 7 determines that a face image exists when the image area having a predetermined area has the highest evaluation value, that is, substantially matches.

検出個数設定部152は、1フレーム分の画像データにおける顔画像の検出個数の上限を設定するものであり、本実施の形態において設定される上限の個数は「1」、「3」、「8」のいずれかである。   The detection number setting unit 152 sets the upper limit of the number of detected face images in image data for one frame, and the upper limit number set in the present embodiment is “1”, “3”, “8”. Any of the above.

回転角度設定部153には、顔の許容回転角度を設定するものであり、本実施の形態において設定される許容回転角度は、図3に示すように、「±α」、「±β(>α)」、「±γ(>β)」のいずれかである。   The rotation angle setting unit 153 sets an allowable rotation angle of the face, and the allowable rotation angle set in the present embodiment is “± α”, “± β (>) as shown in FIG. α) ”or“ ± γ (> β) ”.

範囲設定部154は、1フレーム分の画像における顔画像を検出するための領域を設定するものであり、本実施の形態における検出領域は、「大領域」、「中領域」、「小領域」の三種類である。すなわち、図4(a)に示すように、CCD2の撮像面20において、検出すべき顔画像の大きさに対応する矩形の検出領域21を設定し、この検出領域21を順次移動させることにより顔画像の検出を試みる。この検出領域21については、図4(b)に示すように、最も大きい領域(−x3,−y3)−(x3,y3)を大領域210とし、次に大きい領域(−x2,−y2)−(x2,y2)を中領域211とし、最も小さい領域(−x1,−y1)−(x1,y1)を小領域212とする。   The range setting unit 154 sets an area for detecting a face image in an image for one frame, and the detection areas in the present embodiment are “large area”, “medium area”, and “small area”. There are three types. That is, as shown in FIG. 4 (a), a rectangular detection area 21 corresponding to the size of the face image to be detected is set on the imaging surface 20 of the CCD 2, and the detection area 21 is sequentially moved to set the face. Try to detect the image. As for the detection area 21, as shown in FIG. 4B, the largest area (−x3, −y3) − (x3, y3) is the large area 210, and the next largest area (−x2, −y2). − (X2, y2) is a middle region 211, and the smallest region (−x1, −y1) − (x1, y1) is a small region 212.

検出精度設定部155は、以上の辞書セット151、検出個数設定部152、範囲設定部154の設定内容を前記検出精度Lv.1〜Lv.3に対応してフラグ情報で記憶するものである。   The detection accuracy setting unit 155 stores the setting contents of the dictionary set 151, the detection number setting unit 152, and the range setting unit 154 as flag information corresponding to the detection accuracy Lv.1 to Lv.3.

したがって、検出精度設定部155には、図5に示すように、検出精度は荒い(低い)が検出速度は速い=Lv.1に対応して、参照する特徴辞書には「A」に、許容回転角度には「±α」に、検出個数の上限には「1」に、検出領域には大領域210(−x3,−y3)−(x3,y3)に、各々検出精度レベルフラグ=1が記憶されている。また、検出精度が中間レベル=Lv.2に対応して、参照する特徴辞書には「A」と「B」に、許容回転角度には「±β(>α)」に、検出個数の上限には「3」に、検出領域には大領域210(−x3,−y3)−(x3,y3)と中領域211(−x2,−y2)−(x2,y2)に、各々検出精度レベルフラグ=1が記憶されている。さらに、検出精度は細かい(高い)が検出速度は遅い=Lv.3に対応して、参照する特徴辞書には「A」、「B」、「C〜N」に、許容回転角度には「±γ(>β)」に、検出個数の上限には「8」に、検出領域には大領域210(−x3,−y3)−(x3,y3)、中領域211(−x2,−y2)−(x2,y2)、小領域212(−x1,−y1)−(x1,y1)に、各々検出精度レベルフラグ=1が記憶されている。   Therefore, as shown in FIG. 5, the detection accuracy setting unit 155 indicates that the detection accuracy is rough (low) but the detection speed is fast = Lv. The rotation angle is “± α”, the upper limit of the number of detections is “1”, the detection area is the large area 210 (−x3, −y3) − (x3, y3), and the detection accuracy level flag = 1. Is remembered. Further, the detection accuracy corresponds to the intermediate level = Lv.2, the reference feature dictionary is “A” and “B”, the allowable rotation angle is “± β (> α)”, and the upper limit of the number of detections Is “3”, the detection areas are large areas 210 (−x3, −y3) − (x3, y3) and middle areas 211 (−x2, −y2) − (x2, y2). Flag = 1 is stored. Furthermore, the detection accuracy is fine (high), but the detection speed is slow = Lv.3, “A”, “B”, “CN” are included in the feature dictionary to be referenced, and “ ± γ (> β) ”, the upper limit of the number of detections is“ 8 ”, the detection area is the large area 210 (−x3, −y3) − (x3, y3), the middle area 211 (−x2, −y2) )-(X2, y2) and small area 212 (-x1, -y1)-(x1, y1), detection accuracy level flag = 1 is stored.

次に、以上の構成からなるデジタルカメラの動作について説明する。電源スイッチをONにして、撮影モードを設定すると、制御部7は図6(a)に示すように、表示部10には被写体画像101(スルー画像)を表示させるとともに、フラッシュメモリ16に記憶されている制御プログラムに基づき、図7のフローチャートに示すように処理を実行する。   Next, the operation of the digital camera having the above configuration will be described. When the power switch is turned on and the shooting mode is set, the control unit 7 displays the subject image 101 (through image) on the display unit 10 and stores it in the flash memory 16 as shown in FIG. The processing is executed as shown in the flowchart of FIG.

先ず、顔検出モード設定テーブル161を参照する(ステップS101)。このとき、顔検出モード設定テーブル161においては、初期値として例えばLv.1にフラグ=1が設定されていると、図6(a)に示すように、検出精度レベルアイコン105として「Lv.1」を表示部10に表示させる。   First, the face detection mode setting table 161 is referred to (step S101). At this time, in the face detection mode setting table 161, when the flag = 1 is set in Lv.1 as an initial value, for example, “Lv.1” is displayed as the detection accuracy level icon 105 as shown in FIG. Is displayed on the display unit 10.

次に、この参照した顔検出モード設定テーブル161のフラグの状態にしたがって、特徴辞書(ステップS102)、許容回転角度(ステップS103)、検出領域(ステップS104)を各々読み出す。   Next, the feature dictionary (step S102), the allowable rotation angle (step S103), and the detection area (step S104) are read according to the state of the flag in the referenced face detection mode setting table 161.

つまり、顔検出モード設定テーブル161において検出精度がLv.1であるならば、図5に示した検出精度設定部155においてLv.1で参照する特徴辞書は「A」であるので、特徴辞書Aを読み出し(ステップS102)、許容回転角度は「±α」であるので、許容回転角度±αを読み出し(ステップS103)検出領域は「大領域210(−x3,−y3)−(x3,y3)」であるので、検出領域21として大領域210(−x3,−y3)−(x3,y3)を読み出す(ステップS104)。   That is, if the detection accuracy is Lv.1 in the face detection mode setting table 161, the feature dictionary referred to by Lv.1 in the detection accuracy setting unit 155 shown in FIG. Since the allowable rotation angle is “± α” (step S102), the allowable rotation angle ± α is read (step S103). The detection area is “large area 210 (−x3, −y3) − (x3, y3)”. Therefore, the large area 210 (−x3, −y3) − (x3, y3) is read out as the detection area 21 (step S104).

このように、顔検出モード設定テーブル161を参照して、検出精度設定部155からデータを読み出す簡単な処理により、後述する顔画像の検出処理(ステップS105)において用いるデータを予め容易することができる。   In this way, data used in face image detection processing (step S105) described later can be facilitated in advance by a simple process of reading data from the detection accuracy setting unit 155 with reference to the face detection mode setting table 161. .

次に、顔画像の検出処理を実行する(ステップS105)。この検出処理に際しては、検出精度がLv.1である場合には、SDRAM9に格納されスルー表示される1フレーム分の画像データを出力するCCD2の撮像面20において、検出領域21をステップS104で読み出した大領域210(−x3,−y3)−(x3,y3)とする。そして、この大領域210を順次移動させることにより、大領域210を単位として撮像面20を走査(スキャン)し、顔画像の検出を試みる。また、このとき、許容回転角度をステップS103で読み出した±αとして、ステップS102で読み出した特徴辞書Aに記憶されている特徴量を有するか否かを判断する。   Next, face image detection processing is executed (step S105). In this detection process, when the detection accuracy is Lv.1, the detection area 21 is read out in step S104 on the imaging surface 20 of the CCD 2 that outputs image data for one frame that is stored in the SDRAM 9 and displayed through. Large area 210 (−x3, −y3) − (x3, y3). Then, by sequentially moving the large area 210, the imaging surface 20 is scanned (scanned) with the large area 210 as a unit to try to detect a face image. At this time, it is determined whether or not the allowable rotation angle has the feature amount stored in the feature dictionary A read in step S102 as ± α read in step S103.

引き続き、シャッターキー141の半押し操作が検出されたか否かを判断し(ステップS106)、シャッターキー141の半押し操作が検出されたならば、顔画像を検出しているか否かを判断する(ステップS107)。つまり、スキャンしたCCD2の撮像面20におけるいずれかの大領域210において、許容回転角度±α内で特徴辞書Aに記憶されている特徴量を有する領域、すなわち、顔画像が検出されているか否かを判断する。   Subsequently, it is determined whether or not a half-press operation of the shutter key 141 is detected (step S106). If a half-press operation of the shutter key 141 is detected, it is determined whether or not a face image is detected (step S106). Step S107). That is, whether or not a region having a feature value stored in the feature dictionary A within the allowable rotation angle ± α, that is, a face image is detected in any large region 210 on the imaging surface 20 of the scanned CCD 2. Judging.

そして、このステップS107での判断の結果、顔画像を検出していない場合、すなわち図6(a)に示す人物の顔画像103が前記大領域210をよりも遙かに小さく、許容回転角度±α内で特徴辞書Aに記憶されている特徴量を有する領域として検出されない場合には、ステップS107からステップS109に進み、画像のコントランスト評価値にしたがって、合焦領域を決定し、合焦処理、AE処理、WB調整処理を実行する。   If the face image is not detected as a result of the determination in step S107, that is, the human face image 103 shown in FIG. 6A is much smaller than the large area 210, and the allowable rotation angle ± If it is not detected as a region having the feature amount stored in the feature dictionary A within α, the process proceeds from step S107 to step S109, the in-focus region is determined according to the image contrast evaluation value, and the in-focus region is determined. Processing, AE processing, and WB adjustment processing are executed.

引き続き、シャッターキー141から全押し操作と操作解除のいずれが検出されたか否かを判断する(ステップS110)。シャッターキー141の操作解除が検出された場合には、検出精度を一段上げて(ステップS112)、ステップS11からの処理を繰り返す。   Subsequently, it is determined whether a full-press operation or an operation cancellation is detected from the shutter key 141 (step S110). If release of the operation of the shutter key 141 is detected, the detection accuracy is increased by one step (step S112), and the processing from step S11 is repeated.

したがって、現時点の検出精度が前述のようにLv.1であったとすると、今回のステップS112での処理により、顔検出モード設定テーブル161において、Lv.1=0にリセットされ、Lv.2=1にセットされ、Lv.3=0はそのまま維持されることにより、検出精度はLv.2に設定される。   Therefore, if the current detection accuracy is Lv.1, as described above, the process in step S112 is reset to Lv.1 = 0 in the face detection mode setting table 161, and Lv.2 = 1. The detection accuracy is set to Lv.2 by maintaining Lv.3 = 0 as it is.

そして、このように顔検出モード設定テーブル161の検出精度がLv.2に設定されると、ステップS101からの処理が再度実行された際、図6(b)に示すように、検出精度レベルアイコン105として「Lv.2」を表示部10に表示させる。また、図5に示した検出精度設定部155においてLv.2で参照する特徴辞書は「A」「B」であるので、特徴辞書A、Bを読み出し(ステップS102)、許容回転角度は「±β(>α)」であるので、許容回転角度±β(>α)を読み出し(ステップS103)、検出領域は「大領域210(−x3,−y3)−(x3,y3)」及び「中領域211(−x2,−y2)−(x2,y2)」であるので、検出領域21として大領域210(−x3,−y3)−(x3,y3)と中領域211(−x2,−y2)−(x2,y2)を読み出す(ステップS104)。引き続き、前述したステップS105以降の処理を実行する。   When the detection accuracy of the face detection mode setting table 161 is set to Lv.2 in this way, when the processing from step S101 is executed again, as shown in FIG. 105 displays “Lv.2” on the display unit 10. Further, since the feature dictionaries referred to by Lv.2 in the detection accuracy setting unit 155 shown in FIG. 5 are “A” and “B”, the feature dictionaries A and B are read (step S102), and the allowable rotation angle is “± Since β (> α) ”, the allowable rotation angle ± β (> α) is read (step S103), and the detection areas are“ large area 210 (−x3, −y3) − (x3, y3) ”and“ medium. Area 211 (−x2, −y2) − (x2, y2) ”, the detection area 21 includes a large area 210 (−x3, −y3) − (x3, y3) and a middle area 211 (−x2, −y2). )-(X2, y2) is read (step S104). Subsequently, the processing after step S105 described above is executed.

このとき、検出精度Lv.2においては、検出領域が大領域210と中領域211であるので、ステップS107の顔画像の検出処理においては、CCD2の撮像面20において、検出領域21を大領域210と中領域211とする。そして、この大領域210と中領域211とを順次移動させることにより、撮像面20を大領域210と中領域211とを単位として走査(スキャン)し、大領域210と中領域211毎に顔画像の検出を試みる。また、このとき、許容回転角度±βとして特徴辞書A、Bに記憶されている特徴量を有するか否かを判断する。   At this time, in the detection accuracy Lv.2, the detection areas are the large area 210 and the middle area 211. Therefore, in the face image detection process in step S107, the detection area 21 is set to the large area 210 on the imaging surface 20 of the CCD 2. And the middle region 211. Then, by sequentially moving the large area 210 and the middle area 211, the imaging surface 20 is scanned (scanned) in units of the large area 210 and the middle area 211, and a face image is obtained for each of the large area 210 and the middle area 211. Try to detect. At this time, it is determined whether or not the feature amount stored in the feature dictionaries A and B has an allowable rotation angle ± β.

そして、ステップS107での判断の結果、顔画像を検出していない場合、すなわち図6(b)に示す人物の顔画像103が未だ前記中領域211をよりも小さく、許容回転角度±β内で特徴辞書A、Bに記憶されている特徴量を有する領域として検出されない場合には、ステップS107からステップS109に進む。このとき、シャッターキー141が全押し解除が検出されると、ステップS109からステップS110、ステップS112と進むことになる。   If the face image is not detected as a result of the determination in step S107, that is, the human face image 103 shown in FIG. 6B is still smaller than the middle region 211 and within the allowable rotation angle ± β. If it is not detected as a region having the feature amount stored in the feature dictionaries A and B, the process proceeds from step S107 to step S109. At this time, if it is detected that the shutter key 141 is fully pressed, the process proceeds from step S109 to step S110 and step S112.

このステップS112の処理が実行される際の検出精度が、前述のように前回のステップS112での処理よりLv.2になっていると、今回のステップS112での検出精度を一段上げる処理により、顔検出モード設定テーブル161においてLv.1=0はそのまま維持され、Lv.2=0にリセットされるとともにLv.3=1にセットされて、検出精度がLv.3に設定される。   If the detection accuracy at the time of executing the process of step S112 is Lv.2 as compared with the process at the previous step S112 as described above, the process of increasing the detection accuracy at the current step S112 by one step, In the face detection mode setting table 161, Lv.1 = 0 is maintained as it is, is reset to Lv.2 = 0, is set to Lv.3 = 1, and the detection accuracy is set to Lv.3.

そして、このように顔検出モード設定テーブル161の検出精度がLv.3に設定されると、ステップS101からの処理が再度実行された際、図6(c)に示すように、検出精度レベルアイコン105として「Lv.3」を表示部10に表示させる。また、図5に示した検出精度設定部155においてLv.3で参照する特徴辞書は「A」「B」「C〜N」であるので、特徴辞書A〜Nを読み出し(ステップS102)、許容回転角度は「±γ(>β)」であるので、許容回転角度±γ(>β)を読み出し(ステップS103)、検出領域は「大領域210(−x3,−y3)−(x3,y3)」、「中領域211(−x2,−y2)−(x2,y2)」及び「小領域212(−x1,−y1)−(x1,y1)」であるので、検出対領域21として大領域210(−x3,−y3)−(x3,y3)、中領域211(−x2,−y2)−(x2,y2)及び小領域212(−x1,−y1)−(x1,y1)を読み出し(ステップS104)、引き続き前述したステップS105以降の処理を実行する。   When the detection accuracy of the face detection mode setting table 161 is set to Lv.3 as described above, when the processing from step S101 is executed again, as shown in FIG. 105 displays “Lv.3” on the display unit 10. Further, since the feature dictionaries referred to by Lv.3 in the detection accuracy setting unit 155 shown in FIG. 5 are “A”, “B”, and “C to N”, the feature dictionaries A to N are read (step S102) and allowed. Since the rotation angle is “± γ (> β)”, the allowable rotation angle ± γ (> β) is read (step S103), and the detection region is “large region 210 (−x3, −y3) − (x3, y3). ) ”,“ Medium region 211 (−x2, −y2) — (x2, y2) ”, and“ small region 212 (−x1, −y1) — (x1, y1) ”, so that the detection pair region 21 is large. An area 210 (−x3, −y3) − (x3, y3), a middle area 211 (−x2, −y2) − (x2, y2), and a small area 212 (−x1, −y1) − (x1, y1) Reading (step S104), and subsequently the processing after step S105 described above is executed.

このとき、検出精度Lv.3においては、検出領域が大領域210、中領域211及び小領域212であるので、ステップS105の検出処理においては、CCD2の撮像面20において、検出領域21を大領域210、中領域211及び小領域212とする。そして、この大領域210、中領域211及び小領域212を順次移動させることにより、撮像面20を大領域210、中領域211及び小領域212を単位として走査(スキャン)し、大領域210、中領域211及び小領域212毎に顔画像の検出を試みる。また、このとき、許容回転角度±γとして特徴辞書A〜Nに記憶されている特徴量を有するか否かを判断する。   At this time, in the detection accuracy Lv.3, the detection areas are the large area 210, the middle area 211, and the small area 212. Therefore, in the detection process of step S105, the detection area 21 is set to the large area on the imaging surface 20 of the CCD 2. 210, a middle region 211, and a small region 212. Then, by sequentially moving the large area 210, the medium area 211, and the small area 212, the imaging surface 20 is scanned (scanned) in units of the large area 210, the medium area 211, and the small area 212. Attempts to detect a face image for each of the regions 211 and 212. Further, at this time, it is determined whether or not the feature amount stored in the feature dictionary A to N as the allowable rotation angle ± γ.

また、ステップS107での判断は、顔画像を検出している場合、すなわち図6(c)に示す人物の顔画像103が小領域212内に収まり、許容回転角度±β内で特徴辞書A、Bに記憶されている特徴量を有する領域として検出された場合には、YESとなる。したがって、ステップS107からステップS108に進む。そして、このステップS108で、図6(c)に示すように、検出した顔画像を含む領域を囲繞する顔枠104を重畳表示するともに、この領域に対し、合焦処理、AE処理、WB調整処理を実行する。   Further, the determination in step S107 is performed when the face image is detected, that is, the human face image 103 shown in FIG. 6C is within the small region 212, and the feature dictionary A, within the allowable rotation angle ± β. If it is detected as a region having the feature quantity stored in B, the answer is YES. Accordingly, the process proceeds from step S107 to step S108. In step S108, as shown in FIG. 6C, the face frame 104 surrounding the area including the detected face image is superimposed and displayed, and focusing processing, AE processing, and WB adjustment are performed on this area. Execute the process.

すなわち、顔枠104内の顔画像のデータをコントラスト評価値の取得領域(AF評価領域)として使用し、顔画像に合焦するように、AF制御を実行しレンズ駆動回路8を駆動するとともに、検出した顔画像のデータで露出計測、露出調整処理を実行して、この領域内の撮像信号に含まれる輝度情報に基づいたAE制御し、更に検出した顔領域でホワイトバランス調整処理を実行して、顔画像が適正に記録できるように、ホワイトバランスを調整する。   That is, the face image data in the face frame 104 is used as a contrast evaluation value acquisition region (AF evaluation region), and AF control is performed to drive the lens driving circuit 8 so as to focus on the face image. Execute exposure measurement and exposure adjustment processing with the detected face image data, perform AE control based on the luminance information included in the imaging signal in this area, and execute white balance adjustment processing with the detected face area Adjust the white balance so that the face image can be recorded properly.

そして、このステップS108に続くステップS110において、シャッターキー141の全押し操作が検出されると、ステップS110からステップS111に進み圧縮符号化・記録処理を実行する。つまり、シャッターキー141の全押し操作が検出され時点における1フレーム分の撮像データをSDRAM9に取り込み、このSDRAM9に一時記憶された撮像データをJPEG変換部11においてJPEG方式により圧縮符号化し、引き続き、この圧縮符号化した撮像データを外部メモリI/F12を介して、外部メモリ13に静止画ファイルとして書き込む。しかる後に、ステップS106からの処理を実行する。   In step S110 subsequent to step S108, when the full press operation of the shutter key 141 is detected, the process proceeds from step S110 to step S111 to execute compression encoding / recording processing. That is, the image data for one frame at the time point when the full pressing operation of the shutter key 141 is detected is taken into the SDRAM 9, and the image data temporarily stored in the SDRAM 9 is compression-encoded by the JPEG method in the JPEG conversion unit 11, and subsequently this The compressed and encoded image data is written as a still image file in the external memory 13 via the external memory I / F 12. Thereafter, the processing from step S106 is executed.

したがって、顔画像を検出している場合には、前述したステップS108での処理により、顔画像で合焦処理するとともに、当該画像部分にて露出調整及びホワイトバランス調整が成される。よって、顔画像を検出している場合には、被写体人物の顔画像にピントが合い、かつ露出及びホワイトバランスが適正な画像を静止画ファイルとして記録することができる。   Therefore, when a face image is detected, the focus processing is performed on the face image by the processing in step S108 described above, and exposure adjustment and white balance adjustment are performed on the image portion. Therefore, when a face image is detected, an image in which the face image of the subject person is in focus and exposure and white balance are appropriate can be recorded as a still image file.

また、シャッターキー141の半押しを解除すれば、検出精度が変更されることから、誤検出を無くすべく、撮影者が撮影記録の準備を中断して設定変更を行うという煩わしさを解消し、所望する検出精度で特定画像を検出し、記録することができる。   Further, if the half-press of the shutter key 141 is released, the detection accuracy is changed, so that the troublesomeness that the photographer interrupts the preparation for shooting recording and changes the setting to eliminate erroneous detection, The specific image can be detected and recorded with the desired detection accuracy.

(第2の実施の形態)
本発明の第2の実施の形態においては、図1に示すように、制御部7にはカウンター71と照合部72とが設けられる。カウンター71は、シャッターキー141が半押し操作された後シャッターキーの操作が解除された回数を計数するものである。照合部72は、このカウンター71のカウント値と所定数とを照合するものであり、カウント値が所定数を超えたか否かを判断する際に用いられる。
(Second Embodiment)
In the second embodiment of the present invention, as shown in FIG. 1, the control unit 7 is provided with a counter 71 and a collation unit 72. The counter 71 counts the number of times the shutter key operation is released after the shutter key 141 is pressed halfway. The collation unit 72 collates the count value of the counter 71 with a predetermined number, and is used when determining whether or not the count value exceeds the predetermined number.

図8は、第2の実施の形態における処理手順を示すフローチャートである。このフローチャートにおいて、ステップS201〜S211及びS214の処理は、前述した図7のフローチャートにおける全てのステップ、つまりステップS201〜S212と同一の処理である。   FIG. 8 is a flowchart showing a processing procedure in the second embodiment. In this flowchart, the processes of steps S201 to S211 and S214 are the same as all the steps in the flowchart of FIG. 7 described above, that is, steps S201 to S212.

そして、ステップS210での判断の結果、シャッターキー141の操作解除が検出された場合には、カウンター71のカウント値をアップさせる(ステップS212)。引き続き、このアップさせたカウンター71のカウント値が所定数を超えたか否かを判断し(ステップS213)、超えていない場合には、ステップS205からの処理を繰り返す。   If the release of the operation of the shutter key 141 is detected as a result of the determination in step S210, the count value of the counter 71 is increased (step S212). Subsequently, it is determined whether or not the counted value of the increased counter 71 exceeds a predetermined number (step S213). If not, the processing from step S205 is repeated.

このとき、撮影者は、シャッターキー141を半押しても表示部10に前記顔枠104(図6(c)参照)が表示されないので、顔画像が検出されなかったと判断する。そして、シャッターキー141の操作を解除して、デジタルカメラの向きや画角を調整し、再度所望の顔画像を検出するように、シャッターキー141の半押し操作を行うこととなる。   At this time, since the face frame 104 (see FIG. 6C) is not displayed on the display unit 10 even when the shutter key 141 is half-pressed, the photographer determines that no face image has been detected. Then, the operation of the shutter key 141 is canceled, the direction and angle of view of the digital camera are adjusted, and the shutter key 141 is half-pressed so as to detect a desired face image again.

また、撮影者による操作の結果、表示部10に前記顔枠104が表示されて顔画像が検出された場合には、撮影者がシャッターキー141を全押しすることにより、ステップS210の判断がYESとなる。よって、ステップS210からステップS211に進み、前述した圧縮符号化・記録処理が実行されることとなる。   If the face frame 104 is displayed on the display unit 10 and a face image is detected as a result of the operation by the photographer, the photographer fully presses the shutter key 141, so that the determination in step S210 is YES. It becomes. Therefore, the process proceeds from step S210 to step S211, and the compression encoding / recording process described above is executed.

しかし、撮影者が複数回デジタルカメラの向きや画角を調整し、その都度シャッターキー141を半押ししても顔画像が検出されなかった場合には、その都度シャッターキー141の操作が解除され、カウント値がアップされることとなる(ステップS212)。その結果、ステップS213の判断がYESとなり、また、このようにステップS213の判断がYESとなるのは、現時点の顔画像の検出精度が低すぎることに起因する。したがって、このようにステップS213の判断がYESとなった場合には、検出精度を一段上げて(ステップS214)、ステップS201からの処理を繰り返す。   However, if the photographer adjusts the orientation and angle of view of the digital camera multiple times and no face image is detected even if the shutter key 141 is pressed halfway each time, the operation of the shutter key 141 is canceled each time. The count value is increased (step S212). As a result, the determination in step S213 is YES, and the determination in step S213 is YES as described above because the current face image detection accuracy is too low. Therefore, when the determination in step S213 is YES as described above, the detection accuracy is increased by one step (step S214), and the processing from step S201 is repeated.

したがって、本実施の形態によれば、シャッターキー141が半押しされてからの解除の回数に応じて検出精度を変更するので、撮影者の撮影操作(意思)に応じた適切な検出精度で撮影することができる。   Therefore, according to the present embodiment, since the detection accuracy is changed according to the number of times the shutter key 141 is released halfway, the image is taken with an appropriate detection accuracy according to the shooting operation (will) of the photographer. can do.

(第3の実施の形態)
本発明の第3の実施の形態において、図1に示す制御部7に設けられたカウンター71は、顔画像検出処理より検出された顔画像の個数を計数するものである。また、照合部72はカウンター71により計数された個数と図5に示した検出精度設定部155の検出個数の上限(「1」、「3」、「8」)とを照合するものであり、計数された個数が上限以上となったか否かを判断する際に用いられる。
(Third embodiment)
In the third embodiment of the present invention, the counter 71 provided in the control unit 7 shown in FIG. 1 counts the number of face images detected by the face image detection process. The collation unit 72 collates the number counted by the counter 71 with the upper limit (“1”, “3”, “8”) of the detection number of the detection accuracy setting unit 155 shown in FIG. This is used when determining whether or not the counted number is equal to or greater than the upper limit.

次に、第3の実施の形態に係るデジタルカメラの動作について説明する。電源スイッチをONにして、撮影モードを設定すると、制御部7は図9(a)に示すように、表示部10に被写体画像をスルー表示させるとともに、フラッシュメモリ16に記憶されている制御プログラムに基づき、図10のフローチャートに示すように処理を実行する。   Next, the operation of the digital camera according to the third embodiment will be described. When the power switch is turned on and the shooting mode is set, the control unit 7 displays the subject image on the display unit 10 as shown in FIG. 9A, and the control program stored in the flash memory 16 is displayed. Based on this, processing is executed as shown in the flowchart of FIG.

先ず、顔検出モード設定テーブル161を参照する(ステップS101)。このとき、顔検出モード設定テーブル161においては、初期値として例えばLv.2にフラグ=1が設定されていると、図9(a)に示すように、検出精度レベルアイコン105として「Lv.2」を表示部10に表示させる。   First, the face detection mode setting table 161 is referred to (step S101). At this time, in the face detection mode setting table 161, for example, if flag = 1 is set in Lv.2 as an initial value, “Lv.2” is displayed as the detection accuracy level icon 105 as shown in FIG. Is displayed on the display unit 10.

次に、この参照した顔検出モード設定テーブル161のフラグの状態にしたがって、特徴辞書(ステップS302)、許容回転角度(ステップS303)、検出個数の上限(ステップS304)、検出領域(ステップS305)を各々読み出す。   Next, according to the state of the flag in the referenced face detection mode setting table 161, the feature dictionary (step S302), the allowable rotation angle (step S303), the upper limit of the number of detections (step S304), and the detection area (step S305) are displayed. Read each one.

つまり、顔検出モード設定テーブル161において検出精度がLv.2であるならば、図5に示した検出精度設定部155においてLv.2で参照する特徴辞書は「A」「B」であるので、特徴辞書A、Bを読み出し(ステップS302)、許容回転角度は「±β(>α)」であるので、許容回転角度±β(>α)を読み出す(ステップS303)。また、検出個数の上限は「3」であるので、検出個数の上限「3」を読み出し(ステップS304)、検出領域は「大領域210(−x3,−y3)−(x3,y3)」及び「中領域211(−x2,−y2)−(x2,y2)」であるので、検出領域21として大領域210(−x3,−y3)−(x3,y3)と中領域211(−x2,−y2)−(x2,y2)を読み出す(ステップS305)。   That is, if the detection accuracy is Lv.2 in the face detection mode setting table 161, the feature dictionary referred to by Lv.2 in the detection accuracy setting unit 155 shown in FIG. The feature dictionaries A and B are read (step S302). Since the allowable rotation angle is “± β (> α)”, the allowable rotation angle ± β (> α) is read (step S303). Since the upper limit of the detection number is “3”, the upper limit “3” of the detection number is read (step S304), and the detection area is “large area 210 (−x3, −y3) − (x3, y3)” and Since it is “middle area 211 (−x2, −y2) − (x2, y2)”, the detection area 21 is a large area 210 (−x3, −y3) − (x3, y3) and a middle area 211 (−x2, -Y2)-(x2, y2) is read (step S305).

次に、顔画像検出処理を実行する(ステップS306)。この顔画像検出処理に際しては、検出精度がLv.2である場合には、SDRAM9に格納されスルー画像として表示される1フレーム分の画像データを出力するCCD2の撮像面20において、検出領域21を大領域210(−x3,−y3)−(x3,y3)と中領域211(−x2,−y2)−(x2,y2)とする。そして、この大領域210と中領域211とを順次移動させることにより、撮像面20を大領域210と中領域211とを単位として走査(スキャン)し、大領域210と中領域211毎に顔画像の検出を試みる。また、このとき、許容回転角度を±βとして特徴辞書A、Bに記憶されている特徴量を有するか否かを判断する。   Next, face image detection processing is executed (step S306). In this face image detection processing, when the detection accuracy is Lv.2, the detection area 21 is set on the imaging surface 20 of the CCD 2 that outputs image data for one frame stored in the SDRAM 9 and displayed as a through image. A large area 210 (−x3, −y3) − (x3, y3) and a middle area 211 (−x2, −y2) − (x2, y2) are assumed. Then, by sequentially moving the large area 210 and the middle area 211, the imaging surface 20 is scanned (scanned) in units of the large area 210 and the middle area 211, and a face image is obtained for each of the large area 210 and the middle area 211. Try to detect. At this time, it is determined whether or not the feature amount stored in the feature dictionaries A and B has the allowable rotation angle ± β.

引き続き、シャッターキー141の半押し操作が検出されたか否かを判断し(ステップS307)、シャッターキー141の半押し操作が検出されたならば、顔画像を検出しているか否かを判断する(ステップS308)。つまり、スキャンしたCCD2の撮像面20におけるいずれかの大領域210又は中領域211において、許容回転角度を±β内で特徴辞書A又はBに記憶されている特徴量を有する領域、すなわち、顔画像が検出されたか否かを判断する。   Subsequently, it is determined whether or not a half-press operation of the shutter key 141 is detected (step S307). If a half-press operation of the shutter key 141 is detected, it is determined whether or not a face image is detected (step S307). Step S308). That is, in any of the large area 210 or the middle area 211 on the imaging surface 20 of the scanned CCD 2, the area having the feature amount stored in the feature dictionary A or B within the allowable rotation angle ± β, that is, the face image It is determined whether or not is detected.

このステップS308での判断の結果、顔画像を検出している場合にはステップS9に進む。すなわち図9(a)に示すように、被写体画像101中に人物Aの顔画像111、この人物Aの顔画像111よりも小さい人物Bの顔画像112及び人物Cの顔画像112が存在した場合には、人物Aの顔画像111は大領域210によるスキャンにより検出され、人物Bの顔画像112及び人物Cの顔画像113は、中領域211によるスキャンにより検出されることとなる。これによりステップS308の判断はYESとなり、ステップS308からステップS309に進む。   If a face image is detected as a result of the determination in step S308, the process proceeds to step S9. That is, as shown in FIG. 9A, when the face image 111 of the person A, the face image 112 of the person B smaller than the face image 111 of the person A, and the face image 112 of the person C exist in the subject image 101. In other words, the face image 111 of the person A is detected by scanning with the large area 210, and the face image 112 of the person B and the face image 113 of person C are detected by the scanning with the middle area 211. Accordingly, the determination in step S308 is YES, and the process proceeds from step S308 to step S309.

そして、このステップS309で、図9(a)に示すように、検出した顔画像を囲繞する顔枠104を顔画像111、112、113毎に重畳表示するとともに、顔画像に対し、合焦処理、AE処理、WB調整処理を実行する。すなわち、大領域210で検出した顔画像111内の画像データをコントラスト評価値の取得領域(AF評価領域)として使用し、顔画像に合焦するように、AF制御を実行しレンズ駆動回路8を駆動するとともに、検出した顔画像で露出計測、露出調整処理を実行して、顔画像内の撮像信号に含まれる輝度情報に基づいたAE制御し、更に検出した顔領域でホワイトバランス調整処理を実行して、顔領域が適正となるように、ホワイトバランスを調整する。   In step S309, as shown in FIG. 9A, the face frame 104 surrounding the detected face image is superimposed and displayed for each of the face images 111, 112, and 113, and the face image is focused. , AE processing and WB adjustment processing are executed. That is, the image data in the face image 111 detected in the large area 210 is used as a contrast evaluation value acquisition area (AF evaluation area), and AF control is performed so that the face image is focused, and the lens driving circuit 8 is Drives and performs exposure measurement and exposure adjustment processing on the detected face image, performs AE control based on luminance information included in the imaging signal in the face image, and further executes white balance adjustment processing on the detected face area Then, the white balance is adjusted so that the face area is appropriate.

また、ステップS308での判断の結果、顔画像を検出していない場合には、画像のコントランスト評価値にしたがって、合焦領域を決定し、合焦処理、AE処理、WB調整処理を実行する(ステップSS310)。   If the face image is not detected as a result of the determination in step S308, the in-focus area is determined according to the image contrast evaluation value, and the in-focus process, the AE process, and the WB adjustment process are executed. (Step SS310).

引き続き、シャッターキー141から全押し操作と操作解除のいずれが検出されたか否かを判断する(ステップSS311)。シャッターキー141の操作解除が検出された場合には、顔画像を検出していたか否かを判断する(ステップS313)。したがって、図9(a)に示した本例のように、顔画像が検出されていると、ステップS313の判断がYESとなって、ステップS313からステップS314に進み、検出された顔画像の個数をカウンター71により計数する(ステップS314)。このとき、図9(a)に示した本例においては、3つの顔画像が検出されていることから、カウンター71により個数「3」が計数されることとなる。   Subsequently, it is determined whether a full-press operation or an operation cancellation is detected from the shutter key 141 (step SS311). If the release of the operation of the shutter key 141 is detected, it is determined whether or not a face image has been detected (step S313). Therefore, as in this example shown in FIG. 9A, if a face image is detected, the determination in step S313 is YES, the process proceeds from step S313 to step S314, and the number of detected face images. Is counted by the counter 71 (step S314). At this time, in the present example shown in FIG. 9A, since three face images are detected, the counter 71 counts the number “3”.

次に、検出された個数がこの検出精度で設定されている検出個数の上限と同数であるか否かを判断する(ステップS315)。ここで、本例においては前述のように検出された個数は「3」であり、また、図5の検出精度設定部155においてLv.2の検出個数の上限も「3」である。したがって、ステップS315の判断がYESとなり、検出精度を一段下げて(ステップS316)、ステップS301からの処理を繰り返す。   Next, it is determined whether or not the detected number is the same as the upper limit of the detected number set with the detection accuracy (step S315). Here, in the present example, the number detected as described above is “3”, and the upper limit of the detection number of Lv.2 in the detection accuracy setting unit 155 of FIG. Therefore, the determination in step S315 is YES, the detection accuracy is lowered by one step (step S316), and the processing from step S301 is repeated.

したがって、現時点の顔検出モードにおける検出精度が前述のようにLv.2であったとすると、今回のステップS316での処理により、顔検出モード設定テーブル161において検出精度Lv.3=0はそのまま維持され、Lv.2=0にリセットされるとともにLv.1=1にセットされて、検出精度Lv.1が設定される。   Therefore, if the detection accuracy in the current face detection mode is Lv.2 as described above, the detection accuracy Lv.3 = 0 is maintained as it is in the face detection mode setting table 161 by the processing in step S316. , Lv.2 = 0 and Lv.1 = 1 are set, and the detection accuracy Lv.1 is set.

そして、このように顔検出モード設定テーブル161において検出精度Lv.1=1にセットされて、検出精度Lv.1が設定されると、ステップS301からの処理が再度実行された際、図5に示した検出精度設定部155においてLv.1の参照する特徴辞書は「A」であるので、特徴辞書Aを読み出す(ステップS302)。また、許容回転角度は「±α」であるので、許容回転角度±αを読み出し(ステップS303)、検出個数の上限は「1」であるので、検出個数の上限「1」を読み出す(ステップS304)。また、検出領域は「大領域210(−x3,−y3)−(x3,y3)」であるので、検出領域21として大領域210(−x3,−y3)−(x3,y3)を読み出し(ステップS305)、引き続き前述したステップS306以降の処理を実行する。   When the detection accuracy Lv.1 = 1 is set in the face detection mode setting table 161 and the detection accuracy Lv.1 is set as described above, when the processing from step S301 is executed again, FIG. In the illustrated detection accuracy setting unit 155, the feature dictionary referred to by Lv.1 is “A”, so the feature dictionary A is read (step S302). Further, since the allowable rotation angle is “± α”, the allowable rotation angle ± α is read (step S303), and since the upper limit of the detected number is “1”, the upper limit “1” of the detected number is read (step S304). ). Since the detection area is “large area 210 (−x3, −y3) − (x3, y3)”, the large area 210 (−x3, −y3) − (x3, y3) is read as the detection area 21 ( Step S305) Subsequently, the processing after step S306 described above is executed.

このとき、検出精度Lv.1においては、検出領域が大領域210のみであるので、ステップS306の顔画像の検出処理においては、CCD2の撮像面20において、検出領域21を大領域210とする。そして、この大領域210を順次移動させることにより、大領域210を単位として撮像面20を走査(スキャン)し、大領域210毎に顔画像の検出を試みる。また、このとき、許容回転角度を±αとして特徴辞書Aに記憶されている特徴量を有するか否かを判断する。   At this time, since the detection area is only the large area 210 in the detection accuracy Lv.1, the detection area 21 is set as the large area 210 on the imaging surface 20 of the CCD 2 in the face image detection process in step S306. Then, by sequentially moving the large area 210, the imaging surface 20 is scanned (scanned) with the large area 210 as a unit, and detection of a face image is attempted for each large area 210. At this time, it is determined whether the feature amount stored in the feature dictionary A has an allowable rotation angle ± α.

引き続き、シャッターキー141の半押し操作が検出されたか否かを判断し(ステップS307)、シャッターキー141の半押し操作が検出されたならば、顔画像を検出しているか否かを判断する(ステップS308)。つまり、スキャンしたCCD2の撮像面20における大領域210において、許容回転角度を±α内で特徴辞書Aに記憶されている特徴量を有する領域が検出されたか否かを判断する。   Subsequently, it is determined whether or not a half-press operation of the shutter key 141 is detected (step S307). If a half-press operation of the shutter key 141 is detected, it is determined whether or not a face image is detected (step S307). Step S308). That is, it is determined whether or not an area having a feature amount stored in the feature dictionary A within an allowable rotation angle ± α is detected in the large area 210 on the imaging surface 20 of the scanned CCD 2.

このステップS308での判断の結果、顔画像を検出している場合にはステップS9に進む。すなわち図9(b)に示すように、被写体画像101中に人物Aの顔画像111、この人物Aの顔画像111よりも小さい人物Bの顔画像112及び人物Cの顔画像112が存在した場合には、人物Bの顔画像112及び人物Cの顔画像11は、前述したLv.2での中領域211によるスキャンでは検出されたが、今回のLv.1での大領域210によるスキャンにより検出されない。一方、人物Aの顔画像111は今回のLv.1での大領域210によるスキャンにより検出される。したがって、ステップS308の判断はYESとなり、ステップS308からステップS309に進む。   If a face image is detected as a result of the determination in step S308, the process proceeds to step S9. That is, as shown in FIG. 9B, the face image 111 of the person A, the face image 112 of the person B smaller than the face image 111 of the person A, and the face image 112 of the person C exist in the subject image 101. The face image 112 of the person B and the face image 11 of the person C are detected by the scan by the middle region 211 in Lv.2 described above, but are detected by the scan by the large region 210 in this Lv.1. Not. On the other hand, the face image 111 of the person A is detected by scanning with the large area 210 in this Lv.1. Accordingly, the determination in step S308 is YES, and the process proceeds from step S308 to step S309.

そして、このステップS309で、図9(b)に示すように、検出した顔画像を囲繞する顔枠104を人物Aの顔画像111に重畳表示するともに、顔画像に対し、合焦処理、AE処理、WB調整処理を実行する。引き続き、シャッターキー141から全押し操作と操作解除のいずれが検出されたか否かを判断し(ステップSS311)、シャッターキー141の操作解除が検出された場合には、前述したステップS313に進む。   In step S309, as shown in FIG. 9B, the face frame 104 surrounding the detected face image is superimposed on the face image 111 of the person A and the face image is focused, AE Processing and WB adjustment processing are executed. Subsequently, it is determined whether a full-press operation or an operation release has been detected from the shutter key 141 (step SS311). If an operation release of the shutter key 141 is detected, the process proceeds to step S313 described above.

シャッターキー141の全押し操作が検出された場合には、このステップS311からステップS312に進み圧縮符号化・記録処理を実行する。つまり、シャッターキー141の全押し操作が検出され時点における1フレーム分の撮像データをSDRAM9に取り込み、このSDRAM9に一時記憶された撮像データをJPEG変換部11においてJPEG方式により圧縮符号化し、引き続き、この圧縮符号化した撮像データを外部メモリI/F12を介して、外部メモリ13に静止画ファイルとして書き込む。しかる後に、ステップS306からの処理を実行する。   If a full press operation of the shutter key 141 is detected, the process proceeds from step S311 to step S312 to execute compression encoding / recording processing. That is, the image data for one frame at the time point when the full pressing operation of the shutter key 141 is detected is taken into the SDRAM 9, and the image data temporarily stored in the SDRAM 9 is compression-encoded by the JPEG method in the JPEG conversion unit 11, and subsequently this The compressed and encoded image data is written as a still image file in the external memory 13 via the external memory I / F 12. Thereafter, the processing from step S306 is executed.

したがって、図9(b)に示すように、人物Aの顔画像111を検出している場合には、前述したステップS309での処理により、顔画像111で合焦処理するとともに、当該顔画像111にて露出調整及びホワイトバランス調整が成される。したがって、顔画像を検出している場合には、人物Aにおいて顔にピントが合い、かつ露出及びホワイトバランスが適正な画像を静止画ファイルとして記録することができる。   Therefore, as shown in FIG. 9B, when the face image 111 of the person A is detected, the face image 111 is focused and the face image 111 is processed by the process in step S309 described above. The exposure adjustment and white balance adjustment are made at. Therefore, when a face image is detected, an image in which the face of the person A is focused and whose exposure and white balance are appropriate can be recorded as a still image file.

他方、ステップS313で顔画像を検出していなかったと判断された場合、及びステップS315で計数された個数が予め設定された検出個数の上限の未満であると判断された場合には、ステップS317に進んで、検出精度を一段階上げ、しかる後にステップS301からの処理を繰り返す。   On the other hand, if it is determined in step S313 that no face image has been detected, and if it is determined that the number counted in step S315 is less than the preset upper limit of the number of detections, step S317 is entered. Then, the detection accuracy is increased by one step, and then the processing from step S301 is repeated.

したがって、現時点の検出精度が前述のようにLv.2であったとすると、ステップS317での処理により、顔検出モード設定テーブル161において、Lv.2=0にリセットされ、Lv.3=1にセットされ、Lv.1=0はそのまま維持されることにより、検出精度はLv.3に設定される。   Therefore, assuming that the current detection accuracy is Lv.2, as described above, the processing in step S317 resets Lv.2 = 0 and sets Lv.3 = 1 in the face detection mode setting table 161. Thus, Lv.1 = 0 is maintained as it is, so that the detection accuracy is set to Lv.3.

そして、このように顔検出モード設定テーブル161の検出精度がLv.3に設定されると、ステップS101からの処理が再度実行された際、検出精度レベルアイコン105として「Lv.3」を表示部10に表示させる。また、図5に示した検出精度設定部155においてLv.3で参照する特徴辞書は「A」「B」「C〜N」であるので、特徴辞書A〜Nを読み出し(ステップS302)、許容回転角度は「±γ(>β)」であるので、許容回転角度±γ(>β)を読み出し(ステップS303)、検出個数の上限は「8」であるので、検出個数の上限「8」を読み出し(ステップS304)、検出領域は「大領域210(−x3,−y3)−(x3,y3)」、「中領域211(−x2,−y2)−(x2,y2)」及び「小領域212(−x1,−y1)−(x1,y1)」であるので、検出領域21として大領域210(−x3,−y3)−(x3,y3)、中領域211(−x2,−y2)−(x2,y2)及び小領域212(−x1,−y1)−(x1,y1)を読み出し(ステップS304)、引き続き前述したステップS306以降の処理を実行する。   When the detection accuracy of the face detection mode setting table 161 is set to Lv.3 as described above, “Lv.3” is displayed as the detection accuracy level icon 105 when the processing from step S101 is performed again. 10 is displayed. Further, since the feature dictionaries referred to by Lv.3 in the detection accuracy setting unit 155 shown in FIG. 5 are “A”, “B”, and “C to N”, the feature dictionaries A to N are read (step S302) and allowed. Since the rotation angle is “± γ (> β)”, the allowable rotation angle ± γ (> β) is read (step S303), and since the upper limit of the number of detections is “8”, the upper limit of the detection number is “8”. (Step S304), the detection areas are “large area 210 (−x3, −y3) − (x3, y3)”, “medium area 211 (−x2, −y2) − (x2, y2)” and “small”. Area 212 (−x1, −y1) − (x1, y1) ”, the detection area 21 is the large area 210 (−x3, −y3) − (x3, y3), the middle area 211 (−x2, −y2). )-(X2, y2) and the small area 212 (-x1, -y1)-(x1, y1) are read out (Step S304) Subsequently, the processing after Step S306 described above is executed.

このとき、検出精度Lv.3においては、検出対象となる画素領域範囲が大領域210、中領域211及び小領域212であるので、ステップS306の顔画像の検出処理においては、CCD2の撮像面20において、検出対象とする画素領域範囲21を大領域210、中領域211及び小領域212とする。そして、この大領域210、中領域211及び小領域212を順次移動させることにより、撮像面20を大領域210、中領域211及び小領域212を単位として走査(スキャン)し、大領域210、中領域211及び小領域212毎に顔画像の検出を試みる。また、このとき、許容回転角度±γとして特徴辞書A〜Nに記憶されている特徴量を有するか否かを判断する。   At this time, in the detection accuracy Lv.3, the pixel area ranges to be detected are the large area 210, the medium area 211, and the small area 212. Therefore, in the face image detection process in step S306, the imaging surface 20 of the CCD 2 is used. , The pixel area range 21 to be detected is a large area 210, a medium area 211, and a small area 212. Then, by sequentially moving the large area 210, the medium area 211, and the small area 212, the imaging surface 20 is scanned (scanned) in units of the large area 210, the medium area 211, and the small area 212. Attempts to detect a face image for each of the regions 211 and 212. Further, at this time, it is determined whether or not the feature amount stored in the feature dictionary A to N as the allowable rotation angle ± γ.

引き続き、シャッターキー141の半押し操作が検出されたか否かを判断し(ステップS307)、シャッターキー141の半押しが検出されたならば、顔画像を検出しているか否かを判断する(ステップS308)。つまり、スキャンしたCCD2の撮像面20におけるいずれかの大領域210、中領域211又は小領域212において、許容回転角度を±β内で特徴辞書A又はBに記憶されている特徴量を有する領域が検出されたか否かを判断する。   Subsequently, it is determined whether or not a half-press operation of the shutter key 141 is detected (step S307). If a half-press of the shutter key 141 is detected, it is determined whether or not a face image is detected (step S307). S308). That is, in any one of the large area 210, the middle area 211, or the small area 212 on the imaging surface 20 of the scanned CCD 2, an area having a feature amount stored in the feature dictionary A or B within an allowable rotation angle of ± β. It is determined whether or not it has been detected.

このステップS308での判断の結果、顔画像を検出している場合、すなわち人物の顔画像が小領域212内に収まり、許容回転角度±γ内で特徴辞書A〜Nに記憶されている特徴量を有する領域として検出された場合には、ステップS308からステップS309に進む。そして、このステップS309で、検出した顔画像を囲繞する顔枠104を重畳表示するとともに、顔画像に対し、合焦処理、AE処理、WB調整処理を実行する。   If the face image is detected as a result of the determination in step S308, that is, the face image of the person is within the small area 212 and is stored in the feature dictionary A to N within the allowable rotation angle ± γ. If it is detected as a region having, the process proceeds from step S308 to step S309. In step S309, the face frame 104 surrounding the detected face image is superimposed and displayed, and focusing processing, AE processing, and WB adjustment processing are executed on the face image.

そして、このステップS309に続くステップS311において、シャッターキー141の全押し操作が検出されると、ステップS311からステップS312に進み圧縮符号化・記録処理を実行する。   In step S311 following step S309, when the full pressing operation of the shutter key 141 is detected, the process proceeds from step S311 to step S312 to execute compression encoding / recording processing.

したがって本実施の形態においては、計数された顔画像の個数がその検出精度で設定された検出個数の上限と同じであった場合には、検出モードにおける検出精度を一段下げ(ステップS316)、上限未満であった場合には、検出モードにおける検出精度を一段上げることから(ステップS317)、撮影者の撮影操作(意思)に応じた適切な検出精度で撮影することができる。   Therefore, in the present embodiment, when the counted number of face images is the same as the upper limit of the detection number set by the detection accuracy, the detection accuracy in the detection mode is lowered by one step (step S316), and the upper limit is set. If it is less, the detection accuracy in the detection mode is increased by one step (step S317), so that it is possible to photograph with appropriate detection accuracy according to the photographing operation (intention) of the photographer.

尚、各実施の形態においては、検出精度をLv.1〜3の三段階設けるようにしたが、より少段階であってもより多段階であってもよい。また、本実施の形態においては、検出精度に応じて、使用する特徴辞書の数のみならず、許容回転角度も異ならせるようにした。しかし、許容回転角度に関する制御は行わずに、使用する特徴辞書の数のみを異ならせるようにしてもよい。   In each embodiment, the detection accuracy is provided in three stages of Lv.1 to Lv.1 to 3. However, the detection accuracy may be smaller or more stages. In the present embodiment, not only the number of feature dictionaries to be used but also the allowable rotation angle is varied according to the detection accuracy. However, only the number of feature dictionaries to be used may be varied without performing control related to the allowable rotation angle.

また、実施の形態では、合焦すべき特定画像が人物の顔画像である場合を示したが、特定画像は人物の顔画像に限ることなく、物体の部分画像であってもよい。さらに、実施の形態では、本発明をデジタルカメラに適用させた場合について詳述したがこれに限ることなく、撮像部を有する、若しくは、撮像処理を含むプログラムを実行できる装置であればこれに限定されることなく適用可能である。   In the embodiment, the specific image to be focused on is a person's face image. However, the specific image is not limited to a person's face image, and may be a partial image of an object. Furthermore, in the embodiment, the case where the present invention is applied to a digital camera has been described in detail. However, the present invention is not limited to this, and the present invention is not limited to this as long as the apparatus has an imaging unit or can execute a program including an imaging process. It is applicable without being done.

1 光学系
2 CCD
4 CCD駆動回路
6 画像処理部
7 制御部
10 表示部
11 JPEG変換部
15 顔認識処理部
16 フラッシュメモリ
20 撮像面
21 画素領域範囲
71 カウンター
72 照合部
101 被写体画像
103 顔画像
104 顔枠
105 検出精度レベルアイコン
141 シャッターキー
151 辞書セット
152 検出個数設定部
153 回転角度設定部
154 範囲設定部
155 検出精度設定部
161 顔検出モード設定テーブル
210 大領域
211 中領域
212 小領域
1 Optical system 2 CCD
4 CCD drive circuit 6 Image processing unit 7 Control unit 10 Display unit 11 JPEG conversion unit 15 Face recognition processing unit 16 Flash memory 20 Imaging surface 21 Pixel area range 71 Counter 72 Verification unit 101 Subject image 103 Face image 104 Face frame 105 Detection accuracy Level icon 141 Shutter key 151 Dictionary set 152 Detection number setting unit 153 Rotation angle setting unit 154 Range setting unit 155 Detection accuracy setting unit 161 Face detection mode setting table 210 Large area 211 Medium area 212 Small area

Claims (5)

撮像手段と、
この撮像手段によって逐次撮像される画像に合焦すべき特定画像が含まれているか否かを判断する判断手段と、
この判断手段により前記特定画像が含まれていると判断された場合、この特定画像の個数を計数する計数手段と、
合焦処理を指示する第1の指示手段と、
この第1の指示手段により合焦処理が指示されると、前記判断手段により前記特定画像が含まれていると判断された場合には、この特定画像が存在する画像領域を合焦位置として合焦処理を行う合焦手段と、
この合焦手段による合焦処理の後、前記画像の記録を指示する第2の指示手段と、
この第2の指示手段により記録が指示されたと判断すると前記画像を記録手段に記録する一方、記録が指示されずに前記第1の指示手段による指示が解除されたと判断し、且つ、前記計数手段によって計数された個数が所定値以上のときには、前記判断手段による前記合焦すべき特定画像の検出の精度を下げるよう制御する制御手段と、
を備えることを特徴とする撮像装置。
Imaging means;
Determination means for determining whether or not a specific image to be focused is included in images sequentially captured by the imaging means;
A counting unit that counts the number of the specific images when the determination unit determines that the specific image is included;
First instruction means for instructing focusing processing;
When the focusing process is instructed by the first instructing unit, when the determining unit determines that the specific image is included, the image area where the specific image exists is set as the in-focus position. A focusing means for performing a focusing process;
A second instruction means for instructing recording of the image after the focusing process by the focusing means;
If it is determined that the recording is instructed by the second instruction means, the image is recorded on the recording means, while it is determined that the instruction by the first instruction means is released without instructing recording, and the counting means Control means for controlling to reduce the accuracy of detection of the specific image to be focused by the determination means when the number counted by the above is a predetermined value or more;
An imaging apparatus comprising:
前記制御手段は、前記計数手段によって計数した個数が前記所定値未満であるときに、前記判断手段による前記合焦すべき特定画像の検出の精度を上げるよう制御することを特徴とする請求項1記載の撮像装置。 2. The control unit according to claim 1, wherein when the number counted by the counting unit is less than the predetermined value, the control unit controls the accuracy of detecting the specific image to be focused by the determining unit. The imaging device described. 前記特定画像は特定量で定義付けられた情報であり、この情報を前記精度毎に複数記憶する特定画像情報記憶手段と、
この特定画像情報記憶手段より所定の精度に対応する情報を読み出す読出手段と、
を更に備え、
前記判断手段は、前記読出手段によって読み出された情報に基づいて前記逐次撮像される画像に合焦すべき特定画像が含まれるか否かを判断することを特徴とする請求項1又は2記載の撮像装置。
The specific image is information defined by a specific amount, and specific image information storage means for storing a plurality of this information for each accuracy,
Reading means for reading out information corresponding to a predetermined accuracy from the specific image information storage means;
Further comprising
3. The determination unit according to claim 1, wherein the determination unit determines whether or not a specific image to be focused is included in the sequentially captured image based on information read by the reading unit. Imaging device.
前記撮像画像が人物を撮像したものであるとき、前記特定画像は当該人物の顔画像であることを特徴とする請求項1乃至3のいずれか記載の撮像装置。   The imaging apparatus according to claim 1, wherein when the captured image is an image of a person, the specific image is a face image of the person. 撮像手段を備える装置が有するコンピュータを、
前記撮像手段によって逐次撮像される画像に合焦すべき特定画像が含まれているか否かを判断する判断手段、
この判断手段により前記特定画像が含まれていると判断された場合、この特定画像の個数を計数する計数手段、
合焦処理を指示する第1の指示手段、
この第1の指示手段により合焦処理が指示されると、前記判断手段により前記特定画像が含まれていると判断された場合には、この特定画像が存在する画像領域を合焦位置として合焦処理を行う合焦手段、
この合焦手段による合焦処理の後、前記画像の記録を指示する第2の指示手段と、
この第2の指示手段により記録が指示されたと判断すると前記画像を記録手段に記録する一方、記録が指示されずに前記第1の指示手段による指示が解除されたと判断し、且つ、前記計数手段によって計数された個数が所定値以上のときには、前記判断手段による前記合焦すべき特定画像の検出の精度を下げるよう制御する制御手段、
として機能させることを特徴とする特定画像検出プログラム。
A computer included in an apparatus including an imaging unit,
Determining means for determining whether or not a specific image to be focused is included in images sequentially captured by the imaging means;
Counting means for counting the number of the specific images when the determination means determines that the specific images are included;
First instruction means for instructing focusing processing;
When the focusing process is instructed by the first instructing unit, when the determining unit determines that the specific image is included, the image area where the specific image exists is set as the in-focus position. A focusing means for performing a focusing process,
A second instruction means for instructing recording of the image after the focusing process by the focusing means;
If it is determined that the recording is instructed by the second instruction means, the image is recorded on the recording means, while it is determined that the instruction by the first instruction means is released without instructing recording, and the counting means Control means for controlling to reduce the accuracy of detection of the specific image to be focused by the judging means when the number counted by the above is a predetermined value or more;
A specific image detection program which is made to function as a computer program.
JP2012000937A 2012-01-06 2012-01-06 Imaging device and specific image detection program Expired - Fee Related JP5664559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012000937A JP5664559B2 (en) 2012-01-06 2012-01-06 Imaging device and specific image detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012000937A JP5664559B2 (en) 2012-01-06 2012-01-06 Imaging device and specific image detection program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007168347A Division JP5003305B2 (en) 2007-06-27 2007-06-27 Imaging device and specific image detection program

Publications (2)

Publication Number Publication Date
JP2012108530A JP2012108530A (en) 2012-06-07
JP5664559B2 true JP5664559B2 (en) 2015-02-04

Family

ID=46494118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012000937A Expired - Fee Related JP5664559B2 (en) 2012-01-06 2012-01-06 Imaging device and specific image detection program

Country Status (1)

Country Link
JP (1) JP5664559B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4360369B2 (en) * 2005-11-25 2009-11-11 株式会社ニコン Electronic camera
JP2007148691A (en) * 2005-11-25 2007-06-14 Nikon Corp Image processor

Also Published As

Publication number Publication date
JP2012108530A (en) 2012-06-07

Similar Documents

Publication Publication Date Title
JP4341696B2 (en) Imaging device, face area detection program, and face area detection method
TWI420902B (en) Camera, camera control program, and camera control method
US8477993B2 (en) Image taking apparatus and image taking method
US8792019B2 (en) Video creation device, video creation method and non-transitory computer-readable storage medium
JP4462305B2 (en) Imaging apparatus, method, and program
JP5736796B2 (en) Electronic camera, program and recording medium
TW200808044A (en) Imaging apparatus and computer readable recording medium
KR20080012770A (en) Face detection device, imaging apparatus and face detection method
JP2008288868A (en) Imaging device and program
JP4775644B2 (en) Imaging apparatus and program thereof
JP2007188126A (en) Image brightness calculation device, method, and program
JP5181841B2 (en) Imaging apparatus, imaging control program, image reproducing apparatus, and image reproducing program
JP4998122B2 (en) Imaging apparatus and program thereof
US8514305B2 (en) Imaging apparatus
JP5257969B2 (en) Focus position control device, focus position control method, focus position control program
JP5003305B2 (en) Imaging device and specific image detection program
JP5487942B2 (en) Image processing apparatus, image processing method, and image input apparatus
JP5564961B2 (en) Imaging device
JP5664559B2 (en) Imaging device and specific image detection program
JP5123010B2 (en) Imaging apparatus, imaging method, and program for causing computer included in imaging apparatus to execute imaging method
JP2010166132A (en) Imaging apparatus, operation control method, and program
JP2007165947A (en) Imaging device, backlight correcting device for object image, target image detecting device, and control method of these
JP2018106763A (en) Imaging apparatus
JP6318535B2 (en) Imaging device
JP5441656B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R150 Certificate of patent or registration of utility model

Ref document number: 5664559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees