JP2008022502A - Imaging apparatus, imaging method, imaging program and image processing device - Google Patents

Imaging apparatus, imaging method, imaging program and image processing device Download PDF

Info

Publication number
JP2008022502A
JP2008022502A JP2006194888A JP2006194888A JP2008022502A JP 2008022502 A JP2008022502 A JP 2008022502A JP 2006194888 A JP2006194888 A JP 2006194888A JP 2006194888 A JP2006194888 A JP 2006194888A JP 2008022502 A JP2008022502 A JP 2008022502A
Authority
JP
Japan
Prior art keywords
red
eye
eye correction
unit
correction candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006194888A
Other languages
Japanese (ja)
Other versions
JP2008022502A5 (en
Inventor
Tsutomu Ogasawara
努 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006194888A priority Critical patent/JP2008022502A/en
Publication of JP2008022502A publication Critical patent/JP2008022502A/en
Publication of JP2008022502A5 publication Critical patent/JP2008022502A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of appropriately performing red-eye correction, for example, and reducing a user-side processing burden. <P>SOLUTION: As shown in Fig.2, the imaging apparatus comprises: a red-eye detection unit 67 which detects a plurality of red-eye correction candidate regions as candidate regions to perform red-eye correction thereon from a flash photographed image and generates red-eye detection reliability indicating the certainty as red eyes of the detected red-eye correction candidate regions for each of the red-eye correction candidate regions; a determination unit 71 which determines a degree of detection success for each red-eye correction candidate region based on at least the red-eye detection reliability; and a display unit which displays, together with the image, deletion candidates as red-eye correction candidate regions to become candidates to be deleted from a target of red-eye correction in the plurality of red-eye correction candidate regions in order from the lowest degree. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像装置、撮像方法、撮像プログラム及び画像処理装置に関する。   The present invention relates to an imaging apparatus, an imaging method, an imaging program, and an image processing apparatus.

従来より、バッチ処理による赤目補正を行う撮像装置が提案されている(例えば、特許文献1参照)。   Conventionally, an imaging apparatus that performs red-eye correction by batch processing has been proposed (see, for example, Patent Document 1).

また、インタラクティブ処理による赤目補正を行う撮像装置も提案されている。
特開2002−247596号公報
An imaging device that performs red-eye correction by interactive processing has also been proposed.
JP 2002-247596 A

特許文献1の技術(バッチ処理による赤目補正を行う技術)では、撮影された画像から、色相、彩度及び明度などを用いて、虹彩領域及び他の特徴領域を抽出している。そして、虹彩領域と他の特徴領域との配置関係に基づいて、赤目補正を行う対象領域である赤目領域を特定している。   In the technique of Patent Document 1 (a technique for performing red-eye correction by batch processing), an iris area and other feature areas are extracted from a captured image using hue, saturation, brightness, and the like. Then, based on the arrangement relationship between the iris region and other feature regions, the red-eye region that is the target region for performing red-eye correction is specified.

しかし、特許文献1の技術では、赤目領域を正しく特定できない場合、例えば、不適切な赤目領域に対して赤目補正が行われることがあるので、赤目補正を適切に行えないおそれがある。   However, in the technique of Patent Document 1, if the red-eye area cannot be correctly specified, for example, red-eye correction may be performed on an inappropriate red-eye area, and thus there is a possibility that the red-eye correction cannot be performed appropriately.

一方、インタラクティブ処理による赤目補正を行う技術では、複数の赤目領域が検出された場合でも、全ての赤目領域のそれぞれに対して赤目補正を行うか否かを指定しなければならない傾向にある。これにより、赤目補正における利用者側の処理が煩雑化する傾向にある。   On the other hand, in the technique of performing red eye correction by interactive processing, even when a plurality of red eye areas are detected, it is necessary to specify whether or not to perform red eye correction for each of all red eye areas. This tends to complicate processing on the user side in red-eye correction.

本発明の目的は、例えば赤目補正を適切に行うことができ、利用者側の処理負担を軽減できる撮像装置を提供することにある。   An object of the present invention is to provide an imaging apparatus that can appropriately perform red-eye correction, for example, and can reduce the processing burden on the user side.

本発明に係る撮像装置は、フラッシュ撮影された画像の中から、赤目補正を行う候補となる領域である複数の赤目補正候補領域を検出するとともに、検出された赤目補正候補領域の赤目らしさを示す赤目検出信頼度を各前記赤目補正候補領域に対して生成する赤目検出部と、少なくとも前記赤目検出信頼度に基づいて、検出することに成功している度合いを各前記赤目補正候補領域に対して判定する判定部と、前記度合いが低い順番に、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに表示する表示部とを備えたことを特徴とする。   The imaging apparatus according to the present invention detects a plurality of red-eye correction candidate areas that are candidates for red-eye correction from an image captured with flash, and indicates the red-eye likeness of the detected red-eye correction candidate area. A red-eye detection unit that generates red-eye detection reliability for each of the red-eye correction candidate regions, and a degree of success in detection based on at least the red-eye detection reliability for each of the red-eye correction candidate regions A determination unit that determines, and a display unit that displays, together with the image, deletion candidates that are red-eye correction candidate regions that are candidates to be deleted from the red-eye correction target in the plurality of red-eye correction candidate regions in order of decreasing degree. It is characterized by having.

本発明に係る撮像装置では、例えば赤目補正を適切に行うことができ、利用者側の処理負担を軽減できる。   In the imaging apparatus according to the present invention, for example, red-eye correction can be performed appropriately, and the processing burden on the user side can be reduced.

本発明の好適な第1実施形態に係る撮像装置について、図1〜図13を参照して説明する。   An imaging apparatus according to a preferred first embodiment of the present invention will be described with reference to FIGS.

まず、撮像装置の概略構成を、図1を用いて説明する。   First, a schematic configuration of the imaging apparatus will be described with reference to FIG.

撮像装置1は、赤目補正の機能を有する装置である。撮像装置1は、主として、入力部5,光学系10,固体撮像装置20,アナログ信号処理部30,A/D変換部40,フラッシュ50,デジタル信号処理部60を備える。撮像装置1は、画像表示部70,内部記憶部80及び外部I/F90を備える。   The imaging device 1 is a device having a red-eye correction function. The imaging device 1 mainly includes an input unit 5, an optical system 10, a solid-state imaging device 20, an analog signal processing unit 30, an A / D conversion unit 40, a flash 50, and a digital signal processing unit 60. The imaging apparatus 1 includes an image display unit 70, an internal storage unit 80, and an external I / F 90.

入力部5は、ボタン類を有する。ボタン類は、例えば、本体に設けられたシャッターボタン5a、選択ボタン5b、削除ボタン5c及び確定ボタン5d(図15参照)を含む。   The input unit 5 has buttons. The buttons include, for example, a shutter button 5a, a selection button 5b, a delete button 5c, and a confirm button 5d (see FIG. 15) provided on the main body.

光学系10は、レンズ、絞りなどの光学機器やその駆動系を含む。光学系10は、被写体Oと固体撮像装置20との間に設けられている。   The optical system 10 includes optical devices such as a lens and a diaphragm, and a driving system thereof. The optical system 10 is provided between the subject O and the solid-state imaging device 20.

固体撮像装置20は、CCDセンサやCMOSセンサなどを有している。固体撮像装置20は、アナログ信号処理部30に接続されている。   The solid-state imaging device 20 includes a CCD sensor, a CMOS sensor, and the like. The solid-state imaging device 20 is connected to the analog signal processing unit 30.

アナログ信号処理部30は、クランプ回路や増幅回路などを有している。アナログ信号処理部30は、固体撮像装置20及びA/D変換部40に接続されている。   The analog signal processing unit 30 includes a clamp circuit and an amplifier circuit. The analog signal processing unit 30 is connected to the solid-state imaging device 20 and the A / D conversion unit 40.

A/D変換部40は、A/Dコンバータなどを有している。A/D変換部40は、アナログ信号処理部30及びデジタル信号処理部60に接続されている。   The A / D conversion unit 40 includes an A / D converter and the like. The A / D conversion unit 40 is connected to the analog signal processing unit 30 and the digital signal processing unit 60.

フラッシュ50は、ストロボなどを有している。フラッシュ50は、デジタル信号処理部60に接続されている。   The flash 50 has a strobe or the like. The flash 50 is connected to the digital signal processing unit 60.

デジタル信号処理部60は、フィルタ回路、検出回路などを有している。デジタル信号処理部60は、A/D変換部40、フラッシュ50、画像表示部70、内部記憶部80及び外部I/F90に接続されている。   The digital signal processing unit 60 includes a filter circuit, a detection circuit, and the like. The digital signal processing unit 60 is connected to the A / D conversion unit 40, the flash 50, the image display unit 70, the internal storage unit 80, and the external I / F 90.

画像表示部70は、表示デバイス及び表示制御回路などを有している。画像表示部70は、デジタル信号処理部60及び内部記憶部80に接続されている。表示デバイスは、電子ファインダとして用いられる。   The image display unit 70 includes a display device, a display control circuit, and the like. The image display unit 70 is connected to the digital signal processing unit 60 and the internal storage unit 80. The display device is used as an electronic viewfinder.

内部記憶部80は、半導体メモリなどの記録媒体及びその制御回路などを有している。内部記憶部80は、デジタル信号処理部60及び画像表示部70に接続されている。   The internal storage unit 80 includes a recording medium such as a semiconductor memory and its control circuit. The internal storage unit 80 is connected to the digital signal processing unit 60 and the image display unit 70.

外部I/F90は、外部記憶装置を接続可能な構成を有している。外部I/F90は、デジタル信号処理部60に接続されている。   The external I / F 90 has a configuration capable of connecting an external storage device. The external I / F 90 is connected to the digital signal processing unit 60.

次に、撮像装置の概略動作を、図1を用いて説明する。   Next, a schematic operation of the imaging apparatus will be described with reference to FIG.

光学系10は、被写体Oを含む撮影領域(図10の画像GIとして取得される対象領域)に向けられる。これにより、光学系10は、被写体Oを含む撮影領域の光学像を固体撮像装置20の上に結像させる。   The optical system 10 is directed to a shooting area including the subject O (a target area acquired as the image GI in FIG. 10). As a result, the optical system 10 forms an optical image of the imaging region including the subject O on the solid-state imaging device 20.

利用者により、低照度撮影時などにおいて、入力部5を介して、フラッシュの発光を指示する情報であるフラッシュ発光情報がデジタル信号処理部60に入力される。デジタル信号処理部60は、フラッシュ発光情報に応じて、フラッシュ50に発光を行わせる。これにより、フラッシュ50は、被写体Oを含む撮影領域を照らす。そして、固体撮像装置20には、フラッシュに照らされた被写体Oを含む撮影領域の光学像が結像する。このとき、被写体Oに赤目が生じた状態で、撮影領域の光学像が結像することがある。   The user inputs flash emission information, which is information for instructing flash emission, to the digital signal processing unit 60 via the input unit 5 at the time of shooting at low illumination. The digital signal processing unit 60 causes the flash 50 to emit light according to the flash emission information. As a result, the flash 50 illuminates the shooting area including the subject O. The solid-state imaging device 20 forms an optical image of an imaging region including the subject O illuminated by the flash. At this time, an optical image of the imaging region may be formed with red eyes in the subject O.

固体撮像装置20は、結像された光学像に対応した電気信号を発生させて、光学像(入力画像)を電気信号(アナログ信号)に変換する。固体撮像装置20は、変換後のアナログ信号をアナログ信号処理部30へ供給する。   The solid-state imaging device 20 generates an electrical signal corresponding to the formed optical image, and converts the optical image (input image) into an electrical signal (analog signal). The solid-state imaging device 20 supplies the converted analog signal to the analog signal processing unit 30.

アナログ信号処理部30は、そのアナログ信号の波形にクランプやゲインなどの処理を行う。アナログ信号処理部30は、処理後のアナログ信号をA/D変換部40へ供給する。   The analog signal processing unit 30 performs processes such as clamping and gain on the waveform of the analog signal. The analog signal processing unit 30 supplies the processed analog signal to the A / D conversion unit 40.

A/D変換部40は、アナログ信号をデジタル信号へ変換する。A/D変換部40は、変換後のデジタル信号をデジタル信号処理部60へ供給する。   The A / D converter 40 converts an analog signal into a digital signal. The A / D converter 40 supplies the converted digital signal to the digital signal processor 60.

デジタル信号処理部60は、デジタル信号に各種の補正を行い、出力画像を表示させるための画像データを生成する。ここで、デジタル信号処理部60は、画像データを生成する際に、内部記憶部80にアクセスし、画像データの一部又は全部を内部記憶部80に格納する。デジタル信号処理部60は、その画像データを画像表示部70、内部記憶部80及び外部I/F90に供給する。   The digital signal processing unit 60 performs various corrections on the digital signal and generates image data for displaying an output image. Here, when generating the image data, the digital signal processing unit 60 accesses the internal storage unit 80 and stores part or all of the image data in the internal storage unit 80. The digital signal processing unit 60 supplies the image data to the image display unit 70, the internal storage unit 80, and the external I / F 90.

画像表示部70は、画像データをデジタル信号処理部60や内部記憶部80から受け取り、画像データに対応した出力画像を逐次表示する。これにより、画像表示部70は、表示デバイスを電子ファインダとして機能させる。   The image display unit 70 receives image data from the digital signal processing unit 60 and the internal storage unit 80, and sequentially displays output images corresponding to the image data. Thereby, the image display unit 70 causes the display device to function as an electronic viewfinder.

外部I/F90には、外部記憶装置が接続される。これにより、外部I/F90に供給された画像データは、外部記憶装置に最終的に保存される。   An external storage device is connected to the external I / F 90. Thereby, the image data supplied to the external I / F 90 is finally stored in the external storage device.

デジタル信号処理部の詳細構成を、図2を用いて説明する。   A detailed configuration of the digital signal processing unit will be described with reference to FIG.

デジタル信号処理部60は、主として、色変換部61、色処理部62、LPF(Low Pass Filter)63、輝度処理部64、BPF(Band Pass Filter)65を備える。デジタル信号処理部60は、輪郭強調部66、赤目検出部67、顔検出部68、判定部71及び赤目補正部69を備える。これらは、デジタル信号処理部60の構成のうち、画像データの生成及び赤目補正を行う部分の構成である。   The digital signal processing unit 60 mainly includes a color conversion unit 61, a color processing unit 62, an LPF (Low Pass Filter) 63, a luminance processing unit 64, and a BPF (Band Pass Filter) 65. The digital signal processing unit 60 includes an outline emphasizing unit 66, a red-eye detecting unit 67, a face detecting unit 68, a determining unit 71, and a red-eye correcting unit 69. These are the configurations of the portion of the digital signal processing unit 60 that performs image data generation and red-eye correction.

色変換部61は、A/D変換部40(図1参照)、色処理部62、LPF63及びBPF65に接続されている。色処理部62は、色変換部61、赤目検出部67及び判定部71に接続されている。輝度処理部64は、LPF63、赤目検出部67及び判定部71に接続されている。輪郭強調部66は、BPF65、顔検出部68及び判定部71に接続されている。判定部71は、色処理部62、輝度処理部64、輪郭強調部66、赤目検出部67、顔検出部68及び赤目補正部69に接続されている。赤目補正部69は、画像表示部70,内部記憶部80及び外部I/F90に接続されている。   The color conversion unit 61 is connected to the A / D conversion unit 40 (see FIG. 1), the color processing unit 62, the LPF 63, and the BPF 65. The color processing unit 62 is connected to the color conversion unit 61, the red eye detection unit 67, and the determination unit 71. The luminance processing unit 64 is connected to the LPF 63, the red eye detection unit 67, and the determination unit 71. The contour enhancement unit 66 is connected to the BPF 65, the face detection unit 68, and the determination unit 71. The determination unit 71 is connected to the color processing unit 62, the luminance processing unit 64, the contour enhancement unit 66, the red eye detection unit 67, the face detection unit 68, and the red eye correction unit 69. The red-eye correction unit 69 is connected to the image display unit 70, the internal storage unit 80, and the external I / F 90.

次に、デジタル信号処理部の詳細動作を、図2を用いて説明する。   Next, the detailed operation of the digital signal processing unit will be described with reference to FIG.

色変換部61には、光学像(入力画像)のRGBを示すデジタル信号がA/D変換部40から入力される。色変換部61は、入力画像のRGBから輝度信号Yと色差信号Cr,Cbを生成、分離する。色変換部61は、色差信号Cr,Cbなどを色処理部62に供給し、輝度信号YなどをLPF63及びBPF65に供給する。   A digital signal indicating RGB of the optical image (input image) is input from the A / D converter 40 to the color converter 61. The color conversion unit 61 generates and separates the luminance signal Y and the color difference signals Cr and Cb from the RGB of the input image. The color conversion unit 61 supplies the color difference signals Cr, Cb and the like to the color processing unit 62 and supplies the luminance signal Y and the like to the LPF 63 and the BPF 65.

色処理部62は、色差信号Cr,Cbなどに対して、ホワイトバランスの調整、色処理、ガンマ処理などを行う。ここで、色処理は、例えば、高輝度、低輝度の色の濃さを薄くする処理である。色処理部62は、これらの処理が施された色信号を赤目検出部67及び判定部71へ供給する。   The color processing unit 62 performs white balance adjustment, color processing, gamma processing, and the like on the color difference signals Cr and Cb. Here, the color processing is, for example, processing for reducing the intensity of high luminance and low luminance colors. The color processing unit 62 supplies the color signal subjected to these processes to the red-eye detection unit 67 and the determination unit 71.

LPF63には、輝度信号Yなどが色変換部61から入力される。LPF63は、輝度信号Yなどの入力信号のうち低周波成分を通過させる。LPF63は、輝度信号Yなどの低周波成分を輝度処理部64へ供給する。   The luminance signal Y and the like are input from the color conversion unit 61 to the LPF 63. The LPF 63 passes a low frequency component of the input signal such as the luminance signal Y. The LPF 63 supplies a low frequency component such as the luminance signal Y to the luminance processing unit 64.

輝度処理部64は、輝度信号Yなどの低周波成分に対して、フィルタ処理、輝度補正、ガンマ処理などを行う。輝度処理部64は、これらの処理が施された輝度信号を赤目検出部67及び判定部71へ供給する。   The luminance processing unit 64 performs filter processing, luminance correction, gamma processing, and the like on low frequency components such as the luminance signal Y. The luminance processing unit 64 supplies the luminance signal subjected to these processes to the red-eye detection unit 67 and the determination unit 71.

BPF65には、輝度信号Yなどが色変換部61から入力される。BPF65は、輝度信号Yなどの入力信号のうち高周波成分を通過させる。BPF65は、輝度信号Yなどの高周波成分(輪郭信号)を輪郭強調部66へ供給する。   A luminance signal Y and the like are input from the color conversion unit 61 to the BPF 65. The BPF 65 passes a high frequency component of the input signal such as the luminance signal Y. The BPF 65 supplies a high-frequency component (contour signal) such as a luminance signal Y to the contour emphasizing unit 66.

輪郭強調部66は、輝度信号Yなどの高周波成分(輪郭信号)に対して、輪郭強調処理を行う。輪郭強調部66は、これらの処理が施された輪郭信号を顔検出部68及び判定部71へ供給する。   The contour emphasizing unit 66 performs contour emphasis processing on high-frequency components (contour signals) such as the luminance signal Y. The contour enhancement unit 66 supplies the contour signal subjected to these processes to the face detection unit 68 and the determination unit 71.

赤目検出部67は、入力部5を介して、フラッシュ発光情報をフラッシュ50から受け取る。赤目検出部67は、色信号を色処理部62から受け取り、輝度信号を輝度処理部64から受け取る。赤目検出部67は、色信号及び輝度信号などを介して、赤目補正候補領域を検出する。ここで、赤目補正候補領域は、被写体Oの赤目補正を行う候補となる領域である。それとともに、赤目検出部67は、赤目検出結果に基づき、赤目検出信頼度を生成して出力する。赤目検出信頼度は、被写体Oから赤目補正候補領域として検出された領域の赤目らしさを示す。赤目検出信頼度は、例えば、被写体Oの赤目補正候補領域を検出した結果の信頼度を数値で示したものであり、大きな値であるときに信頼度が高いことを示し、小さな値であるときに信頼度が低いことを示す。   The red-eye detection unit 67 receives flash emission information from the flash 50 via the input unit 5. The red-eye detection unit 67 receives a color signal from the color processing unit 62 and receives a luminance signal from the luminance processing unit 64. The red-eye detection unit 67 detects a red-eye correction candidate region via a color signal and a luminance signal. Here, the red-eye correction candidate area is an area that is a candidate for red-eye correction of the subject O. At the same time, the red-eye detection unit 67 generates and outputs red-eye detection reliability based on the red-eye detection result. The red-eye detection reliability indicates the redness of an area detected from the subject O as a red-eye correction candidate area. The red-eye detection reliability is, for example, a numerical value indicating the reliability of the detection result of the red-eye correction candidate area of the subject O. When the red-eye detection reliability is a large value, the reliability is high. Indicates that the reliability is low.

顔検出部68は、輪郭信号を輪郭強調部66から受け取る。顔検出部68は、輪郭信号などを介して、赤目補正候補領域に対して被写体Oの顔を検出する。それとともに、顔検出部68は、顔検出結果に基づき、顔検出信頼度を生成して出力する。顔検出信頼度は、被写体Oから顔候補領域として検出された領域の顔らしさを示す。顔候補領域は、被写体Oの顔であると認識された領域である。顔検出信頼度は、例えば、被写体Oの顔候補領域を検出した結果の信頼度を数値で示したものであり、大きな値であるときに信頼度が高いことを示し、小さな値であるときに信頼度が低いことを示す。   The face detection unit 68 receives the contour signal from the contour enhancement unit 66. The face detection unit 68 detects the face of the subject O with respect to the red-eye correction candidate region via a contour signal or the like. At the same time, the face detection unit 68 generates and outputs a face detection reliability based on the face detection result. The face detection reliability indicates the likelihood of a face in an area detected as a face candidate area from the subject O. The face candidate area is an area recognized as the face of the subject O. The face detection reliability is, for example, a numerical value indicating the reliability of the result of detecting the face candidate area of the subject O. When the face detection reliability is a large value, the reliability is high. When the face detection reliability is a small value, Indicates that the reliability is low.

なお、本発明における顔検出に関しては、公知の顔検出技術を用いることとする。公知の顔検出技術として、例えば、ニューラルネットワークに代表される学習を用いた手法が挙げられる。あるいは、公知の顔検出技術として、目や鼻や口といった形状に特徴のある部位を、画像領域からテンプレートマッチングを用い探し出し類似度が高ければ顔とみなす手法が挙げられる。また、他にも、肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法等、多数提案されており、一般的にはこれらの手法を複数組み合わせて顔認識するのが一般的である。   Note that a known face detection technique is used for the face detection in the present invention. As a known face detection technique, for example, there is a technique using learning represented by a neural network. Alternatively, as a known face detection technique, there is a method in which a part having a characteristic shape such as an eye, a nose, or a mouth is searched from an image area using template matching and is regarded as a face if the similarity is high. In addition, many other methods have been proposed, such as methods that detect image features such as skin color and eye shape and use statistical analysis. In general, multiple methods are used to recognize faces. Is common.

具体的な例としては特開平2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。   Specific examples include a face detection method using wavelet transform and image feature amount described in JP-A-2002-251380.

判定部71は、赤目補正候補領域の情報と赤目検出信頼度とを赤目検出部67から受け取り、被写体Oの顔の情報と顔検出信頼度とを顔検出部68から受け取る。判定部71は、色信号を色処理部62から受け取り、輝度信号を輝度処理部64から受け取り、輪郭強調信号を輪郭強調部66から受け取る。判定部71は、これらの情報に基づいて、被写体Oの赤目を検出することに成功している度合いを各赤目補正候補領域に対して判定する。ここで、判定部71は、判定する際に、メモリ(図示せず)にアクセスして、成功度合い判定テーブル(図7参照)を参照する。判定部71は、成功している度合いの情報を赤目補正候補領域の識別情報(例えば、後述する赤目位置情報)に対応付けて赤目補正部69へ供給する。また、判定部71は、赤目補正候補領域の情報、被写体Oの顔の情報、色信号、輝度信号及び輪郭信号を赤目補正部69へ転送する。   The determination unit 71 receives information on the red-eye correction candidate region and the red-eye detection reliability from the red-eye detection unit 67, and receives information on the face of the subject O and the face detection reliability from the face detection unit 68. The determination unit 71 receives a color signal from the color processing unit 62, receives a luminance signal from the luminance processing unit 64, and receives an edge enhancement signal from the edge enhancement unit 66. Based on these pieces of information, the determination unit 71 determines the degree of success in detecting the red eye of the subject O for each red-eye correction candidate region. Here, when determining, the determination unit 71 accesses a memory (not shown) and refers to the success degree determination table (see FIG. 7). The determination unit 71 supplies information on the degree of success to the red-eye correction unit 69 in association with identification information (for example, red-eye position information described later) of the red-eye correction candidate region. In addition, the determination unit 71 transfers information on the red-eye correction candidate area, information on the face of the subject O, color signal, luminance signal, and contour signal to the red-eye correction unit 69.

赤目補正部69は、成功している度合いの情報を赤目補正候補領域の識別情報に対応付けて画像表示部70へ出力する。   The red-eye correction unit 69 outputs information indicating the degree of success to the image display unit 70 in association with the identification information of the red-eye correction candidate area.

また、赤目補正部69は、入力部5の削除ボタン5c(図12参照)を介して入力された削除命令を赤目補正候補領域の識別情報に対応付けて受け取る。赤目補正部69は、削除命令により指定された赤目補正候補領域の情報を削除する。   In addition, the red-eye correction unit 69 receives a delete command input via the delete button 5c (see FIG. 12) of the input unit 5 in association with identification information of the red-eye correction candidate area. The red-eye correction unit 69 deletes information on the red-eye correction candidate area specified by the deletion command.

赤目補正部69は、入力部5の確定ボタン5d(図12参照)を介して入力された確定命令を受け取る。赤目補正部69は、確定命令に応じて、赤目補正候補領域に対して赤目補正を行う。ここで、すでに情報が削除された赤目補正候補領域に対して、赤目補正は行われない。   The red-eye correction unit 69 receives a confirmation command input via the confirmation button 5d (see FIG. 12) of the input unit 5. The red-eye correction unit 69 performs red-eye correction on the red-eye correction candidate area according to the confirmation command. Here, red-eye correction is not performed on the red-eye correction candidate area whose information has already been deleted.

次に、撮像装置が赤目補正を行う処理の流れを、図3〜図9に示すフローチャート及び図10〜図15の概念図を用いて説明する。図3〜図9に示す処理は、主として図1に示すデジタル信号処理部により行われる。   Next, the flow of processing in which the imaging apparatus performs red-eye correction will be described using the flowcharts shown in FIGS. 3 to 9 and the conceptual diagrams of FIGS. The processing shown in FIGS. 3 to 9 is mainly performed by the digital signal processing unit shown in FIG.

ステップS1では、赤目補正部69は、フラッシュ撮影が行われたか否かの判断を行う。すなわち、利用者により、低照度撮影時などにおいて、入力部5を介して、フラッシュ発光情報がデジタル信号処理部60に入力される。フラッシュ発光情報は、フラッシュの発光を指示する情報である。デジタル信号処理部60は、フラッシュ発光情報に応じて、フラッシュ50に発光を行わせる。これにより、フラッシュ50は、被写体Oを含む撮影領域を照らす。そして、固体撮像装置20には、フラッシュに照らされた被写体Oを含む撮影領域の光学像が結像する。このとき、被写体Oに赤目が生じた状態で、撮影領域の光学像が結像することがある。   In step S1, the red-eye correction unit 69 determines whether flash photography has been performed. That is, the flash light emission information is input to the digital signal processing unit 60 via the input unit 5 at the time of low-illuminance shooting by the user. The flash emission information is information for instructing flash emission. The digital signal processing unit 60 causes the flash 50 to emit light according to the flash emission information. As a result, the flash 50 illuminates the shooting area including the subject O. The solid-state imaging device 20 forms an optical image of an imaging region including the subject O illuminated by the flash. At this time, an optical image of the imaging region may be formed with red eyes in the subject O.

デジタル信号処理部60内の赤目補正部69は、赤目検出部67及び判定部71経由でフラッシュ発光情報をフラッシュ50から受け取った場合、フラッシュ撮影が行われたと判断する。赤目補正部69は、赤目検出部67及び判定部71経由でフラッシュ発光情報をフラッシュ50から受け取らなかった場合、フラッシュ撮影が行われなかったと判断する。赤目補正部69は、フラッシュ撮影が行われたと判断した場合、処理をステップS2へ進め、フラッシュ撮影が行われなかったと判断した場合、処理を終了する。   When the red-eye correction unit 69 in the digital signal processing unit 60 receives the flash emission information from the flash 50 via the red-eye detection unit 67 and the determination unit 71, the red-eye correction unit 69 determines that flash photography has been performed. When the red-eye correction unit 69 does not receive the flash emission information from the flash 50 via the red-eye detection unit 67 and the determination unit 71, the red-eye correction unit 69 determines that flash photography has not been performed. If the red-eye correction unit 69 determines that flash photography has been performed, the process proceeds to step S2, and if it is determined that flash photography has not been performed, the processing ends.

ステップS2では、デジタル信号処理部60は、赤目検出信頼度及び顔検出信頼度の閾値を設定する。すなわち、デジタル信号処理部60内の赤目補正部69は、メモリ(図示せず)に記憶されていた赤目検出閾値TH1及び顔検出閾値TH2を読み出し判定部71へ渡す。   In step S2, the digital signal processing unit 60 sets thresholds for red-eye detection reliability and face detection reliability. That is, the red-eye correction unit 69 in the digital signal processing unit 60 reads the red-eye detection threshold value TH1 and the face detection threshold value TH2 stored in the memory (not shown) and passes them to the determination unit 71.

判定部71は、赤目検出閾値TH1が設定された旨の情報を赤目検出部67へ供給するとともに、顔検出閾値TH2が設定された旨の情報を顔検出部68へ供給する。   The determination unit 71 supplies information indicating that the red-eye detection threshold value TH1 has been set to the red-eye detection unit 67 and also supplies information indicating that the face-detection threshold value TH2 has been set to the face detection unit 68.

ステップS3では、赤目検出部67は、赤目検出閾値TH1が設定された旨の情報を受け取ったことに応じて、赤目検出処理を行う。例えば、赤目検出部67は、赤目補正候補領域を検出すると共に、赤目検出信頼度も算出する。赤目検出部67は、赤目検出処理を完了したら、赤目検出処理を完了した旨の情報、赤目補正候補領域及び赤目検出信頼度を判定部71へ供給する。なお、赤目検出処理の詳細な説明については後述する。   In step S3, the red-eye detection unit 67 performs red-eye detection processing in response to receiving information indicating that the red-eye detection threshold TH1 has been set. For example, the red-eye detection unit 67 detects the red-eye correction candidate region and calculates the red-eye detection reliability. When the red-eye detection unit 67 completes the red-eye detection process, the red-eye detection unit 67 supplies information indicating that the red-eye detection process has been completed, a red-eye correction candidate region, and a red-eye detection reliability to the determination unit 71. Details of the red-eye detection process will be described later.

ステップS4では、顔検出部68は、顔検出閾値TH2が設定された旨の情報を受け取ったことに応じて、上述した公知の顔検出処理を行う。例えば、顔検出部68は、顔候補領域を検出すると共に、顔検出信頼度も算出する。顔検出部68は、顔検出処理を完了したら、顔検出処理を完了した旨の情報、顔補正候補領域及び顔検出信頼度を判定部71へ供給する。なお、顔検出処理の詳細な説明については後述する。   In step S4, the face detection unit 68 performs the known face detection process described above in response to receiving information indicating that the face detection threshold value TH2 has been set. For example, the face detection unit 68 detects the face candidate area and calculates the face detection reliability. When the face detection process is completed, the face detection unit 68 supplies information indicating that the face detection process is completed, a face correction candidate region, and a face detection reliability to the determination unit 71. The detailed description of the face detection process will be described later.

ステップS5では、判定部71は、赤目検出処理を完了した旨の情報及び顔検出処理を完了した旨の情報を両方とも受け取ったことに応じて、成功度合い判定処理を行う。なお、成功度合い判定処理の詳細な説明については後述する。
成功度合い「低」成功度合い「低」成功度合い「低」成功度合い「NG」成功度合い「NG」成功度合い「NG」 ステップS6では、赤目補正部69が赤目補正処理を行う。なお、赤目補正処理の詳細な説明については後述する。
In step S5, the determination unit 71 performs a success degree determination process in response to receiving both information indicating that the red-eye detection process is completed and information indicating that the face detection process is completed. A detailed description of the success degree determination process will be described later.
Success degree “Low” Success degree “Low” Success degree “Low” Success degree “NG” Success degree “NG” Success degree “NG” In step S 6, the red-eye correction unit 69 performs a red-eye correction process. Details of the red-eye correction process will be described later.

このようにして、撮像装置1は、赤目補正を行う。   In this way, the imaging device 1 performs red-eye correction.

次に、赤目検出処理を、図4に示すフローチャート及び図10、図11の概念図を用いて説明する。図10、図11は、主として図1に示す画像表示部70により表示される画面の一例である。なお、図11は、内部的な処理を説明するための仮想的な画面の一例であり、実際には、画像表示部70により表示されない。   Next, the red-eye detection process will be described using the flowchart shown in FIG. 4 and the conceptual diagrams of FIGS. 10 and 11. 10 and 11 are examples of screens displayed mainly by the image display unit 70 shown in FIG. Note that FIG. 11 is an example of a virtual screen for explaining internal processing, and is not actually displayed by the image display unit 70.

ステップS21では、色差信号が色処理部62に入力され、輝度信号がLPF63及びBPF65に入力される。すなわち、デジタル信号処理部60の色変換部61には、光学像(入力画像)のRGBを示すデジタル信号がA/D変換部40から入力される。色変換部61は、入力画像のRGBから輝度信号Yと色差信号Cr,Cbを生成、分離する。色変換部61は、色差信号Cr,Cbなどを色処理部62に供給し、輝度信号YなどをLPF63及びBPF65に供給する。   In step S21, the color difference signal is input to the color processing unit 62, and the luminance signal is input to the LPF 63 and the BPF 65. That is, a digital signal indicating RGB of the optical image (input image) is input from the A / D conversion unit 40 to the color conversion unit 61 of the digital signal processing unit 60. The color conversion unit 61 generates and separates the luminance signal Y and the color difference signals Cr and Cb from the RGB of the input image. The color conversion unit 61 supplies the color difference signals Cr, Cb and the like to the color processing unit 62 and supplies the luminance signal Y and the like to the LPF 63 and the BPF 65.

色処理部62は、色差信号Cr,Cbなどに対して、ホワイトバランスの調整、色処理、ガンマ処理などを行う。ここで、色処理は、例えば、高輝度、低輝度の色の濃さを薄くする処理である。色処理部62は、これらの処理が施された色信号を赤目検出部67及び判定部71へ供給する。   The color processing unit 62 performs white balance adjustment, color processing, gamma processing, and the like on the color difference signals Cr and Cb. Here, the color processing is, for example, processing for reducing the intensity of high luminance and low luminance colors. The color processing unit 62 supplies the color signal subjected to these processes to the red-eye detection unit 67 and the determination unit 71.

LPF63には、輝度信号Yなどが色変換部61から入力される。LPF63は、輝度信号Yなどの入力信号のうち低周波成分を通過させる。LPF63は、輝度信号Yなどの低周波成分を輝度処理部64へ供給する。   The luminance signal Y and the like are input from the color conversion unit 61 to the LPF 63. The LPF 63 passes a low frequency component of the input signal such as the luminance signal Y. The LPF 63 supplies a low frequency component such as the luminance signal Y to the luminance processing unit 64.

輝度処理部64は、輝度信号Yなどの低周波成分に対して、フィルタ処理、輝度補正、ガンマ処理などを行う。輝度処理部64は、これらの処理が施された輝度信号を赤目検出部67及び判定部71へ供給する。   The luminance processing unit 64 performs filter processing, luminance correction, gamma processing, and the like on low frequency components such as the luminance signal Y. The luminance processing unit 64 supplies the luminance signal subjected to these processes to the red-eye detection unit 67 and the determination unit 71.

ステップS22では、赤目検出部67は入力信号に対して赤目検出を行う。すなわち、赤目検出部67は、色信号を色処理部62から受け取り、輝度信号を輝度処理部64から受け取る。赤目検出部67は、色信号及び輝度信号などを介して、赤目補正候補領域を検出する。ここで、赤目補正候補領域は、被写体Oの赤目補正を行う候補となる領域である。   In step S22, the red eye detector 67 performs red eye detection on the input signal. That is, the red-eye detection unit 67 receives a color signal from the color processing unit 62 and receives a luminance signal from the luminance processing unit 64. The red-eye detection unit 67 detects a red-eye correction candidate region via a color signal and a luminance signal. Here, the red-eye correction candidate area is an area that is a candidate for red-eye correction of the subject O.

例えば、図10に示すように、画像GIで示される撮影領域に、被写体O1〜O3が存在する場合を考える。ここで、被写体O1,O2は正面を向いているのに対して、被写体O3は横を向いている。このとき、赤目検出部67は、図11に示すように、赤目補正候補領域R1,R2,R3,R4,R5を検出する。   For example, as shown in FIG. 10, consider a case where subjects O1 to O3 exist in the shooting area indicated by the image GI. Here, the subjects O1 and O2 face the front, while the subject O3 faces the side. At this time, the red-eye detection unit 67 detects red-eye correction candidate regions R1, R2, R3, R4, and R5 as shown in FIG.

ステップS23では、赤目検出部67は、赤目検出信頼度を生成して出力する。赤目検出信頼度は、被写体Oから赤目補正候補領域として検出された領域の赤目らしさを示す。また、赤目検出信頼度は、例えば、被写体Oの赤目補正候補領域を検出した結果の信頼度を数値で示したものであり、大きな値であるときに信頼度が高いことを示し、小さな値であるときに信頼度が低いことを示す。   In step S23, the red eye detection unit 67 generates and outputs a red eye detection reliability. The red-eye detection reliability indicates the redness of an area detected from the subject O as a red-eye correction candidate area. The red-eye detection reliability is, for example, a numerical value indicating the reliability of the detection result of the red-eye correction candidate area of the subject O, and indicates that the reliability is high when the value is large, and is a small value. In some cases, the reliability is low.

具体的には、赤目検出部67は、色相、彩度、明度、輝度などを分析する。そして、赤目検出部67は、該当の画素(エリア)が赤であるか(パラメータRP1)、該当の画素(エリア)の周辺画素(エリア)が肌色であるか(パラメータRP2)を演算する。赤目検出部67は、該当の画素(エリア)が高輝度であるか(パラメータRP3)、該当の画素(エリア)が丸い形状をしているか(パラメータRP4)を演算する。そして、赤目検出部67は、赤目検出信頼度RRを
RR=K1×RP1+K2×RP2+K3×RP3+K4×RP4・・・数式1
の式により演算する。ここで、K1、K2、K3、K4は、実験などにより予め求められた定数である。
Specifically, the red eye detection unit 67 analyzes hue, saturation, brightness, luminance, and the like. Then, the red-eye detection unit 67 calculates whether the corresponding pixel (area) is red (parameter RP1) or whether the peripheral pixel (area) of the corresponding pixel (area) is skin color (parameter RP2). The red-eye detection unit 67 calculates whether the corresponding pixel (area) has high luminance (parameter RP3) or whether the corresponding pixel (area) has a round shape (parameter RP4). Then, the red-eye detection unit 67 sets the red-eye detection reliability RR to RR = K1 × RP1 + K2 × RP2 + K3 × RP3 + K4 × RP4 Equation 1
It calculates by the formula of Here, K1, K2, K3, and K4 are constants obtained in advance through experiments or the like.

なお、本実施形態において赤目検出信頼度RRを構成する要素を上記のように規定したが、赤目検出の信頼度を推定するために有効な要素であれば上記した要素に限定されるわけではない。   In the present embodiment, the elements constituting the red-eye detection reliability RR are defined as described above. However, the elements are not limited to the above-described elements as long as they are effective elements for estimating the reliability of red-eye detection. .

例えば、赤目検出部67は、数式1のような演算を行い、赤目補正候補領域R1,R2,R3,R4,R5(図11参照)について、赤目検出信頼度RR1,RR2,RR3,RR4,RR5を生成する。例えば、図11に示すような入力信号が得られた場合、赤目検出信頼度RR1,RR2,RR3,RR4,RR5と赤目検出閾値TH1とは、それぞれ、数式2〜数式6のような関係にあることになる。   For example, the red-eye detection unit 67 performs the calculation of Equation 1 and the red-eye detection reliability RR1, RR2, RR3, RR4, RR5 for the red-eye correction candidate regions R1, R2, R3, R4, R5 (see FIG. 11). Is generated. For example, when an input signal as shown in FIG. 11 is obtained, the red-eye detection reliability RR1, RR2, RR3, RR4, RR5 and the red-eye detection threshold TH1 are in a relationship as shown in Equations 2 to 6, respectively. It will be.

RR1≧TH1・・・数式2
RR2≧TH1・・・数式3
RR3<TH1・・・数式4
RR4≧TH1・・・数式5
RR5<TH1・・・数式6
ステップS24では、赤目検出部67は、赤目検出信頼度を出力する。すなわち、デジタル信号処理部60内の赤目検出部67は、赤目補正候補領域(例えば、R1〜R5)の情報と赤目検出信頼度(例えば、RR1〜RR5)とを判定部71へ出力する。
RR1 ≧ TH1 Formula 2
RR2 ≧ TH1 Formula 3
RR3 <TH1 ... Formula 4
RR4 ≧ TH1 Formula 5
RR5 <TH1 ... Formula 6
In step S24, the red eye detection unit 67 outputs the red eye detection reliability. That is, the red-eye detection unit 67 in the digital signal processing unit 60 outputs information on the red-eye correction candidate regions (for example, R1 to R5) and red-eye detection reliability (for example, RR1 to RR5) to the determination unit 71.

次に、顔検出処理を、主として、図5に示すフローチャート及び図10、図11に示す概念図を用いて説明する。図10、図11は、主として図1に示す画像表示部70により表示される画面の一例である。なお、図11は、内部的な処理を説明するための仮想的な画面の一例であり、実際には、画像表示部70により表示されない。   Next, the face detection process will be described mainly using the flowchart shown in FIG. 5 and the conceptual diagrams shown in FIGS. 10 and 11 are examples of screens displayed mainly by the image display unit 70 shown in FIG. Note that FIG. 11 is an example of a virtual screen for explaining internal processing, and is not actually displayed by the image display unit 70.

ステップS31では、顔検出部68は、入力信号に対して上述した公知の顔検出方法を用いることで顔領域の検出を行う。   In step S31, the face detection unit 68 detects a face area by using the known face detection method described above for the input signal.

例えば、図10に示すように、画像GIで示される撮影領域に、被写体O1〜O3が存在する場合を考える。ここで、被写体O1,O2は正面を向いているのに対して、被写体O3は横を向いている。このとき、顔検出部68は、図11に示すように、顔候補領域F1,F2,F3を検出する。顔候補領域F1,F2,F3は、それぞれ、被写体O1,O2,O3の顔であると認識された領域である。   For example, as shown in FIG. 10, consider a case where subjects O1 to O3 exist in the shooting area indicated by the image GI. Here, the subjects O1 and O2 face the front, while the subject O3 faces the side. At this time, the face detection unit 68 detects face candidate regions F1, F2, and F3 as shown in FIG. The face candidate areas F1, F2, and F3 are areas recognized as the faces of the subjects O1, O2, and O3, respectively.

ステップS32では、顔検出部68は、ステップS31の顔検出結果に基づき、顔検出信頼度を演算し、出力する。顔検出信頼度は、被写体Oから顔候補領域として検出された領域の顔らしさを示す。顔検出信頼度は、例えば、被写体Oの顔候補領域を検出した結果の信頼度を数値で示したものであり、大きな値であるときに信頼度が高いことを示し、小さな値であるときに信頼度が低いことを示す。   In step S32, the face detection unit 68 calculates and outputs a face detection reliability based on the face detection result in step S31. The face detection reliability indicates the likelihood of a face in an area detected as a face candidate area from the subject O. The face detection reliability is, for example, a numerical value indicating the reliability of the result of detecting the face candidate area of the subject O. When the face detection reliability is a large value, the reliability is high. When the face detection reliability is a small value, Indicates that the reliability is low.

具体的には、顔検出部68は、輝度パターンなどを分析する。そして、顔検出部68は、目が検出されるか(パラメータFP1)、鼻が検出されるか(パラメータFP2)を演算する。さらに、顔検出部68は、口が検出されるか(パラメータFP3)、耳が検出されるか(パラメータFP4)を演算する。そして、顔検出部68は、顔検出信頼度FRを
FR=K5×FP1+K6×FP2+K7×FP3+K8×FP4・・・数式7
の式により演算する。ここで、K5、K6、K7、K8は、実験などにより予め求められた定数である。
Specifically, the face detection unit 68 analyzes a luminance pattern and the like. Then, the face detection unit 68 calculates whether eyes are detected (parameter FP1) or nose is detected (parameter FP2). Further, the face detection unit 68 calculates whether the mouth is detected (parameter FP3) or the ear is detected (parameter FP4). Then, the face detection unit 68 sets the face detection reliability FR to FR = K5 × FP1 + K6 × FP2 + K7 × FP3 + K8 × FP4 Equation 7
It calculates by the formula of Here, K5, K6, K7, and K8 are constants obtained in advance by experiments or the like.

なお、本実施形態において赤目検出信頼度RRを構成する要素を上記のように規定したが、赤目検出の信頼度を推定するために有効な要素であれば上記した要素に限定されるわけではない。   In the present embodiment, the elements constituting the red-eye detection reliability RR are defined as described above. However, the elements are not limited to the above-described elements as long as they are effective elements for estimating the reliability of red-eye detection. .

例えば、顔検出部68は、数式7ような演算を行い、顔候補領域F1,F2,F3に対して、顔検出信頼度FR1,FR2,FR3を生成する。例えば、図11に示す場合、顔検出信頼度FR1,FR2,FR3と顔検出閾値TH2とは、それぞれ、数式8〜数式10のような関係にあることになる。   For example, the face detection unit 68 performs the calculation of Equation 7, and generates face detection reliability FR1, FR2, FR3 for the face candidate regions F1, F2, F3. For example, in the case shown in FIG. 11, the face detection reliability FR1, FR2, FR3 and the face detection threshold TH2 are in a relationship as shown in Expression 8 to Expression 10, respectively.

FR1≧TH2・・・数式8
FR2≧TH2・・・数式9
FR3≧TH2・・・数式10
ステップS33では、顔検出信頼度を出力する。すなわち、デジタル信号処理部60の顔検出部68は、被写体Oの顔の情報(例えば、顔候補領域F1,F2,F3の情報)と顔検出信頼度(例えば、顔検出信頼度FR1,FR2,FR3)とを判定部71へ出力する。
FR1 ≧ TH2 Expression 8
FR2 ≧ TH2 Expression 9
FR3 ≧ TH2 Expression 10
In step S33, the face detection reliability is output. That is, the face detection unit 68 of the digital signal processing unit 60 includes information on the face of the subject O (for example, information on the face candidate areas F1, F2, and F3) and face detection reliability (for example, face detection reliability FR1, FR2, and so on). FR3) to the determination unit 71.

次に、成功度合い判定処理を、図6に示すフローチャート及び図7、図10、図11の概念図を用いて説明する。図7は、図2に示す判定部71がメモリ(図示せず)にアクセスして参照する成功度合い参照テーブルを示す。図10、図11は、主として図1に示す画像表示部70により表示される画面の一例である。なお、図11は、内部的な処理を説明するための仮想的な画面の一例であり、実際には、画像表示部70により表示されない。   Next, the success degree determination process will be described with reference to a flowchart shown in FIG. 6 and conceptual diagrams of FIGS. 7, 10, and 11. FIG. FIG. 7 shows a success degree reference table that the determination unit 71 shown in FIG. 2 accesses and references a memory (not shown). 10 and 11 are examples of screens displayed mainly by the image display unit 70 shown in FIG. Note that FIG. 11 is an example of a virtual screen for explaining internal processing, and is not actually displayed by the image display unit 70.

ステップS51では、判定部71は、赤目補正候補領域を選択する。すなわち、デジタル信号処理部60内の判定部71は、赤目補正候補領域の情報(赤目位置情報を含む)と赤目検出信頼度とを赤目検出部67から受け取る。赤目位置情報は、画像における赤目補正候補領域の位置を示す情報である。判定部71は、複数の赤目補正候補領域から判定の対象とする赤目補正候補領域(赤目位置情報)を選択する。なお、判定部71は、メモリ(図示せず)を参照してすでに判定した赤目補正候補領域を特定するとともに、判定の対象とする赤目補正候補領域をメモリに追加記憶する。   In step S51, the determination unit 71 selects a red-eye correction candidate area. That is, the determination unit 71 in the digital signal processing unit 60 receives information on the red-eye correction candidate area (including red-eye position information) and the red-eye detection reliability from the red-eye detection unit 67. The red-eye position information is information indicating the position of the red-eye correction candidate area in the image. The determination unit 71 selects a red-eye correction candidate region (red-eye position information) to be determined from a plurality of red-eye correction candidate regions. Note that the determination unit 71 specifies a red-eye correction candidate area that has already been determined with reference to a memory (not shown), and additionally stores the red-eye correction candidate area to be determined in the memory.

ステップS52では、判定部71は、赤目補正候補領域が顔候補領域に含まれるか否かを判断する。すなわち、判定部71は、顔補正候補領域の情報(顔位置情報を含む)と顔検出信頼度とを顔検出部68から受け取る。顔位置情報は、画像における顔候補領域の位置を示す情報である。   In step S52, the determination unit 71 determines whether the red-eye correction candidate region is included in the face candidate region. That is, the determination unit 71 receives information on face correction candidate regions (including face position information) and face detection reliability from the face detection unit 68. The face position information is information indicating the position of the face candidate area in the image.

判定部71は、赤目位置情報と顔位置情報とに基づいて、赤目補正候補領域と顔候補領域との包含関係を判断する。判定部71は、赤目位置情報が1以上の顔位置情報のうちのいずれかに含まれていると判断すれば、その赤目位置情報に対応する赤目補正候補領域が顔候補領域に含まれていると判断する。判定部71は、赤目位置情報が1以上の顔位置情報のうちのいずれにも含まれていないと判断すれば、その赤目位置情報に対応する赤目補正候補領域が顔候補領域に含まれていないと判断する。   The determination unit 71 determines the inclusion relationship between the red-eye correction candidate area and the face candidate area based on the red-eye position information and the face position information. If the determination unit 71 determines that the red-eye position information is included in any one or more of the face position information, the red-eye correction candidate area corresponding to the red-eye position information is included in the face candidate area. Judge. If the determination unit 71 determines that the red-eye position information is not included in any of the one or more pieces of face position information, the red-eye correction candidate area corresponding to the red-eye position information is not included in the face candidate area. Judge.

例えば、図10に示す被写体O1〜O3に対して、図11に示すように、赤目補正候補領域R1〜R5と顔候補領域F1〜F3とが検出された場合を考える。この場合、判定部71は、赤目補正候補領域R1〜R3を、それぞれ、顔候補領域F1〜F3に含まれていると判断する。判定部71は、赤目補正候補領域R4,R5を、それぞれ、顔候補領域F1〜F3のいずれにも含まれていないと判断する。   For example, consider a case where red-eye correction candidate regions R1 to R5 and face candidate regions F1 to F3 are detected for the subjects O1 to O3 shown in FIG. 10, as shown in FIG. In this case, the determination unit 71 determines that the red-eye correction candidate regions R1 to R3 are included in the face candidate regions F1 to F3, respectively. The determination unit 71 determines that the red-eye correction candidate regions R4 and R5 are not included in any of the face candidate regions F1 to F3.

判定部71は、赤目補正候補領域が顔候補領域に含まれていると判断する場合、処理をステップS54へ進める。判定部71は、赤目補正候補領域が顔候補領域に含まれていないと判断する場合、処理をステップS53へ進める。   If the determination unit 71 determines that the red-eye correction candidate area is included in the face candidate area, the process proceeds to step S54. If the determination unit 71 determines that the red-eye correction candidate area is not included in the face candidate area, the process proceeds to step S53.

ステップS53では、判定部71は、顔検出信頼度が「低」であると判定する。つまり、赤目補正候補領域が顔候補領域に含まれていないので、赤目補正候補領域を含む仮想的な顔候補領域を想定し、その顔候補領域の顔らしさが低いものと判定する。   In step S53, the determination unit 71 determines that the face detection reliability is “low”. That is, since the red-eye correction candidate area is not included in the face candidate area, a virtual face candidate area including the red-eye correction candidate area is assumed, and it is determined that the face candidate area has a low likelihood of being a face.

例えば、図11に示す場合、判定部71は、赤目補正候補領域R4,R5を含む仮想的な顔候補領域F4,F5を想定する。そして、判定部71は、顔候補領域F4,F5の顔検出信頼度を「低」と判定する。   For example, in the case illustrated in FIG. 11, the determination unit 71 assumes virtual face candidate regions F4 and F5 including red-eye correction candidate regions R4 and R5. Then, the determination unit 71 determines the face detection reliability of the face candidate areas F4 and F5 to be “low”.

ステップS54では、判定部71は、顔検出信頼度が閾値以上であるか否かを判断する。すなわち、デジタル信号処理部60の判定部71は、被写体Oの顔の情報と顔検出信頼度とを顔検出部68から受け取る。判定部71は、顔検出信頼度により示される顔検出信頼度FRと、顔検出閾値TH2とを比較する。そして、判定部71は、FR≧TH2であると判断する場合に、顔検出信頼度が「高」であると判定する。判定部71は、FR<TH2であると判断する場合に、顔検出信頼度が「低」であると判定する。   In step S54, the determination unit 71 determines whether or not the face detection reliability is greater than or equal to a threshold value. That is, the determination unit 71 of the digital signal processing unit 60 receives the face information of the subject O and the face detection reliability from the face detection unit 68. The determination unit 71 compares the face detection reliability FR indicated by the face detection reliability with the face detection threshold TH2. Then, when determining that FR ≧ TH2, the determination unit 71 determines that the face detection reliability is “high”. The determination unit 71 determines that the face detection reliability is “low” when determining that FR <TH2.

例えば、図11に示す場合、判定部71は、数式8〜数式10に示すように、顔候補領域F1,F2,F3に対して、顔検出信頼度を「高」と判定する。   For example, in the case illustrated in FIG. 11, the determination unit 71 determines that the face detection reliability is “high” for the face candidate regions F1, F2, and F3, as illustrated in Equations 8 to 10.

ここで、成功度合いを判定するために、赤目検出信頼度に加えてさらに顔検出信頼度を用いる理由を説明する。   Here, the reason for using the face detection reliability in addition to the red-eye detection reliability in order to determine the success degree will be described.

本来、目は顔の中にしか存在しない。そこで、目は顔の中に存在するという前提に基づいて、赤目補正候補領域であったとしても、顔候補領域としての信頼度が低ければ、それは目ではないと判断し、赤目補正候補領域から排除する。これにより、より判定の精度を高めることができる。   Originally, eyes exist only in the face. Therefore, based on the assumption that the eyes exist in the face, even if it is a red eye correction candidate area, if the reliability as the face candidate area is low, it is determined that it is not an eye, and the red eye correction candidate area Exclude. Thereby, the precision of determination can be improved more.

つまり、顔検出信頼度を考慮して赤目検出に成功しているか否かを判断及び決定するので、赤目補正すべき赤目補正候補領域と赤目補正すべきでない赤目補正候補領域とはさらに区別しやすくなる。   That is, since it is determined and determined whether or not the red-eye detection is successful in consideration of the face detection reliability, it is easier to distinguish the red-eye correction candidate area that should be corrected for red-eye and the red-eye correction candidate area that should not be corrected for red-eye. Become.

なお、本実施形態においては、閾値を一つだけ設定しているが、閾値を複数個設定することで、顔らしさのランク分けを更に細かくしてもよい。そうすることで、複数の顔候補領域が検出された際に、より細かく優先度付けを行うことが可能になる。   In the present embodiment, only one threshold value is set. However, by setting a plurality of threshold values, the ranking of facial appearance may be further refined. By doing so, it is possible to prioritize more finely when a plurality of face candidate regions are detected.

ステップS55では、判定部71は、赤目検出信頼度が閾値以上であるか否かを判断する。すなわち、デジタル信号処理部60内の判定部71は、赤目検出信頼度により示される赤目検出信頼度RR1と、赤目検出閾値TH1とを比較する。そして、判定部71は、RR1≧TH1であると判断する場合に、赤目検出信頼度が「高」であると判定する。判定部71は、RR1<TH1であると判断する場合に、赤目検出信頼度が「低」であると判定する。   In step S55, the determination unit 71 determines whether or not the red-eye detection reliability is equal to or higher than a threshold value. That is, the determination unit 71 in the digital signal processing unit 60 compares the red-eye detection reliability RR1 indicated by the red-eye detection reliability with the red-eye detection threshold TH1. When determining that RR1 ≧ TH1, the determination unit 71 determines that the red-eye detection reliability is “high”. The determination unit 71 determines that the red-eye detection reliability is “low” when determining that RR1 <TH1.

例えば、図11に示す場合、判定部71は、数式2,数式3,数式5に示すように、赤目補正候補領域R1,R2,R4に対して、赤目検出信頼度を「高」と判定する。判定部71は、数式4,数式6に示すように、赤目補正候補領域R3,R5に対して、赤目検出信頼度を「低」と判定する。   For example, in the case illustrated in FIG. 11, the determination unit 71 determines that the red-eye detection reliability is “high” for the red-eye correction candidate regions R1, R2, and R4 as illustrated in Equations 2, 2, and 5. . As shown in Equations 4 and 6, the determination unit 71 determines that the red-eye detection reliability is “low” for the red-eye correction candidate regions R 3 and R 5.

なお、本実施形態においては、閾値を一つだけ設定しているが、閾値を複数個設定することで、赤目らしさのランク分けを更に細かくしてもよい。そうすることで、複数の赤目候補領域が検出された際に、より細かく優先度付けを行うことが可能になる。   In the present embodiment, only one threshold value is set. However, by setting a plurality of threshold values, the rank classification of redness may be further refined. By doing so, it is possible to prioritize more finely when a plurality of red-eye candidate regions are detected.

ステップS56では、判定部71は、成功度合いを判定する。すなわち、判定部71は、赤目検出信頼度について判定した結果と、顔検出信頼度について判定した結果とに基づいて、赤目検出に成功している度合い(成功度合い)を判定する。ここで、判定部71は、判定する際に、メモリ(図示せず)にアクセスして、成功度合い判定テーブル(図7参照)を参照する。   In step S56, the determination unit 71 determines the degree of success. That is, the determination unit 71 determines the degree (success level) of successful red-eye detection based on the determination result regarding the red-eye detection reliability and the determination result regarding the face detection reliability. Here, when determining, the determination unit 71 accesses a memory (not shown) and refers to the success degree determination table (see FIG. 7).

図7に示すように、判定部71は、赤目検出信頼度を「高」と判定し顔検出信頼度を「高」と判定した場合、成功度合いを「高」と判定する。判定部71は、赤目検出信頼度を「低」と判定し顔検出信頼度を「高」と判定した場合、成功度合いを「中」と判定する。判定部71は、赤目検出信頼度を「高」と判定し顔検出信頼度を「低」と判定した場合、成功度合いを「低」と判定する。判定部71は、赤目検出信頼度を「低」と判定し顔検出信頼度を「低」と判定した場合、成功度合いを「NG」と判定する。   As illustrated in FIG. 7, when the determination unit 71 determines that the red-eye detection reliability is “high” and the face detection reliability is “high”, the determination unit 71 determines that the success degree is “high”. When the determination unit 71 determines that the red-eye detection reliability is “low” and the face detection reliability is “high”, the determination unit 71 determines that the success degree is “medium”. When the determination unit 71 determines that the red-eye detection reliability is “high” and the face detection reliability is “low”, the determination unit 71 determines that the success degree is “low”. When the determination unit 71 determines that the red-eye detection reliability is “low” and the face detection reliability is “low”, the determination unit 71 determines the success level as “NG”.

例えば、図11に示す場合、判定部71は、赤目補正候補領域R1,R2の赤目検出信頼度を「高」と判定し、赤目補正候補領域R1,R2を含む顔候補領域F1,F2の顔検出信頼度を「高」と判定している。これにより、判定部71は、赤目補正候補領域R1に対して、成功度合いを「高」と判定する。   For example, in the case illustrated in FIG. 11, the determination unit 71 determines that the red-eye detection reliability of the red-eye correction candidate regions R1 and R2 is “high”, and the faces of the face candidate regions F1 and F2 including the red-eye correction candidate regions R1 and R2 The detection reliability is determined as “high”. Accordingly, the determination unit 71 determines the success degree as “high” for the red-eye correction candidate region R1.

判定部71は、赤目補正候補領域R3の赤目検出信頼度を「低」と判定し、赤目補正候補領域R3を含む顔候補領域F3の顔検出信頼度を「高」と判定している。これにより、判定部71は、赤目補正候補領域R3に対して、成功度合いを「中」と判定する。   The determination unit 71 determines that the red-eye detection reliability of the red-eye correction candidate region R3 is “low”, and determines the face detection reliability of the face candidate region F3 including the red-eye correction candidate region R3 is “high”. Accordingly, the determination unit 71 determines the success degree as “medium” for the red-eye correction candidate region R3.

判定部71は、赤目補正候補領域R4の赤目検出信頼度を「高」と判定し、赤目補正候補領域R4を含む仮想的な顔候補領域F4の顔検出信頼度を「低」と判定している。これにより、判定部71は、赤目補正候補領域R4に対して、成功度合いを「小」と判定する。   The determination unit 71 determines the red eye detection reliability of the red eye correction candidate region R4 as “high”, and determines the face detection reliability of the virtual face candidate region F4 including the red eye correction candidate region R4 as “low”. Yes. Thereby, the determination unit 71 determines the success degree as “small” for the red-eye correction candidate region R4.

判定部71は、赤目補正候補領域R5の赤目検出信頼度を「低」と判定し、赤目補正候補領域R5を含む仮想的な顔候補領域F5の顔検出信頼度を「低」と判定している。これにより、判定部71は、赤目補正候補領域R5に対して、成功度合いを「NG」と判定する。   The determination unit 71 determines that the red-eye detection reliability of the red-eye correction candidate region R5 is “low”, and determines the face detection reliability of the virtual face candidate region F5 including the red-eye correction candidate region R5 is “low”. Yes. Accordingly, the determination unit 71 determines the success degree as “NG” for the red-eye correction candidate region R5.

ステップS57では、判定部71は、全ての赤目補正候補領域に対して判定が行われたか否かを判断する。判定が行われたと判断した場合、処理をステップS12へ進め、判定が行われていないと判断した場合、処理をステップS4へ進める。
なお、ステップS5、ステップS8において、ランク分けを細かくすることで、赤目検出に成功している度合いのランク分けをより詳細に行うことができる。
In step S57, the determination unit 71 determines whether determination has been performed for all red-eye correction candidate regions. If it is determined that the determination has been made, the process proceeds to step S12. If it is determined that the determination has not been made, the process proceeds to step S4.
In addition, in step S5 and step S8, by making the rank division finer, the rank division of the degree of success in red-eye detection can be performed in more detail.

このように、成功度合い判定処理により、全ての赤目補正候補領域に対して、赤目検出に成功している度合いが「高」、「中」、「低」、「NG」にランク付けされる。すなわち、デジタル信号処理部60の判定部71は、赤目検出に成功している度合いを判定している。   As described above, the success degree determination process ranks the degree of success of red-eye detection for all red-eye correction candidate areas as “high”, “medium”, “low”, and “NG”. That is, the determination unit 71 of the digital signal processing unit 60 determines the degree of successful red-eye detection.

次に、赤目補正処理を、図8,図9に示すフローチャート及び図12〜図15の概念図を用いて説明する。図12〜図15は、撮像装置の背面図の一例である。   Next, the red-eye correction process will be described with reference to the flowcharts shown in FIGS. 8 and 9 and the conceptual diagrams of FIGS. 12 to 15 are examples of rear views of the imaging apparatus.

ステップS41では、画像表示部70は、成功度合い「NG」と決定された領域(以下、「NG領域」とする)を表示する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が選択ボタン5bを押したことを検知することにより、NG領域の表示命令を受け付ける。入力部5は、NG領域の表示命令を、デジタル信号処理部60へ供給する。そのNG領域の表示命令は、デジタル信号処理部60において、赤目検出部67及び判定部71経由で赤目補正部69へ供給される。赤目補正部69は、NG領域の表示命令に基づいて、1以上のNG領域の中から表示すべきNG領域を選択する。赤目補正部69は、画像情報とともに、選択されたNG領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、選択されたNG領域の情報とに基づいて、削除候補を表示デバイスに表示する。ここで、削除候補は、複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である。   In step S <b> 41, the image display unit 70 displays an area determined as the success level “NG” (hereinafter referred to as “NG area”). That is, the input unit 5 of the digital signal processing unit 60 receives a display command for the NG area by detecting that the user has pressed the selection button 5b, for example. The input unit 5 supplies an NG area display command to the digital signal processing unit 60. The display command for the NG area is supplied to the red-eye correction unit 69 via the red-eye detection unit 67 and the determination unit 71 in the digital signal processing unit 60. The red-eye correction unit 69 selects an NG area to be displayed from one or more NG areas based on an NG area display command. The red-eye correction unit 69 supplies the information on the selected NG area together with the image information to the image display unit 70. The image display unit 70 displays deletion candidates on the display device based on the image information and the information on the selected NG area. Here, the deletion candidate is a red-eye correction candidate area that is a candidate to be deleted from the red-eye correction target in a plurality of red-eye correction candidate areas.

例えば、図12では、画像表示部70により、画像GIとともに、赤目補正候補領域R5がNG領域であることを示すフレームRF5が、削除候補を示す情報として表示される。   For example, in FIG. 12, the image display unit 70 displays a frame RF5 indicating that the red-eye correction candidate region R5 is an NG region together with the image GI as information indicating a deletion candidate.

なお、本実施形態において画像GIは画像表示部70のサイズに合わせて表示されているが、選択ボタン5bを操作することで拡大した画像を表示することも可能である。   In the present embodiment, the image GI is displayed in accordance with the size of the image display unit 70, but it is also possible to display an enlarged image by operating the selection button 5b.

これにより、赤目補正候補領域R5が削除候補であることを把握することができ、赤目補正候補領域R5を赤目補正する対象から削除すべきか否かの判断を利用者に促すことができる。すなわち、赤目補正候補領域R5を削除すべきか否かの判断を利用者に促すことができ、削除すべきであると判断した場合に削除命令を入力するように利用者に促すことができる。   Thereby, it is possible to grasp that the red-eye correction candidate region R5 is a deletion candidate, and it is possible to prompt the user to determine whether or not the red-eye correction candidate region R5 should be deleted from the target for red-eye correction. That is, it is possible to prompt the user to determine whether or not the red-eye correction candidate region R5 should be deleted, and to prompt the user to input a deletion command when it is determined that it should be deleted.

ステップS42では、判定部71は、削除が指定されたか否かを判断する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が削除ボタン5cを押したことを検知することにより、削除命令を受け付ける。入力部5は、削除命令をデジタル信号処理部60へ供給する。その削除命令は、デジタル信号処理部60において、赤目検出部67経由で判定部71へ供給される。判定部71は、削除命令を受け取った場合、削除が指定されたと判断し、削除命令を受け取っていない場合、削除が指定されていないと判断する。判定部71は、削除が指定されたと判断した場合、処理をステップS43へ進め、削除が指定されていないと判断した場合、処理をステップS44へ進める。   In step S42, the determination unit 71 determines whether or not deletion is designated. That is, the input unit 5 of the digital signal processing unit 60 receives a deletion command by detecting that the user has pressed the deletion button 5c, for example. The input unit 5 supplies a deletion command to the digital signal processing unit 60. The deletion command is supplied to the determination unit 71 via the red-eye detection unit 67 in the digital signal processing unit 60. The determination unit 71 determines that the deletion is specified when the deletion command is received, and determines that the deletion is not specified when the deletion command is not received. If the determination unit 71 determines that deletion is specified, the process proceeds to step S43. If the determination unit 71 determines that deletion is not specified, the determination unit 71 proceeds to step S44.

ステップS43では、赤目補正部69は、削除が指定された赤目補正候補領域の情報を削除する。すなわち、判定部71は、削除命令を赤目補正部69へ供給する。赤目補正部69は、削除命令に基づいて、メモリ(図示せず)を参照して、選択された赤目補正候補領域の情報を削除する。なお、メモリには、全ての赤目補正候補領域の情報が記憶されているものとする。   In step S43, the red-eye correction unit 69 deletes the information of the red-eye correction candidate area designated for deletion. That is, the determination unit 71 supplies a deletion command to the red-eye correction unit 69. Based on the delete command, the red-eye correction unit 69 refers to a memory (not shown) and deletes information on the selected red-eye correction candidate area. It is assumed that information on all red-eye correction candidate areas is stored in the memory.

そして、赤目補正部69は、画像情報とともに、削除されたNG領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、削除されたNG領域の情報とに基づいて、図12に示す画像GIに代えて図13に示す画像GIを表示デバイスに表示する。   Then, the red-eye correction unit 69 supplies the deleted NG area information to the image display unit 70 together with the image information. The image display unit 70 displays the image GI shown in FIG. 13 on the display device instead of the image GI shown in FIG. 12 based on the image information and the deleted NG area information.

例えば、図13では、画像表示部70により、赤目補正候補領域R5に対応する部分のハイライト表示(図中では斜線)が消えた状態で表示される。これにより、赤目補正候補領域R5が赤目補正の対象から削除されたことを把握することができる。   For example, in FIG. 13, the image display unit 70 displays the highlighted display of the portion corresponding to the red-eye correction candidate region R <b> 5 (shaded line in the drawing). As a result, it is possible to grasp that the red-eye correction candidate region R5 has been deleted from the red-eye correction target.

ステップS44では、判定部71は、全てのNG領域が選択されたか否かを判断する。判定部71は、全てのNG領域が選択されたと判断した場合、処理をステップS45へ進め、全てのNG領域が選択されていないと判断した場合、処理をステップS41へ進める。   In step S44, the determination unit 71 determines whether all NG regions have been selected. If determining unit 71 determines that all NG regions have been selected, the process proceeds to step S45. If determining unit 71 determines that all NG regions have not been selected, the process proceeds to step S41.

ステップS45では、判定部71は、確定が指定されたか否かを判断する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が確定ボタン5dを押したことを検知することにより、確定命令を受け付ける。入力部5は、確定命令をデジタル信号処理部60へ供給する。その確定命令は、デジタル信号処理部60において、赤目検出部67経由で判定部71へ供給される。判定部71は、確定命令を受け取った場合、確定が指定されたと判断し、確定命令を受け取っていない場合、確定が指定されていないと判断する。判定部71は、確定が指定されたと判断した場合、処理をステップS46(図8,7で示す(1))へ進め、確定が指定されていないと判断した場合、処理をステップS50(図8,7で示す(2))へ進める。   In step S45, the determination unit 71 determines whether or not confirmation is designated. That is, the input unit 5 of the digital signal processing unit 60 receives a confirmation command by detecting that the user has pressed the confirmation button 5d, for example. The input unit 5 supplies a confirmation command to the digital signal processing unit 60. The confirmation command is supplied to the determination unit 71 via the red-eye detection unit 67 in the digital signal processing unit 60. The determination unit 71 determines that the confirmation is designated when the confirmation command is received, and determines that the confirmation is not designated when the confirmation command is not received. If the determination unit 71 determines that confirmation is designated, the process proceeds to step S46 ((1) shown in FIGS. 8 and 7). If it is determined that confirmation is not designated, the process proceeds to step S50 (FIG. 8). , 7 (2)).

ステップS46では、画像表示部70が、成功度合い「低」と決定された領域(以下、「低領域」とする)を表示する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が選択ボタン5bを押したことを検知することにより、低領域の表示命令を受け付ける。入力部5は、低領域の表示命令を、デジタル信号処理部60へ供給する。その低領域の表示命令は、デジタル信号処理部60において、赤目検出部67及び判定部71経由で赤目補正部69へ供給される。赤目補正部69は、低領域の表示命令に基づいて、1以上の低領域の中から表示すべき低領域を選択する。赤目補正部69は、画像情報とともに、選択された低領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、選択された低領域の情報とに基づいて、削除候補を表示デバイスに表示する。ここで、削除候補は、複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である。   In step S <b> 46, the image display unit 70 displays an area determined to have a success level of “low” (hereinafter referred to as “low area”). That is, the input unit 5 of the digital signal processing unit 60 accepts a display command for a low region by detecting that the user has pressed the selection button 5b, for example. The input unit 5 supplies a display command for a low region to the digital signal processing unit 60. The display command for the low region is supplied to the red-eye correction unit 69 via the red-eye detection unit 67 and the determination unit 71 in the digital signal processing unit 60. The red-eye correction unit 69 selects a low region to be displayed from one or more low regions based on the low region display command. The red-eye correction unit 69 supplies the selected low region information together with the image information to the image display unit 70. The image display unit 70 displays the deletion candidate on the display device based on the image information and the selected low area information. Here, the deletion candidate is a red-eye correction candidate area that is a candidate to be deleted from the red-eye correction target in a plurality of red-eye correction candidate areas.

例えば、図13では、画像表示部70により、画像GIとともに、赤目補正候補領域R4が低領域であることを示すフレームRF4が、削除候補を示す情報として表示される。これにより、赤目補正候補領域R4が削除候補であることを把握することができ、赤目補正候補領域R4を赤目補正する対象から削除すべきか否かの判断を利用者に促すことができる。すなわち、赤目補正候補領域R4を削除すべきか否かの判断を利用者に促すことができ、削除すべきであると判断した場合に削除命令を入力するように利用者に促すことができる。   For example, in FIG. 13, the image display unit 70 displays a frame RF4 indicating that the red-eye correction candidate region R4 is a low region together with the image GI as information indicating the deletion candidate. Thereby, it is possible to grasp that the red-eye correction candidate region R4 is a deletion candidate, and it is possible to prompt the user to determine whether or not the red-eye correction candidate region R4 should be deleted from the target for red-eye correction. That is, the user can be prompted to determine whether or not the red-eye correction candidate region R4 should be deleted, and the user can be prompted to input a deletion command when it is determined that the red-eye correction candidate region R4 should be deleted.

ステップS47では、判定部71は、削除が指定されたか否かを判断する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が削除ボタン5cを押したことを検知することにより、削除命令を受け付ける。入力部5は、削除命令をデジタル信号処理部60へ供給する。その削除命令は、デジタル信号処理部60において、赤目検出部67経由で判定部71へ供給される。判定部71は、削除命令を受け取った場合、削除が指定されたと判断し、削除命令を受け取っていない場合、削除が指定されていないと判断する。判定部71は、削除が指定されたと判断した場合、処理をステップS48へ進め、削除が指定されていないと判断した場合、処理をステップS49へ進める。   In step S47, the determination unit 71 determines whether or not deletion is designated. That is, the input unit 5 of the digital signal processing unit 60 receives a deletion command by detecting that the user has pressed the deletion button 5c, for example. The input unit 5 supplies a deletion command to the digital signal processing unit 60. The deletion command is supplied to the determination unit 71 via the red-eye detection unit 67 in the digital signal processing unit 60. The determination unit 71 determines that the deletion is specified when the deletion command is received, and determines that the deletion is not specified when the deletion command is not received. If the determination unit 71 determines that deletion is specified, the process proceeds to step S48. If the determination unit 71 determines that deletion is not specified, the determination unit 71 proceeds to step S49.

ステップS48では、赤目補正部69は、削除が指定された赤目補正候補領域の情報を削除する。すなわち、判定部71は、削除命令を赤目補正部69へ供給する。赤目補正部69は、削除命令に基づいて、メモリ(図示せず)を参照して、選択された赤目補正候補領域の情報を削除する。なお、メモリには、全ての赤目補正候補領域の情報が記憶されているものとする。   In step S48, the red-eye correction unit 69 deletes the information of the red-eye correction candidate area designated for deletion. That is, the determination unit 71 supplies a deletion command to the red-eye correction unit 69. Based on the delete command, the red-eye correction unit 69 refers to a memory (not shown) and deletes information on the selected red-eye correction candidate area. It is assumed that information on all red-eye correction candidate areas is stored in the memory.

そして、赤目補正部69は、画像情報とともに、削除された低領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、削除された低領域の情報とに基づいて、図13に示す画像GIに代えて図14に示す画像GIを表示デバイスに表示する。   Then, the red-eye correction unit 69 supplies the deleted low area information together with the image information to the image display unit 70. The image display unit 70 displays the image GI shown in FIG. 14 on the display device instead of the image GI shown in FIG. 13 based on the image information and the deleted information on the low region.

例えば、図14では、画像表示部70により、赤目補正候補領域R4に対応する部分のハイライト表示(図中では斜線)が消えた状態で表示される。これにより、赤目補正候補領域R4が赤目補正の対象から削除されたことを把握することができる。   For example, in FIG. 14, the image display unit 70 displays the highlighted display (indicated by the slanted line in the drawing) of the portion corresponding to the red-eye correction candidate region R <b> 4. Thereby, it can be understood that the red-eye correction candidate region R4 has been deleted from the target of red-eye correction.

ステップS49では、判定部71は、全ての低領域が選択されたか否かを判断する。判定部71は、全ての低領域が選択されたと判断した場合、処理をステップS45へ進め、全ての低領域が選択されていないと判断した場合、処理をステップS41へ進める。   In step S49, the determination unit 71 determines whether all the low regions have been selected. If the determination unit 71 determines that all the low regions have been selected, the process proceeds to step S45. If the determination unit 71 determines that all the low regions are not selected, the process proceeds to step S41.

なお、本実施形態において、NG領域と低領域とを対象として削除するか否かの指定を行っているが、中領域も対象として削除するか否かの指定を行ってもよい。こうすることで、より精度の高い赤目領域の除去を行うことができる。   In this embodiment, it is specified whether or not to delete the NG area and the low area, but it may be specified whether or not the middle area is also deleted. By doing so, it is possible to remove the red-eye region with higher accuracy.

ステップS50では、赤目補正部69は、赤目補正候補領域を確定する。すなわち、デジタル信号処理部60の判定部71は、確定命令を赤目補正部69へ供給する。赤目補正部69は、確定命令に基づき、メモリ(図示せず)を参照して、全ての赤目補正候補領域を確定する。そして、赤目補正部69は、画像情報とともに、確定された赤目補正候補領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、確定された赤目補正候補領域の情報とに基づいて、図14に示す画像GIに代えて図15に示す画像GIを表示デバイスに表示する。   In step S50, the red-eye correction unit 69 determines a red-eye correction candidate area. That is, the determination unit 71 of the digital signal processing unit 60 supplies a confirmation command to the red-eye correction unit 69. Based on the confirmation command, the red-eye correction unit 69 refers to a memory (not shown) and confirms all red-eye correction candidate regions. Then, the red-eye correction unit 69 supplies information on the determined red-eye correction candidate area together with the image information to the image display unit 70. The image display unit 70 displays the image GI shown in FIG. 15 on the display device instead of the image GI shown in FIG. 14 based on the image information and information on the determined red-eye correction candidate area.

例えば、図15では、画像表示部70により、赤目補正候補領域R1〜R3に対応する部分のハイライト表示(図中では斜線)が別のハイライト表示(図中では格子状のハッチング)で表示される。これにより、赤目補正候補領域R1〜R3が赤目補正の対象として確定したことを把握することができる。   For example, in FIG. 15, the image display unit 70 displays the highlighted display (hatched in the figure) corresponding to the red-eye correction candidate regions R1 to R3 as another highlighted display (lattice hatching in the figure). Is done. Thereby, it can be grasped that the red-eye correction candidate regions R1 to R3 are determined as the targets for red-eye correction.

以上のような処理により、画像表示部70により表示される画像は、例えば、図15に示すような画像になる。なお、図15において、実線斜線で示されている部分は、赤目位置情報を示す。赤目位置情報は、画像GIにおいて、赤目検出に成功していると判定部71が判定する場合における赤目補正候補領域R1,R2,R3の位置を示す情報である。   By the processing as described above, the image displayed by the image display unit 70 becomes, for example, an image as shown in FIG. In FIG. 15, the portion indicated by the solid diagonal line indicates red-eye position information. The red-eye position information is information indicating the positions of the red-eye correction candidate regions R1, R2, and R3 when the determination unit 71 determines that red-eye detection is successful in the image GI.

そして、赤目補正部69は、確定した赤目補正候補領域に対して赤目補正を行う。   Then, the red-eye correction unit 69 performs red-eye correction on the determined red-eye correction candidate region.

例えば、図15では、赤目補正部69は、複数の赤目補正候補領域R1〜R5において、削除命令で指定された赤目補正候補領域R4,R5を除く赤目補正候補領域R1〜R3を赤目補正する。   For example, in FIG. 15, the red-eye correction unit 69 corrects the red-eye correction candidate areas R1 to R3 excluding the red-eye correction candidate areas R4 and R5 specified by the deletion command in the plurality of red-eye correction candidate areas R1 to R5.

このように、フラッシュ撮影された画像GIの中において、赤目補正に失敗している可能性が高い順番に(赤目検出に成功している度合いが低い順番に)削除すべきかどうかの入力を、利用者に対して促すことができる。これにより、不適切な赤目補正候補領域を赤目補正の対象から削除することができるとともに、全ての赤目補正候補領域に対して赤目補正を行うか否かを指定することを避けることができる。このため、例えば赤目補正を適切に行うことができ、利用者側の処理負担を軽減できる。   As described above, in the image GI taken with the flash, the input indicating whether or not to delete the red eye correction in the order of the high possibility that the red eye correction has failed (in the order of the low degree of the red eye detection success) is used. Can be encouraged. Thereby, an inappropriate red-eye correction candidate area can be deleted from the target of red-eye correction, and it can be avoided to specify whether or not to perform red-eye correction on all red-eye correction candidate areas. For this reason, for example, red-eye correction can be performed appropriately, and the processing burden on the user side can be reduced.

なお、例えば、NG1,NG2,NG3(1から順に信頼度が低いとする)のように信頼度のランク分けが細かく設定されている場合、信頼度の低い順に削除せず、例えば、画面内の右から左に削除していくようにしても良い。   For example, when the reliability ranking is finely set as in NG1, NG2, NG3 (assuming that the reliability is low in order from 1), it is not deleted in the order of low reliability. You may make it delete from right to left.

例えば、拡大された再生画像から赤目補正候補領域の確認を行い削除するような場合、削除対象が離散的に存在している画像に対して信頼度の低い順に削除すると、削除のたびに表示対象(削除対象)が画像全体において右に左にと変わることがある。この場合、画像全体においてどれだけの削除対象が残っているか分かりにくい。そこで、上記のように、例えば、画面内の右から左に削除していくようにすることにより、削除残しを低減できる。   For example, in the case where the red eye correction candidate area is confirmed and deleted from the enlarged reproduced image, if the deletion target is deleted in the order of low reliability with respect to the image in which the deletion target exists discretely, the display target is displayed every time the deletion is performed. (Delete target) may change from right to left in the entire image. In this case, it is difficult to know how many deletion targets remain in the entire image. Therefore, as described above, for example, by deleting from the right to the left in the screen, it is possible to reduce the deletion residue.

なお、撮像装置のデジタル信号処理部は、BPF65の代わりにHPFを備えていてもよい。この場合でも、輝度信号Yなどの入力信号のうち高周波成分を通過させて輪郭強調部66へ供給することができる。   Note that the digital signal processing unit of the imaging apparatus may include an HPF instead of the BPF 65. Even in this case, the high frequency component of the input signal such as the luminance signal Y can be passed and supplied to the contour emphasizing unit 66.

本発明の好適な第2実施形態に係る撮像装置について、図16〜図22を参照して説明する。なお、第1実施形態と同様の部分は説明を省略し、第1実施形態と異なる部分を中心に説明する。   An imaging apparatus according to a preferred second embodiment of the present invention will be described with reference to FIGS. The description of the same parts as in the first embodiment will be omitted, and the description will focus on the parts that are different from the first embodiment.

撮像装置100は、図16に示すように、基本的な構成は第1実施形態と同様であるが、デジタル信号処理部60の代わりにデジタル信号処理部160を備え、入力部5の代わりに入力部105を備える点で、第1実施形態と異なる。具体的には、以下の点が異なる。   As shown in FIG. 16, the imaging apparatus 100 has the same basic configuration as that of the first embodiment, but includes a digital signal processing unit 160 instead of the digital signal processing unit 60, and inputs instead of the input unit 5. It differs from 1st Embodiment by the point provided with the part 105. FIG. Specifically, the following points are different.

すなわち、入力部105には、利用者により、画像表示部70が表示した画像(例えば、図21に示す画像GI)及び赤目位置情報(例えば、図21に示す実線斜線の領域)に基づいて、赤目検出閾値TH1の変更命令が入力される。   That is, based on the image (for example, the image GI shown in FIG. 21) and the red-eye position information (for example, the area indicated by the solid line in FIG. 21) displayed by the user on the input unit 105, A command for changing the red-eye detection threshold TH1 is input.

デジタル信号処理部160は、図17に示すように、赤目検出部67の代わりに赤目検出部167を備え、判定部71の代わりに判定部171を備え、赤目補正部69の代わりに赤目補正部169を備える。赤目補正部169は、赤目検出閾値TH1の変更命令を、赤目検出部167及び判定部171を経由して入力部105から受け取る。赤目補正部169は、変更後の赤目検出閾値TH1aを生成し判定部171へ渡す。判定部171は、赤目検出閾値TH1の代わりに変更後の赤目検出閾値TH1aを用いて判定を行う。   As shown in FIG. 17, the digital signal processing unit 160 includes a red-eye detection unit 167 instead of the red-eye detection unit 67, a determination unit 171 instead of the determination unit 71, and a red-eye correction unit instead of the red-eye correction unit 69. 169. The red-eye correction unit 169 receives an instruction to change the red-eye detection threshold value TH1 from the input unit 105 via the red-eye detection unit 167 and the determination unit 171. The red-eye correction unit 169 generates the changed red-eye detection threshold TH1a and passes it to the determination unit 171. The determination unit 171 performs determination using the changed red-eye detection threshold TH1a instead of the red-eye detection threshold TH1.

また、撮像装置が赤目検出を行う処理の流れが、図18及び図19に示すように、次の点で第1実施形態と異なる。なお、図18及び図19において、図3に示す処理と同様の処理は同じ記号で示し説明を省略する。   Further, as shown in FIGS. 18 and 19, the flow of processing in which the imaging apparatus performs red-eye detection differs from the first embodiment in the following points. In FIG. 18 and FIG. 19, the same processes as those shown in FIG.

ステップS131(図18、図19で示す(4))では、赤目検出閾値の変更命令を受け付けたか否かが判断される。すなわち、画像表示部70は、赤目位置情報とともに画像を表示する。赤目位置情報及び画像は利用者により閲覧される。   In step S131 ((4) shown in FIGS. 18 and 19), it is determined whether or not a red-eye detection threshold change command has been received. That is, the image display unit 70 displays an image together with the red eye position information. Red-eye position information and images are viewed by the user.

例えば、画像表示部70により表示される画像は、図21に示すような画像になる。図21において、実線斜線で示されている部分は、赤目位置情報を示す。図21の場合、赤目検出に成功していると判定部171が判定する場合における赤目補正候補領域R1,R2,R3,R4に対して、赤目位置情報が表示されている。ここで、赤目補正候補領域R1,R2,R3は、適切に判定されている。赤目補正候補領域R4は、誤判定されている。赤目位置情報とともに赤目補正候補領域R4が表示されていることを閲覧した利用者は、厳しめに設定するように赤目検出閾値TH1の変更命令を入力する。   For example, the image displayed by the image display unit 70 is an image as shown in FIG. In FIG. 21, the part indicated by the solid diagonal line indicates red-eye position information. In the case of FIG. 21, red-eye position information is displayed for the red-eye correction candidate regions R1, R2, R3, and R4 when the determination unit 171 determines that red-eye detection is successful. Here, the red-eye correction candidate regions R1, R2, and R3 are appropriately determined. The red-eye correction candidate region R4 is erroneously determined. A user who has viewed that the red-eye correction candidate area R4 is displayed together with the red-eye position information inputs a change command for the red-eye detection threshold TH1 so as to set it strictly.

このように、例えば、赤目補正すべきでない領域が誤判定された場合に、赤目検出閾値TH1を厳しめに設定しなおすように変更命令が入力される。   In this way, for example, when a region that should not be corrected for red-eye is erroneously determined, a change command is input so that the red-eye detection threshold TH1 is strictly set.

あるいは、例えば、画像表示部70により表示される画像は、図22に示すような画像になる。図22において、実線斜線で示されている部分は、赤目位置情報を示す。図22の場合、赤目検出に成功していると判定部171が判定する場合における赤目補正候補領域R1,R2に対して、赤目位置情報が表示されている。ここで、赤目補正候補領域R1,R2は、適切に判定されている。赤目補正候補領域R3は、本来なら赤目検出されるべき領域であり、誤判定されている。赤目位置情報とともに赤目補正候補領域R4が表示されていることを閲覧した利用者は、緩めに設定するように赤目検出閾値TH1の変更命令を入力する。   Alternatively, for example, the image displayed by the image display unit 70 is an image as shown in FIG. In FIG. 22, the part indicated by the solid diagonal line indicates red-eye position information. In the case of FIG. 22, red-eye position information is displayed for the red-eye correction candidate regions R1 and R2 when the determination unit 171 determines that red-eye detection is successful. Here, the red-eye correction candidate regions R1 and R2 are appropriately determined. The red-eye correction candidate region R3 is a region where red-eye should be detected originally, and is erroneously determined. A user who has viewed that the red-eye correction candidate region R4 is displayed together with the red-eye position information inputs a change command for the red-eye detection threshold TH1 so as to set it loosely.

このように、例えば、赤目補正すべき領域が誤判定された場合に、赤目検出閾値TH1を緩めに設定しなおすように変更命令が入力される。   In this way, for example, when a region to be corrected for red-eye is erroneously determined, a change command is input so as to reset the red-eye detection threshold TH1 to be loose.

デジタル信号処理部160の入力部105には、赤目検出閾値TH1の変更命令が入力される。赤目補正部169は、赤目検出部167及び判定部171を経由して赤目検出閾値TH1の変更命令を入力部105から受け取る。赤目補正部169は、赤目検出閾値TH1の変更命令を受け取った場合、赤目検出閾値の変更命令を受け付けたと判断する。赤目補正部169は、赤目検出閾値TH1の変更命令を受け取っていない場合、赤目検出閾値の変更命令を受け付けていないと判断する。   An instruction to change the red-eye detection threshold TH1 is input to the input unit 105 of the digital signal processing unit 160. The red-eye correction unit 169 receives an instruction to change the red-eye detection threshold value TH1 from the input unit 105 via the red-eye detection unit 167 and the determination unit 171. When the red-eye correction unit 169 receives a command to change the red-eye detection threshold TH1, it determines that a command to change the red-eye detection threshold has been received. If the red-eye correction unit 169 has not received a change command for the red-eye detection threshold TH1, it determines that a red-eye detection threshold change command has not been received.

赤目検出閾値の変更命令を受け付けたと判断された場合、赤目補正部169により変更後の赤目検出閾値TH1aが生成され判定部171へ渡され、ステップS1(図19、図18で示す(3))へ進められる。赤目検出閾値の変更命令を受け付けていないと判断された場合、処理が終了する。   When it is determined that a red-eye detection threshold change command has been received, the red-eye correction unit 169 generates a changed red-eye detection threshold TH1a and passes it to the determination unit 171 to perform step S1 ((3) shown in FIGS. 19 and 18). To proceed. If it is determined that a red-eye detection threshold change command has not been received, the process ends.

撮影された画像の中において赤目補正すべきでない領域に対して赤目補正されることが低減される点は、第1実施形態と同様である。したがって、このような撮像装置100によっても、例えば赤目補正は適切に行われる。   Similar to the first embodiment, red-eye correction is reduced for a region that should not be corrected for red-eye in a captured image. Therefore, even with such an imaging apparatus 100, for example, red-eye correction is appropriately performed.

ステップS105では、判定部171が、成功度合い判定処理を行う。具体的には、図20に示すように、成功度合い判定処理は、次の点で第1実施形態と異なる。   In step S105, the determination unit 171 performs a success degree determination process. Specifically, as shown in FIG. 20, the success degree determination process differs from the first embodiment in the following points.

ステップS155では、判定部171は、変更後の赤目検出閾値TH1aを受け取った場合、赤目検出閾値TH1の代わりに変更後の赤目検出閾値TH1aを用いて判定を行う。この点で、図6のステップS55と異なる。   In step S155, when the determination unit 171 receives the changed red-eye detection threshold TH1a, the determination unit 171 performs determination using the changed red-eye detection threshold TH1a instead of the red-eye detection threshold TH1. This is different from step S55 in FIG.

このように、例えば、赤目補正すべきでない領域が誤判定された場合に、赤目検出閾値TH1に代えて、厳しめに設定しなおされた赤目検出閾値TH1aにより赤目検出に成功したか否かが判定されるようになる。これにより、撮影された画像の中において赤目補正すべきでない領域に対して赤目補正されることがさらに低減される。   In this way, for example, when an area that should not be corrected for red-eye is erroneously determined, whether or not the red-eye detection has succeeded with the red-eye detection threshold TH1a that has been strictly set instead of the red-eye detection threshold TH1. It will be judged. This further reduces red-eye correction for areas that should not be red-eye corrected in the captured image.

また、例えば、赤目補正すべき領域が誤判定された場合に、赤目検出閾値TH1に代えて、緩めに設定しなおされた赤目検出閾値TH1aにより赤目検出に成功したか否かが判定されるようになる。これにより、撮影された画像の中において赤目補正すべき領域に対して赤目補正されないことも低減される。   In addition, for example, when a region to be corrected for red-eye is erroneously determined, it is determined whether or not the red-eye detection has succeeded based on the red-eye detection threshold TH1a that is set loosely instead of the red-eye detection threshold TH1. become. As a result, it is possible to reduce the fact that red-eye correction is not performed on a region to be corrected for red-eye in a captured image.

なお、利用者により撮像装置の入力部に入力されるのは、赤目検出閾値TH1の変更命令である代わりに顔検出閾値TH2の変更命令であってもよい。あるいは、利用者により撮像装置の入力部に入力されるのは、赤目検出閾値TH1の変更命令である代わりに赤目検出閾値TH1及び顔検出閾値TH2の変更命令であってもよい。   Note that what is input to the input unit of the imaging apparatus by the user may be a change instruction for the face detection threshold TH2 instead of a change instruction for the red-eye detection threshold TH1. Alternatively, what is input to the input unit of the imaging apparatus by the user may be a command to change the red-eye detection threshold TH1 and the face detection threshold TH2 instead of a command to change the red-eye detection threshold TH1.

次に、上述した各実施形態の機能を実現するためのプログラムについて説明する。   Next, a program for realizing the functions of the above-described embodiments will be described.

上述した各実施形態の機能を実現するように各種のデバイスを動作させ、その各種のデバイスと接続された装置あるいはシステム内のコンピュータに対して上述した各実施形態の機能を実現させるソフトウェアのプログラムコード(プログラム)を供給する。   Software program code for operating various devices so as to realize the functions of the above-described embodiments and realizing the functions of the above-described embodiments for a computer in an apparatus or system connected to the various devices. Supply (program).

そして、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に(ソフトウェア的に又はハードウェア的に)格納されたプログラムにしたがって上記の各種のデバイスを動作させるようにしたものも、本発明の範疇に含まれる。   Also, the scope of the present invention includes those in which the various devices described above are operated in accordance with a program (software or hardware) stored in a computer (CPU or MPU) of the system or apparatus. It is.

また、この場合、上記のソフトウェアのプログラム自体が上述した実施形態の機能を実現することになる。   In this case, the software program itself realizes the functions of the above-described embodiment.

また、そのプログラム自体、及びそのプログラムのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムを格納した記憶媒体も、本発明の範疇に含まれる。   Further, the program itself and means for supplying the program code of the program to a computer, for example, a storage medium storing such a program are also included in the scope of the present invention.

かかるプログラムを記憶する記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for storing such a program, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、供給されたプログラムをコンピュータが実行することにより、上述の実施形態の機能が実現されるだけではない。   In addition, the functions of the above-described embodiments are not only realized by the computer executing the supplied program.

例えば、そのプログラムがコンピュータにおいて稼動しているOS(オペレーティングシステム)あるいは他のアプリケーション等と協働して上述の実施形態の機能を実現させる場合にも、かかるプログラムは、本発明の範疇に含まれる。   For example, when the program realizes the functions of the above-described embodiment in cooperation with an OS (operating system) running on a computer or another application, the program is also included in the scope of the present invention. .

さらに、供給されたプログラムは、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納される。   Further, the supplied program is stored in a memory provided in a function expansion board of the computer or a function expansion unit connected to the computer.

そして、そのプログラムの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合にも、かかるプログラムは、本発明の範疇に含まれる。   Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and when the functions of the above-described embodiments are realized by the processing, Such a program is included in the category of the present invention.

本発明の好適な第1実施形態に係る撮像装置の構成図。The block diagram of the imaging device which concerns on suitable 1st Embodiment of this invention. 第1実施形態におけるデジタル信号処理部の構成図。The block diagram of the digital signal processing part in 1st Embodiment. 撮像装置が赤目検出を行う処理の流れを示すフローチャート。6 is a flowchart illustrating a flow of processing in which the imaging apparatus performs red-eye detection. 赤目補正処理を示すフローチャート。The flowchart which shows a red eye correction process. 顔補正処理を示すフローチャート。The flowchart which shows a face correction process. 成功度合い判定処理を示すフローチャート。The flowchart which shows a success degree determination process. 成功度合い判定テーブルを示す概念図。The conceptual diagram which shows a success degree determination table. 赤目補正処理を示すフローチャート。The flowchart which shows a red eye correction process. 赤目補正処理を示すフローチャート。The flowchart which shows a red eye correction process. 画像表示部により表示される画面の一例。An example of the screen displayed by an image display part. 画像表示部により表示される画面の一例。An example of the screen displayed by an image display part. 撮像装置の背面図の一例。An example of the rear view of an imaging device. 撮像装置の背面図の一例。An example of the rear view of an imaging device. 撮像装置の背面図の一例。An example of the rear view of an imaging device. 撮像装置の背面図の一例。An example of the rear view of an imaging device. 本発明の好適な第2実施形態に係る撮像装置の構成図。The block diagram of the imaging device which concerns on suitable 2nd Embodiment of this invention. 第2実施形態におけるデジタル信号処理部の構成図。The block diagram of the digital signal processing part in 2nd Embodiment. 撮像装置が赤目検出を行う処理の流れを示すフローチャート。6 is a flowchart illustrating a flow of processing in which the imaging apparatus performs red-eye detection. 撮像装置が赤目検出を行う処理の流れを示すフローチャート。6 is a flowchart illustrating a flow of processing in which the imaging apparatus performs red-eye detection. 成功度合い判定処理を示すフローチャート。The flowchart which shows a success degree determination process. 画像表示部により表示される画面の一例。An example of the screen displayed by an image display part. 画像表示部により表示される画面の一例。An example of the screen displayed by an image display part.

符号の説明Explanation of symbols

1,100 撮像装置
5,105 入力部
67,167 赤目検出部
68,168 顔検出部
69,169 赤目補正部
70 画像表示部
71,171 判定部
DESCRIPTION OF SYMBOLS 1,100 Imaging device 5,105 Input part 67,167 Red eye detection part 68,168 Face detection part 69,169 Red eye correction part 70 Image display part 71,171 Determination part

Claims (7)

画像の中から、赤目補正を行う候補となる領域である複数の赤目補正候補領域を検出するとともに、検出された赤目補正候補領域の赤目らしさを示す赤目検出信頼度を各前記赤目補正候補領域に対して生成する赤目検出部と、
少なくとも前記赤目検出信頼度に基づいて、検出することに成功している度合いを各前記赤目補正候補領域に対して判定する判定部と、
前記度合いに基づき、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに順次表示する表示部と、
を備えたことを特徴とする撮像装置。
A plurality of red-eye correction candidate areas that are candidates for red-eye correction are detected from the image, and a red-eye detection reliability indicating the redness of the detected red-eye correction candidate area is set in each of the red-eye correction candidate areas. A red-eye detector to be generated,
A determination unit that determines the degree of successful detection for each of the red-eye correction candidate regions based on at least the red-eye detection reliability;
Based on the degree, a display unit that sequentially displays deletion candidates that are red-eye correction candidate regions that are candidates to be deleted from red-eye correction targets in the plurality of red-eye correction candidate regions, together with the image;
An imaging apparatus comprising:
前記表示部は、前記度合いが低い順番に、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに順次表示する
ことを特徴とする請求項1に記載の撮像装置。
The display unit sequentially displays, together with the image, deletion candidates that are red-eye correction candidate regions that are candidates to be deleted from the red-eye correction target in the plurality of red-eye correction candidate regions in order of decreasing degree. The imaging device according to claim 1.
前記削除候補の削除を指定させる命令である削除命令が入力される入力部と、
前記複数の赤目補正候補領域において、前記削除命令で指定された赤目補正候補領域を除く赤目補正候補領域を赤目補正する赤目補正部と、
をさらに備えたことを特徴とする請求項1又は2に記載の撮像装置。
An input unit for inputting a deletion instruction that is an instruction for designating deletion of the deletion candidate;
A red-eye correction unit that corrects red-eye correction candidate areas excluding the red-eye correction candidate area specified by the deletion instruction in the plurality of red-eye correction candidate areas;
The imaging apparatus according to claim 1, further comprising:
前記画像の中から被写体の顔として認識された領域である複数の顔候補領域を検出するとともに、検出された顔候補領域の顔らしさを示す顔検出信頼度を各前記顔候補領域に対して生成する顔検出部をさらに備え、
前記判定部は、赤目補正候補領域の前記赤目検出信頼度と、赤目補正領域を含む顔候補領域の前記顔検出信頼度とに基づいて、前記度合いを判定する
請求項1から3のいずれか1項に記載の撮像装置。
A plurality of face candidate areas that are areas recognized as the face of the subject are detected from the image, and a face detection reliability indicating the face likeness of the detected face candidate area is generated for each face candidate area Further comprising a face detecting unit,
4. The determination unit according to claim 1, wherein the determination unit determines the degree based on the red-eye detection reliability of the red-eye correction candidate region and the face detection reliability of the face candidate region including the red-eye correction region. The imaging device according to item.
画像の中から、赤目補正を行う候補となる領域である複数の赤目補正候補領域を検出するとともに、検出された赤目補正候補領域の赤目らしさを示す赤目検出信頼度を各前記赤目補正候補領域に対して生成する赤目検出ステップと、
少なくとも前記赤目検出信頼度に基づいて、検出することに成功している度合いを各前記赤目補正候補領域に対して判定する判定ステップと、
前記度合いが低い順番に、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに表示する表示ステップと、
を備えたことを特徴とする撮像方法。
A plurality of red-eye correction candidate areas that are candidates for red-eye correction are detected from the image, and a red-eye detection reliability indicating the redness of the detected red-eye correction candidate area is set in each of the red-eye correction candidate areas. A red-eye detection step to generate for
A determination step of determining, for each of the red-eye correction candidate regions, a degree of success in detection based on at least the red-eye detection reliability;
A display step of displaying, together with the image, deletion candidates that are red-eye correction candidate areas that are candidates to be deleted from red-eye correction targets in the plurality of red-eye correction candidate areas in order of decreasing degree;
An imaging method comprising:
請求項5に記載の撮像方法を撮像装置に行わせる
ことを特徴とする撮像プログラム。
An imaging program for causing an imaging apparatus to perform the imaging method according to claim 5.
画像の中から、赤目補正を行う候補となる領域である複数の赤目補正候補領域を検出するとともに、検出された赤目補正候補領域の赤目らしさを示す赤目検出信頼度を各前記赤目補正候補領域に対して生成する赤目検出部と、
少なくとも前記赤目検出信頼度に基づいて、検出することに成功している度合いを各前記赤目補正候補領域に対して判定する判定部と、
前記度合いに基づき、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに順次表示する表示部と、
を備えたことを特徴とする画像処理装置。
A plurality of red-eye correction candidate areas that are candidates for red-eye correction are detected from the image, and a red-eye detection reliability indicating the redness of the detected red-eye correction candidate area is set in each of the red-eye correction candidate areas. A red-eye detector to be generated,
A determination unit that determines the degree of successful detection for each of the red-eye correction candidate regions based on at least the red-eye detection reliability;
Based on the degree, a display unit that sequentially displays deletion candidates that are red-eye correction candidate regions that are candidates to be deleted from red-eye correction targets in the plurality of red-eye correction candidate regions, together with the image;
An image processing apparatus comprising:
JP2006194888A 2006-07-14 2006-07-14 Imaging apparatus, imaging method, imaging program and image processing device Pending JP2008022502A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006194888A JP2008022502A (en) 2006-07-14 2006-07-14 Imaging apparatus, imaging method, imaging program and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006194888A JP2008022502A (en) 2006-07-14 2006-07-14 Imaging apparatus, imaging method, imaging program and image processing device

Publications (2)

Publication Number Publication Date
JP2008022502A true JP2008022502A (en) 2008-01-31
JP2008022502A5 JP2008022502A5 (en) 2009-08-27

Family

ID=39078105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006194888A Pending JP2008022502A (en) 2006-07-14 2006-07-14 Imaging apparatus, imaging method, imaging program and image processing device

Country Status (1)

Country Link
JP (1) JP2008022502A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278541A (en) * 2008-05-16 2009-11-26 Canon Inc Signal processing apparatus and signal processing method
JP2011511358A (en) * 2008-02-01 2011-04-07 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Automatic red eye detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209683A (en) * 2001-09-27 2003-07-25 Fuji Photo Film Co Ltd Image processing equipment and image processing method
JP2004208281A (en) * 2002-12-11 2004-07-22 Fuji Photo Film Co Ltd Image correction apparatus and imaging unit
JP2005286830A (en) * 2004-03-30 2005-10-13 Fuji Photo Film Co Ltd Image processing method, image processing apparatus, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209683A (en) * 2001-09-27 2003-07-25 Fuji Photo Film Co Ltd Image processing equipment and image processing method
JP2004208281A (en) * 2002-12-11 2004-07-22 Fuji Photo Film Co Ltd Image correction apparatus and imaging unit
JP2005286830A (en) * 2004-03-30 2005-10-13 Fuji Photo Film Co Ltd Image processing method, image processing apparatus, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011511358A (en) * 2008-02-01 2011-04-07 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Automatic red eye detection
US8446494B2 (en) 2008-02-01 2013-05-21 Hewlett-Packard Development Company, L.P. Automatic redeye detection based on redeye and facial metric values
JP2009278541A (en) * 2008-05-16 2009-11-26 Canon Inc Signal processing apparatus and signal processing method

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
JP4078334B2 (en) Image processing apparatus and image processing method
US9747492B2 (en) Image processing apparatus, method of processing image, and computer-readable storage medium
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
JP4983962B2 (en) Image processing apparatus, image processing method, and image processing program
JP5089405B2 (en) Image processing apparatus, image processing method, and imaging apparatus
US20060034602A1 (en) Image capture apparatus and control method therefor
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
US8830374B2 (en) Image capture device with first and second detecting sections for detecting features
JP5293206B2 (en) Image search apparatus, image search method and program
KR20200023651A (en) Preview photo blurring method and apparatus and storage medium
JP2019106045A (en) Image processing device, method, and program
US7826639B2 (en) Method for displaying an identified region together with an image, program executable in a computer apparatus, and imaging apparatus
US8369619B2 (en) Method and apparatus for skin color correction and digital photographing apparatus using both
WO2020027210A1 (en) Image processing device, image processing method, and image processing program
JP4148903B2 (en) Image processing apparatus, image processing method, and digital camera
JP5215775B2 (en) White balance control device, imaging device using the same, and white balance control method
JP5414216B2 (en) Imaging apparatus, control method thereof, and program
JP6808482B2 (en) Image processing equipment, image processing methods, and programs
JP2008022502A (en) Imaging apparatus, imaging method, imaging program and image processing device
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2006128793A (en) Image pickup device and control method thereof
JP2006148326A (en) Imaging apparatus and method of controlling the same
JP2007312249A (en) Unit and method for image processing
JP5677485B2 (en) White balance control device, imaging device using the same, and white balance control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110704