JP2008022502A - Imaging apparatus, imaging method, imaging program and image processing device - Google Patents
Imaging apparatus, imaging method, imaging program and image processing device Download PDFInfo
- Publication number
- JP2008022502A JP2008022502A JP2006194888A JP2006194888A JP2008022502A JP 2008022502 A JP2008022502 A JP 2008022502A JP 2006194888 A JP2006194888 A JP 2006194888A JP 2006194888 A JP2006194888 A JP 2006194888A JP 2008022502 A JP2008022502 A JP 2008022502A
- Authority
- JP
- Japan
- Prior art keywords
- red
- eye
- eye correction
- unit
- correction candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、撮像装置、撮像方法、撮像プログラム及び画像処理装置に関する。 The present invention relates to an imaging apparatus, an imaging method, an imaging program, and an image processing apparatus.
従来より、バッチ処理による赤目補正を行う撮像装置が提案されている(例えば、特許文献1参照)。 Conventionally, an imaging apparatus that performs red-eye correction by batch processing has been proposed (see, for example, Patent Document 1).
また、インタラクティブ処理による赤目補正を行う撮像装置も提案されている。
特許文献1の技術(バッチ処理による赤目補正を行う技術)では、撮影された画像から、色相、彩度及び明度などを用いて、虹彩領域及び他の特徴領域を抽出している。そして、虹彩領域と他の特徴領域との配置関係に基づいて、赤目補正を行う対象領域である赤目領域を特定している。 In the technique of Patent Document 1 (a technique for performing red-eye correction by batch processing), an iris area and other feature areas are extracted from a captured image using hue, saturation, brightness, and the like. Then, based on the arrangement relationship between the iris region and other feature regions, the red-eye region that is the target region for performing red-eye correction is specified.
しかし、特許文献1の技術では、赤目領域を正しく特定できない場合、例えば、不適切な赤目領域に対して赤目補正が行われることがあるので、赤目補正を適切に行えないおそれがある。
However, in the technique of
一方、インタラクティブ処理による赤目補正を行う技術では、複数の赤目領域が検出された場合でも、全ての赤目領域のそれぞれに対して赤目補正を行うか否かを指定しなければならない傾向にある。これにより、赤目補正における利用者側の処理が煩雑化する傾向にある。 On the other hand, in the technique of performing red eye correction by interactive processing, even when a plurality of red eye areas are detected, it is necessary to specify whether or not to perform red eye correction for each of all red eye areas. This tends to complicate processing on the user side in red-eye correction.
本発明の目的は、例えば赤目補正を適切に行うことができ、利用者側の処理負担を軽減できる撮像装置を提供することにある。 An object of the present invention is to provide an imaging apparatus that can appropriately perform red-eye correction, for example, and can reduce the processing burden on the user side.
本発明に係る撮像装置は、フラッシュ撮影された画像の中から、赤目補正を行う候補となる領域である複数の赤目補正候補領域を検出するとともに、検出された赤目補正候補領域の赤目らしさを示す赤目検出信頼度を各前記赤目補正候補領域に対して生成する赤目検出部と、少なくとも前記赤目検出信頼度に基づいて、検出することに成功している度合いを各前記赤目補正候補領域に対して判定する判定部と、前記度合いが低い順番に、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに表示する表示部とを備えたことを特徴とする。 The imaging apparatus according to the present invention detects a plurality of red-eye correction candidate areas that are candidates for red-eye correction from an image captured with flash, and indicates the red-eye likeness of the detected red-eye correction candidate area. A red-eye detection unit that generates red-eye detection reliability for each of the red-eye correction candidate regions, and a degree of success in detection based on at least the red-eye detection reliability for each of the red-eye correction candidate regions A determination unit that determines, and a display unit that displays, together with the image, deletion candidates that are red-eye correction candidate regions that are candidates to be deleted from the red-eye correction target in the plurality of red-eye correction candidate regions in order of decreasing degree. It is characterized by having.
本発明に係る撮像装置では、例えば赤目補正を適切に行うことができ、利用者側の処理負担を軽減できる。 In the imaging apparatus according to the present invention, for example, red-eye correction can be performed appropriately, and the processing burden on the user side can be reduced.
本発明の好適な第1実施形態に係る撮像装置について、図1〜図13を参照して説明する。 An imaging apparatus according to a preferred first embodiment of the present invention will be described with reference to FIGS.
まず、撮像装置の概略構成を、図1を用いて説明する。 First, a schematic configuration of the imaging apparatus will be described with reference to FIG.
撮像装置1は、赤目補正の機能を有する装置である。撮像装置1は、主として、入力部5,光学系10,固体撮像装置20,アナログ信号処理部30,A/D変換部40,フラッシュ50,デジタル信号処理部60を備える。撮像装置1は、画像表示部70,内部記憶部80及び外部I/F90を備える。
The
入力部5は、ボタン類を有する。ボタン類は、例えば、本体に設けられたシャッターボタン5a、選択ボタン5b、削除ボタン5c及び確定ボタン5d(図15参照)を含む。
The
光学系10は、レンズ、絞りなどの光学機器やその駆動系を含む。光学系10は、被写体Oと固体撮像装置20との間に設けられている。
The
固体撮像装置20は、CCDセンサやCMOSセンサなどを有している。固体撮像装置20は、アナログ信号処理部30に接続されている。
The solid-
アナログ信号処理部30は、クランプ回路や増幅回路などを有している。アナログ信号処理部30は、固体撮像装置20及びA/D変換部40に接続されている。
The analog
A/D変換部40は、A/Dコンバータなどを有している。A/D変換部40は、アナログ信号処理部30及びデジタル信号処理部60に接続されている。
The A /
フラッシュ50は、ストロボなどを有している。フラッシュ50は、デジタル信号処理部60に接続されている。
The
デジタル信号処理部60は、フィルタ回路、検出回路などを有している。デジタル信号処理部60は、A/D変換部40、フラッシュ50、画像表示部70、内部記憶部80及び外部I/F90に接続されている。
The digital
画像表示部70は、表示デバイス及び表示制御回路などを有している。画像表示部70は、デジタル信号処理部60及び内部記憶部80に接続されている。表示デバイスは、電子ファインダとして用いられる。
The
内部記憶部80は、半導体メモリなどの記録媒体及びその制御回路などを有している。内部記憶部80は、デジタル信号処理部60及び画像表示部70に接続されている。
The
外部I/F90は、外部記憶装置を接続可能な構成を有している。外部I/F90は、デジタル信号処理部60に接続されている。
The external I /
次に、撮像装置の概略動作を、図1を用いて説明する。 Next, a schematic operation of the imaging apparatus will be described with reference to FIG.
光学系10は、被写体Oを含む撮影領域(図10の画像GIとして取得される対象領域)に向けられる。これにより、光学系10は、被写体Oを含む撮影領域の光学像を固体撮像装置20の上に結像させる。
The
利用者により、低照度撮影時などにおいて、入力部5を介して、フラッシュの発光を指示する情報であるフラッシュ発光情報がデジタル信号処理部60に入力される。デジタル信号処理部60は、フラッシュ発光情報に応じて、フラッシュ50に発光を行わせる。これにより、フラッシュ50は、被写体Oを含む撮影領域を照らす。そして、固体撮像装置20には、フラッシュに照らされた被写体Oを含む撮影領域の光学像が結像する。このとき、被写体Oに赤目が生じた状態で、撮影領域の光学像が結像することがある。
The user inputs flash emission information, which is information for instructing flash emission, to the digital
固体撮像装置20は、結像された光学像に対応した電気信号を発生させて、光学像(入力画像)を電気信号(アナログ信号)に変換する。固体撮像装置20は、変換後のアナログ信号をアナログ信号処理部30へ供給する。
The solid-
アナログ信号処理部30は、そのアナログ信号の波形にクランプやゲインなどの処理を行う。アナログ信号処理部30は、処理後のアナログ信号をA/D変換部40へ供給する。
The analog
A/D変換部40は、アナログ信号をデジタル信号へ変換する。A/D変換部40は、変換後のデジタル信号をデジタル信号処理部60へ供給する。
The A /
デジタル信号処理部60は、デジタル信号に各種の補正を行い、出力画像を表示させるための画像データを生成する。ここで、デジタル信号処理部60は、画像データを生成する際に、内部記憶部80にアクセスし、画像データの一部又は全部を内部記憶部80に格納する。デジタル信号処理部60は、その画像データを画像表示部70、内部記憶部80及び外部I/F90に供給する。
The digital
画像表示部70は、画像データをデジタル信号処理部60や内部記憶部80から受け取り、画像データに対応した出力画像を逐次表示する。これにより、画像表示部70は、表示デバイスを電子ファインダとして機能させる。
The
外部I/F90には、外部記憶装置が接続される。これにより、外部I/F90に供給された画像データは、外部記憶装置に最終的に保存される。
An external storage device is connected to the external I /
デジタル信号処理部の詳細構成を、図2を用いて説明する。 A detailed configuration of the digital signal processing unit will be described with reference to FIG.
デジタル信号処理部60は、主として、色変換部61、色処理部62、LPF(Low Pass Filter)63、輝度処理部64、BPF(Band Pass Filter)65を備える。デジタル信号処理部60は、輪郭強調部66、赤目検出部67、顔検出部68、判定部71及び赤目補正部69を備える。これらは、デジタル信号処理部60の構成のうち、画像データの生成及び赤目補正を行う部分の構成である。
The digital
色変換部61は、A/D変換部40(図1参照)、色処理部62、LPF63及びBPF65に接続されている。色処理部62は、色変換部61、赤目検出部67及び判定部71に接続されている。輝度処理部64は、LPF63、赤目検出部67及び判定部71に接続されている。輪郭強調部66は、BPF65、顔検出部68及び判定部71に接続されている。判定部71は、色処理部62、輝度処理部64、輪郭強調部66、赤目検出部67、顔検出部68及び赤目補正部69に接続されている。赤目補正部69は、画像表示部70,内部記憶部80及び外部I/F90に接続されている。
The
次に、デジタル信号処理部の詳細動作を、図2を用いて説明する。 Next, the detailed operation of the digital signal processing unit will be described with reference to FIG.
色変換部61には、光学像(入力画像)のRGBを示すデジタル信号がA/D変換部40から入力される。色変換部61は、入力画像のRGBから輝度信号Yと色差信号Cr,Cbを生成、分離する。色変換部61は、色差信号Cr,Cbなどを色処理部62に供給し、輝度信号YなどをLPF63及びBPF65に供給する。
A digital signal indicating RGB of the optical image (input image) is input from the A /
色処理部62は、色差信号Cr,Cbなどに対して、ホワイトバランスの調整、色処理、ガンマ処理などを行う。ここで、色処理は、例えば、高輝度、低輝度の色の濃さを薄くする処理である。色処理部62は、これらの処理が施された色信号を赤目検出部67及び判定部71へ供給する。
The
LPF63には、輝度信号Yなどが色変換部61から入力される。LPF63は、輝度信号Yなどの入力信号のうち低周波成分を通過させる。LPF63は、輝度信号Yなどの低周波成分を輝度処理部64へ供給する。
The luminance signal Y and the like are input from the
輝度処理部64は、輝度信号Yなどの低周波成分に対して、フィルタ処理、輝度補正、ガンマ処理などを行う。輝度処理部64は、これらの処理が施された輝度信号を赤目検出部67及び判定部71へ供給する。
The
BPF65には、輝度信号Yなどが色変換部61から入力される。BPF65は、輝度信号Yなどの入力信号のうち高周波成分を通過させる。BPF65は、輝度信号Yなどの高周波成分(輪郭信号)を輪郭強調部66へ供給する。
A luminance signal Y and the like are input from the
輪郭強調部66は、輝度信号Yなどの高周波成分(輪郭信号)に対して、輪郭強調処理を行う。輪郭強調部66は、これらの処理が施された輪郭信号を顔検出部68及び判定部71へ供給する。
The
赤目検出部67は、入力部5を介して、フラッシュ発光情報をフラッシュ50から受け取る。赤目検出部67は、色信号を色処理部62から受け取り、輝度信号を輝度処理部64から受け取る。赤目検出部67は、色信号及び輝度信号などを介して、赤目補正候補領域を検出する。ここで、赤目補正候補領域は、被写体Oの赤目補正を行う候補となる領域である。それとともに、赤目検出部67は、赤目検出結果に基づき、赤目検出信頼度を生成して出力する。赤目検出信頼度は、被写体Oから赤目補正候補領域として検出された領域の赤目らしさを示す。赤目検出信頼度は、例えば、被写体Oの赤目補正候補領域を検出した結果の信頼度を数値で示したものであり、大きな値であるときに信頼度が高いことを示し、小さな値であるときに信頼度が低いことを示す。
The red-
顔検出部68は、輪郭信号を輪郭強調部66から受け取る。顔検出部68は、輪郭信号などを介して、赤目補正候補領域に対して被写体Oの顔を検出する。それとともに、顔検出部68は、顔検出結果に基づき、顔検出信頼度を生成して出力する。顔検出信頼度は、被写体Oから顔候補領域として検出された領域の顔らしさを示す。顔候補領域は、被写体Oの顔であると認識された領域である。顔検出信頼度は、例えば、被写体Oの顔候補領域を検出した結果の信頼度を数値で示したものであり、大きな値であるときに信頼度が高いことを示し、小さな値であるときに信頼度が低いことを示す。
The
なお、本発明における顔検出に関しては、公知の顔検出技術を用いることとする。公知の顔検出技術として、例えば、ニューラルネットワークに代表される学習を用いた手法が挙げられる。あるいは、公知の顔検出技術として、目や鼻や口といった形状に特徴のある部位を、画像領域からテンプレートマッチングを用い探し出し類似度が高ければ顔とみなす手法が挙げられる。また、他にも、肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法等、多数提案されており、一般的にはこれらの手法を複数組み合わせて顔認識するのが一般的である。 Note that a known face detection technique is used for the face detection in the present invention. As a known face detection technique, for example, there is a technique using learning represented by a neural network. Alternatively, as a known face detection technique, there is a method in which a part having a characteristic shape such as an eye, a nose, or a mouth is searched from an image area using template matching and is regarded as a face if the similarity is high. In addition, many other methods have been proposed, such as methods that detect image features such as skin color and eye shape and use statistical analysis. In general, multiple methods are used to recognize faces. Is common.
具体的な例としては特開平2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。 Specific examples include a face detection method using wavelet transform and image feature amount described in JP-A-2002-251380.
判定部71は、赤目補正候補領域の情報と赤目検出信頼度とを赤目検出部67から受け取り、被写体Oの顔の情報と顔検出信頼度とを顔検出部68から受け取る。判定部71は、色信号を色処理部62から受け取り、輝度信号を輝度処理部64から受け取り、輪郭強調信号を輪郭強調部66から受け取る。判定部71は、これらの情報に基づいて、被写体Oの赤目を検出することに成功している度合いを各赤目補正候補領域に対して判定する。ここで、判定部71は、判定する際に、メモリ(図示せず)にアクセスして、成功度合い判定テーブル(図7参照)を参照する。判定部71は、成功している度合いの情報を赤目補正候補領域の識別情報(例えば、後述する赤目位置情報)に対応付けて赤目補正部69へ供給する。また、判定部71は、赤目補正候補領域の情報、被写体Oの顔の情報、色信号、輝度信号及び輪郭信号を赤目補正部69へ転送する。
The
赤目補正部69は、成功している度合いの情報を赤目補正候補領域の識別情報に対応付けて画像表示部70へ出力する。
The red-
また、赤目補正部69は、入力部5の削除ボタン5c(図12参照)を介して入力された削除命令を赤目補正候補領域の識別情報に対応付けて受け取る。赤目補正部69は、削除命令により指定された赤目補正候補領域の情報を削除する。
In addition, the red-
赤目補正部69は、入力部5の確定ボタン5d(図12参照)を介して入力された確定命令を受け取る。赤目補正部69は、確定命令に応じて、赤目補正候補領域に対して赤目補正を行う。ここで、すでに情報が削除された赤目補正候補領域に対して、赤目補正は行われない。
The red-
次に、撮像装置が赤目補正を行う処理の流れを、図3〜図9に示すフローチャート及び図10〜図15の概念図を用いて説明する。図3〜図9に示す処理は、主として図1に示すデジタル信号処理部により行われる。 Next, the flow of processing in which the imaging apparatus performs red-eye correction will be described using the flowcharts shown in FIGS. 3 to 9 and the conceptual diagrams of FIGS. The processing shown in FIGS. 3 to 9 is mainly performed by the digital signal processing unit shown in FIG.
ステップS1では、赤目補正部69は、フラッシュ撮影が行われたか否かの判断を行う。すなわち、利用者により、低照度撮影時などにおいて、入力部5を介して、フラッシュ発光情報がデジタル信号処理部60に入力される。フラッシュ発光情報は、フラッシュの発光を指示する情報である。デジタル信号処理部60は、フラッシュ発光情報に応じて、フラッシュ50に発光を行わせる。これにより、フラッシュ50は、被写体Oを含む撮影領域を照らす。そして、固体撮像装置20には、フラッシュに照らされた被写体Oを含む撮影領域の光学像が結像する。このとき、被写体Oに赤目が生じた状態で、撮影領域の光学像が結像することがある。
In step S1, the red-
デジタル信号処理部60内の赤目補正部69は、赤目検出部67及び判定部71経由でフラッシュ発光情報をフラッシュ50から受け取った場合、フラッシュ撮影が行われたと判断する。赤目補正部69は、赤目検出部67及び判定部71経由でフラッシュ発光情報をフラッシュ50から受け取らなかった場合、フラッシュ撮影が行われなかったと判断する。赤目補正部69は、フラッシュ撮影が行われたと判断した場合、処理をステップS2へ進め、フラッシュ撮影が行われなかったと判断した場合、処理を終了する。
When the red-
ステップS2では、デジタル信号処理部60は、赤目検出信頼度及び顔検出信頼度の閾値を設定する。すなわち、デジタル信号処理部60内の赤目補正部69は、メモリ(図示せず)に記憶されていた赤目検出閾値TH1及び顔検出閾値TH2を読み出し判定部71へ渡す。
In step S2, the digital
判定部71は、赤目検出閾値TH1が設定された旨の情報を赤目検出部67へ供給するとともに、顔検出閾値TH2が設定された旨の情報を顔検出部68へ供給する。
The
ステップS3では、赤目検出部67は、赤目検出閾値TH1が設定された旨の情報を受け取ったことに応じて、赤目検出処理を行う。例えば、赤目検出部67は、赤目補正候補領域を検出すると共に、赤目検出信頼度も算出する。赤目検出部67は、赤目検出処理を完了したら、赤目検出処理を完了した旨の情報、赤目補正候補領域及び赤目検出信頼度を判定部71へ供給する。なお、赤目検出処理の詳細な説明については後述する。
In step S3, the red-
ステップS4では、顔検出部68は、顔検出閾値TH2が設定された旨の情報を受け取ったことに応じて、上述した公知の顔検出処理を行う。例えば、顔検出部68は、顔候補領域を検出すると共に、顔検出信頼度も算出する。顔検出部68は、顔検出処理を完了したら、顔検出処理を完了した旨の情報、顔補正候補領域及び顔検出信頼度を判定部71へ供給する。なお、顔検出処理の詳細な説明については後述する。
In step S4, the
ステップS5では、判定部71は、赤目検出処理を完了した旨の情報及び顔検出処理を完了した旨の情報を両方とも受け取ったことに応じて、成功度合い判定処理を行う。なお、成功度合い判定処理の詳細な説明については後述する。
成功度合い「低」成功度合い「低」成功度合い「低」成功度合い「NG」成功度合い「NG」成功度合い「NG」 ステップS6では、赤目補正部69が赤目補正処理を行う。なお、赤目補正処理の詳細な説明については後述する。
In step S5, the
Success degree “Low” Success degree “Low” Success degree “Low” Success degree “NG” Success degree “NG” Success degree “NG” In
このようにして、撮像装置1は、赤目補正を行う。
In this way, the
次に、赤目検出処理を、図4に示すフローチャート及び図10、図11の概念図を用いて説明する。図10、図11は、主として図1に示す画像表示部70により表示される画面の一例である。なお、図11は、内部的な処理を説明するための仮想的な画面の一例であり、実際には、画像表示部70により表示されない。
Next, the red-eye detection process will be described using the flowchart shown in FIG. 4 and the conceptual diagrams of FIGS. 10 and 11. 10 and 11 are examples of screens displayed mainly by the
ステップS21では、色差信号が色処理部62に入力され、輝度信号がLPF63及びBPF65に入力される。すなわち、デジタル信号処理部60の色変換部61には、光学像(入力画像)のRGBを示すデジタル信号がA/D変換部40から入力される。色変換部61は、入力画像のRGBから輝度信号Yと色差信号Cr,Cbを生成、分離する。色変換部61は、色差信号Cr,Cbなどを色処理部62に供給し、輝度信号YなどをLPF63及びBPF65に供給する。
In step S21, the color difference signal is input to the
色処理部62は、色差信号Cr,Cbなどに対して、ホワイトバランスの調整、色処理、ガンマ処理などを行う。ここで、色処理は、例えば、高輝度、低輝度の色の濃さを薄くする処理である。色処理部62は、これらの処理が施された色信号を赤目検出部67及び判定部71へ供給する。
The
LPF63には、輝度信号Yなどが色変換部61から入力される。LPF63は、輝度信号Yなどの入力信号のうち低周波成分を通過させる。LPF63は、輝度信号Yなどの低周波成分を輝度処理部64へ供給する。
The luminance signal Y and the like are input from the
輝度処理部64は、輝度信号Yなどの低周波成分に対して、フィルタ処理、輝度補正、ガンマ処理などを行う。輝度処理部64は、これらの処理が施された輝度信号を赤目検出部67及び判定部71へ供給する。
The
ステップS22では、赤目検出部67は入力信号に対して赤目検出を行う。すなわち、赤目検出部67は、色信号を色処理部62から受け取り、輝度信号を輝度処理部64から受け取る。赤目検出部67は、色信号及び輝度信号などを介して、赤目補正候補領域を検出する。ここで、赤目補正候補領域は、被写体Oの赤目補正を行う候補となる領域である。
In step S22, the
例えば、図10に示すように、画像GIで示される撮影領域に、被写体O1〜O3が存在する場合を考える。ここで、被写体O1,O2は正面を向いているのに対して、被写体O3は横を向いている。このとき、赤目検出部67は、図11に示すように、赤目補正候補領域R1,R2,R3,R4,R5を検出する。
For example, as shown in FIG. 10, consider a case where subjects O1 to O3 exist in the shooting area indicated by the image GI. Here, the subjects O1 and O2 face the front, while the subject O3 faces the side. At this time, the red-
ステップS23では、赤目検出部67は、赤目検出信頼度を生成して出力する。赤目検出信頼度は、被写体Oから赤目補正候補領域として検出された領域の赤目らしさを示す。また、赤目検出信頼度は、例えば、被写体Oの赤目補正候補領域を検出した結果の信頼度を数値で示したものであり、大きな値であるときに信頼度が高いことを示し、小さな値であるときに信頼度が低いことを示す。
In step S23, the red
具体的には、赤目検出部67は、色相、彩度、明度、輝度などを分析する。そして、赤目検出部67は、該当の画素(エリア)が赤であるか(パラメータRP1)、該当の画素(エリア)の周辺画素(エリア)が肌色であるか(パラメータRP2)を演算する。赤目検出部67は、該当の画素(エリア)が高輝度であるか(パラメータRP3)、該当の画素(エリア)が丸い形状をしているか(パラメータRP4)を演算する。そして、赤目検出部67は、赤目検出信頼度RRを
RR=K1×RP1+K2×RP2+K3×RP3+K4×RP4・・・数式1
の式により演算する。ここで、K1、K2、K3、K4は、実験などにより予め求められた定数である。
Specifically, the red
It calculates by the formula of Here, K1, K2, K3, and K4 are constants obtained in advance through experiments or the like.
なお、本実施形態において赤目検出信頼度RRを構成する要素を上記のように規定したが、赤目検出の信頼度を推定するために有効な要素であれば上記した要素に限定されるわけではない。 In the present embodiment, the elements constituting the red-eye detection reliability RR are defined as described above. However, the elements are not limited to the above-described elements as long as they are effective elements for estimating the reliability of red-eye detection. .
例えば、赤目検出部67は、数式1のような演算を行い、赤目補正候補領域R1,R2,R3,R4,R5(図11参照)について、赤目検出信頼度RR1,RR2,RR3,RR4,RR5を生成する。例えば、図11に示すような入力信号が得られた場合、赤目検出信頼度RR1,RR2,RR3,RR4,RR5と赤目検出閾値TH1とは、それぞれ、数式2〜数式6のような関係にあることになる。
For example, the red-
RR1≧TH1・・・数式2
RR2≧TH1・・・数式3
RR3<TH1・・・数式4
RR4≧TH1・・・数式5
RR5<TH1・・・数式6
ステップS24では、赤目検出部67は、赤目検出信頼度を出力する。すなわち、デジタル信号処理部60内の赤目検出部67は、赤目補正候補領域(例えば、R1〜R5)の情報と赤目検出信頼度(例えば、RR1〜RR5)とを判定部71へ出力する。
RR1 ≧
RR2 ≧
RR3 <TH1 ...
RR4 ≧
RR5 <TH1 ...
In step S24, the red
次に、顔検出処理を、主として、図5に示すフローチャート及び図10、図11に示す概念図を用いて説明する。図10、図11は、主として図1に示す画像表示部70により表示される画面の一例である。なお、図11は、内部的な処理を説明するための仮想的な画面の一例であり、実際には、画像表示部70により表示されない。
Next, the face detection process will be described mainly using the flowchart shown in FIG. 5 and the conceptual diagrams shown in FIGS. 10 and 11 are examples of screens displayed mainly by the
ステップS31では、顔検出部68は、入力信号に対して上述した公知の顔検出方法を用いることで顔領域の検出を行う。
In step S31, the
例えば、図10に示すように、画像GIで示される撮影領域に、被写体O1〜O3が存在する場合を考える。ここで、被写体O1,O2は正面を向いているのに対して、被写体O3は横を向いている。このとき、顔検出部68は、図11に示すように、顔候補領域F1,F2,F3を検出する。顔候補領域F1,F2,F3は、それぞれ、被写体O1,O2,O3の顔であると認識された領域である。
For example, as shown in FIG. 10, consider a case where subjects O1 to O3 exist in the shooting area indicated by the image GI. Here, the subjects O1 and O2 face the front, while the subject O3 faces the side. At this time, the
ステップS32では、顔検出部68は、ステップS31の顔検出結果に基づき、顔検出信頼度を演算し、出力する。顔検出信頼度は、被写体Oから顔候補領域として検出された領域の顔らしさを示す。顔検出信頼度は、例えば、被写体Oの顔候補領域を検出した結果の信頼度を数値で示したものであり、大きな値であるときに信頼度が高いことを示し、小さな値であるときに信頼度が低いことを示す。
In step S32, the
具体的には、顔検出部68は、輝度パターンなどを分析する。そして、顔検出部68は、目が検出されるか(パラメータFP1)、鼻が検出されるか(パラメータFP2)を演算する。さらに、顔検出部68は、口が検出されるか(パラメータFP3)、耳が検出されるか(パラメータFP4)を演算する。そして、顔検出部68は、顔検出信頼度FRを
FR=K5×FP1+K6×FP2+K7×FP3+K8×FP4・・・数式7
の式により演算する。ここで、K5、K6、K7、K8は、実験などにより予め求められた定数である。
Specifically, the
It calculates by the formula of Here, K5, K6, K7, and K8 are constants obtained in advance by experiments or the like.
なお、本実施形態において赤目検出信頼度RRを構成する要素を上記のように規定したが、赤目検出の信頼度を推定するために有効な要素であれば上記した要素に限定されるわけではない。 In the present embodiment, the elements constituting the red-eye detection reliability RR are defined as described above. However, the elements are not limited to the above-described elements as long as they are effective elements for estimating the reliability of red-eye detection. .
例えば、顔検出部68は、数式7ような演算を行い、顔候補領域F1,F2,F3に対して、顔検出信頼度FR1,FR2,FR3を生成する。例えば、図11に示す場合、顔検出信頼度FR1,FR2,FR3と顔検出閾値TH2とは、それぞれ、数式8〜数式10のような関係にあることになる。
For example, the
FR1≧TH2・・・数式8
FR2≧TH2・・・数式9
FR3≧TH2・・・数式10
ステップS33では、顔検出信頼度を出力する。すなわち、デジタル信号処理部60の顔検出部68は、被写体Oの顔の情報(例えば、顔候補領域F1,F2,F3の情報)と顔検出信頼度(例えば、顔検出信頼度FR1,FR2,FR3)とを判定部71へ出力する。
FR1 ≧
FR2 ≧
FR3 ≧
In step S33, the face detection reliability is output. That is, the
次に、成功度合い判定処理を、図6に示すフローチャート及び図7、図10、図11の概念図を用いて説明する。図7は、図2に示す判定部71がメモリ(図示せず)にアクセスして参照する成功度合い参照テーブルを示す。図10、図11は、主として図1に示す画像表示部70により表示される画面の一例である。なお、図11は、内部的な処理を説明するための仮想的な画面の一例であり、実際には、画像表示部70により表示されない。
Next, the success degree determination process will be described with reference to a flowchart shown in FIG. 6 and conceptual diagrams of FIGS. 7, 10, and 11. FIG. FIG. 7 shows a success degree reference table that the
ステップS51では、判定部71は、赤目補正候補領域を選択する。すなわち、デジタル信号処理部60内の判定部71は、赤目補正候補領域の情報(赤目位置情報を含む)と赤目検出信頼度とを赤目検出部67から受け取る。赤目位置情報は、画像における赤目補正候補領域の位置を示す情報である。判定部71は、複数の赤目補正候補領域から判定の対象とする赤目補正候補領域(赤目位置情報)を選択する。なお、判定部71は、メモリ(図示せず)を参照してすでに判定した赤目補正候補領域を特定するとともに、判定の対象とする赤目補正候補領域をメモリに追加記憶する。
In step S51, the
ステップS52では、判定部71は、赤目補正候補領域が顔候補領域に含まれるか否かを判断する。すなわち、判定部71は、顔補正候補領域の情報(顔位置情報を含む)と顔検出信頼度とを顔検出部68から受け取る。顔位置情報は、画像における顔候補領域の位置を示す情報である。
In step S52, the
判定部71は、赤目位置情報と顔位置情報とに基づいて、赤目補正候補領域と顔候補領域との包含関係を判断する。判定部71は、赤目位置情報が1以上の顔位置情報のうちのいずれかに含まれていると判断すれば、その赤目位置情報に対応する赤目補正候補領域が顔候補領域に含まれていると判断する。判定部71は、赤目位置情報が1以上の顔位置情報のうちのいずれにも含まれていないと判断すれば、その赤目位置情報に対応する赤目補正候補領域が顔候補領域に含まれていないと判断する。
The
例えば、図10に示す被写体O1〜O3に対して、図11に示すように、赤目補正候補領域R1〜R5と顔候補領域F1〜F3とが検出された場合を考える。この場合、判定部71は、赤目補正候補領域R1〜R3を、それぞれ、顔候補領域F1〜F3に含まれていると判断する。判定部71は、赤目補正候補領域R4,R5を、それぞれ、顔候補領域F1〜F3のいずれにも含まれていないと判断する。
For example, consider a case where red-eye correction candidate regions R1 to R5 and face candidate regions F1 to F3 are detected for the subjects O1 to O3 shown in FIG. 10, as shown in FIG. In this case, the
判定部71は、赤目補正候補領域が顔候補領域に含まれていると判断する場合、処理をステップS54へ進める。判定部71は、赤目補正候補領域が顔候補領域に含まれていないと判断する場合、処理をステップS53へ進める。
If the
ステップS53では、判定部71は、顔検出信頼度が「低」であると判定する。つまり、赤目補正候補領域が顔候補領域に含まれていないので、赤目補正候補領域を含む仮想的な顔候補領域を想定し、その顔候補領域の顔らしさが低いものと判定する。
In step S53, the
例えば、図11に示す場合、判定部71は、赤目補正候補領域R4,R5を含む仮想的な顔候補領域F4,F5を想定する。そして、判定部71は、顔候補領域F4,F5の顔検出信頼度を「低」と判定する。
For example, in the case illustrated in FIG. 11, the
ステップS54では、判定部71は、顔検出信頼度が閾値以上であるか否かを判断する。すなわち、デジタル信号処理部60の判定部71は、被写体Oの顔の情報と顔検出信頼度とを顔検出部68から受け取る。判定部71は、顔検出信頼度により示される顔検出信頼度FRと、顔検出閾値TH2とを比較する。そして、判定部71は、FR≧TH2であると判断する場合に、顔検出信頼度が「高」であると判定する。判定部71は、FR<TH2であると判断する場合に、顔検出信頼度が「低」であると判定する。
In step S54, the
例えば、図11に示す場合、判定部71は、数式8〜数式10に示すように、顔候補領域F1,F2,F3に対して、顔検出信頼度を「高」と判定する。
For example, in the case illustrated in FIG. 11, the
ここで、成功度合いを判定するために、赤目検出信頼度に加えてさらに顔検出信頼度を用いる理由を説明する。 Here, the reason for using the face detection reliability in addition to the red-eye detection reliability in order to determine the success degree will be described.
本来、目は顔の中にしか存在しない。そこで、目は顔の中に存在するという前提に基づいて、赤目補正候補領域であったとしても、顔候補領域としての信頼度が低ければ、それは目ではないと判断し、赤目補正候補領域から排除する。これにより、より判定の精度を高めることができる。 Originally, eyes exist only in the face. Therefore, based on the assumption that the eyes exist in the face, even if it is a red eye correction candidate area, if the reliability as the face candidate area is low, it is determined that it is not an eye, and the red eye correction candidate area Exclude. Thereby, the precision of determination can be improved more.
つまり、顔検出信頼度を考慮して赤目検出に成功しているか否かを判断及び決定するので、赤目補正すべき赤目補正候補領域と赤目補正すべきでない赤目補正候補領域とはさらに区別しやすくなる。 That is, since it is determined and determined whether or not the red-eye detection is successful in consideration of the face detection reliability, it is easier to distinguish the red-eye correction candidate area that should be corrected for red-eye and the red-eye correction candidate area that should not be corrected for red-eye. Become.
なお、本実施形態においては、閾値を一つだけ設定しているが、閾値を複数個設定することで、顔らしさのランク分けを更に細かくしてもよい。そうすることで、複数の顔候補領域が検出された際に、より細かく優先度付けを行うことが可能になる。 In the present embodiment, only one threshold value is set. However, by setting a plurality of threshold values, the ranking of facial appearance may be further refined. By doing so, it is possible to prioritize more finely when a plurality of face candidate regions are detected.
ステップS55では、判定部71は、赤目検出信頼度が閾値以上であるか否かを判断する。すなわち、デジタル信号処理部60内の判定部71は、赤目検出信頼度により示される赤目検出信頼度RR1と、赤目検出閾値TH1とを比較する。そして、判定部71は、RR1≧TH1であると判断する場合に、赤目検出信頼度が「高」であると判定する。判定部71は、RR1<TH1であると判断する場合に、赤目検出信頼度が「低」であると判定する。
In step S55, the
例えば、図11に示す場合、判定部71は、数式2,数式3,数式5に示すように、赤目補正候補領域R1,R2,R4に対して、赤目検出信頼度を「高」と判定する。判定部71は、数式4,数式6に示すように、赤目補正候補領域R3,R5に対して、赤目検出信頼度を「低」と判定する。
For example, in the case illustrated in FIG. 11, the
なお、本実施形態においては、閾値を一つだけ設定しているが、閾値を複数個設定することで、赤目らしさのランク分けを更に細かくしてもよい。そうすることで、複数の赤目候補領域が検出された際に、より細かく優先度付けを行うことが可能になる。 In the present embodiment, only one threshold value is set. However, by setting a plurality of threshold values, the rank classification of redness may be further refined. By doing so, it is possible to prioritize more finely when a plurality of red-eye candidate regions are detected.
ステップS56では、判定部71は、成功度合いを判定する。すなわち、判定部71は、赤目検出信頼度について判定した結果と、顔検出信頼度について判定した結果とに基づいて、赤目検出に成功している度合い(成功度合い)を判定する。ここで、判定部71は、判定する際に、メモリ(図示せず)にアクセスして、成功度合い判定テーブル(図7参照)を参照する。
In step S56, the
図7に示すように、判定部71は、赤目検出信頼度を「高」と判定し顔検出信頼度を「高」と判定した場合、成功度合いを「高」と判定する。判定部71は、赤目検出信頼度を「低」と判定し顔検出信頼度を「高」と判定した場合、成功度合いを「中」と判定する。判定部71は、赤目検出信頼度を「高」と判定し顔検出信頼度を「低」と判定した場合、成功度合いを「低」と判定する。判定部71は、赤目検出信頼度を「低」と判定し顔検出信頼度を「低」と判定した場合、成功度合いを「NG」と判定する。
As illustrated in FIG. 7, when the
例えば、図11に示す場合、判定部71は、赤目補正候補領域R1,R2の赤目検出信頼度を「高」と判定し、赤目補正候補領域R1,R2を含む顔候補領域F1,F2の顔検出信頼度を「高」と判定している。これにより、判定部71は、赤目補正候補領域R1に対して、成功度合いを「高」と判定する。
For example, in the case illustrated in FIG. 11, the
判定部71は、赤目補正候補領域R3の赤目検出信頼度を「低」と判定し、赤目補正候補領域R3を含む顔候補領域F3の顔検出信頼度を「高」と判定している。これにより、判定部71は、赤目補正候補領域R3に対して、成功度合いを「中」と判定する。
The
判定部71は、赤目補正候補領域R4の赤目検出信頼度を「高」と判定し、赤目補正候補領域R4を含む仮想的な顔候補領域F4の顔検出信頼度を「低」と判定している。これにより、判定部71は、赤目補正候補領域R4に対して、成功度合いを「小」と判定する。
The
判定部71は、赤目補正候補領域R5の赤目検出信頼度を「低」と判定し、赤目補正候補領域R5を含む仮想的な顔候補領域F5の顔検出信頼度を「低」と判定している。これにより、判定部71は、赤目補正候補領域R5に対して、成功度合いを「NG」と判定する。
The
ステップS57では、判定部71は、全ての赤目補正候補領域に対して判定が行われたか否かを判断する。判定が行われたと判断した場合、処理をステップS12へ進め、判定が行われていないと判断した場合、処理をステップS4へ進める。
なお、ステップS5、ステップS8において、ランク分けを細かくすることで、赤目検出に成功している度合いのランク分けをより詳細に行うことができる。
In step S57, the
In addition, in step S5 and step S8, by making the rank division finer, the rank division of the degree of success in red-eye detection can be performed in more detail.
このように、成功度合い判定処理により、全ての赤目補正候補領域に対して、赤目検出に成功している度合いが「高」、「中」、「低」、「NG」にランク付けされる。すなわち、デジタル信号処理部60の判定部71は、赤目検出に成功している度合いを判定している。
As described above, the success degree determination process ranks the degree of success of red-eye detection for all red-eye correction candidate areas as “high”, “medium”, “low”, and “NG”. That is, the
次に、赤目補正処理を、図8,図9に示すフローチャート及び図12〜図15の概念図を用いて説明する。図12〜図15は、撮像装置の背面図の一例である。 Next, the red-eye correction process will be described with reference to the flowcharts shown in FIGS. 8 and 9 and the conceptual diagrams of FIGS. 12 to 15 are examples of rear views of the imaging apparatus.
ステップS41では、画像表示部70は、成功度合い「NG」と決定された領域(以下、「NG領域」とする)を表示する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が選択ボタン5bを押したことを検知することにより、NG領域の表示命令を受け付ける。入力部5は、NG領域の表示命令を、デジタル信号処理部60へ供給する。そのNG領域の表示命令は、デジタル信号処理部60において、赤目検出部67及び判定部71経由で赤目補正部69へ供給される。赤目補正部69は、NG領域の表示命令に基づいて、1以上のNG領域の中から表示すべきNG領域を選択する。赤目補正部69は、画像情報とともに、選択されたNG領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、選択されたNG領域の情報とに基づいて、削除候補を表示デバイスに表示する。ここで、削除候補は、複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である。
In step S <b> 41, the
例えば、図12では、画像表示部70により、画像GIとともに、赤目補正候補領域R5がNG領域であることを示すフレームRF5が、削除候補を示す情報として表示される。
For example, in FIG. 12, the
なお、本実施形態において画像GIは画像表示部70のサイズに合わせて表示されているが、選択ボタン5bを操作することで拡大した画像を表示することも可能である。
In the present embodiment, the image GI is displayed in accordance with the size of the
これにより、赤目補正候補領域R5が削除候補であることを把握することができ、赤目補正候補領域R5を赤目補正する対象から削除すべきか否かの判断を利用者に促すことができる。すなわち、赤目補正候補領域R5を削除すべきか否かの判断を利用者に促すことができ、削除すべきであると判断した場合に削除命令を入力するように利用者に促すことができる。 Thereby, it is possible to grasp that the red-eye correction candidate region R5 is a deletion candidate, and it is possible to prompt the user to determine whether or not the red-eye correction candidate region R5 should be deleted from the target for red-eye correction. That is, it is possible to prompt the user to determine whether or not the red-eye correction candidate region R5 should be deleted, and to prompt the user to input a deletion command when it is determined that it should be deleted.
ステップS42では、判定部71は、削除が指定されたか否かを判断する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が削除ボタン5cを押したことを検知することにより、削除命令を受け付ける。入力部5は、削除命令をデジタル信号処理部60へ供給する。その削除命令は、デジタル信号処理部60において、赤目検出部67経由で判定部71へ供給される。判定部71は、削除命令を受け取った場合、削除が指定されたと判断し、削除命令を受け取っていない場合、削除が指定されていないと判断する。判定部71は、削除が指定されたと判断した場合、処理をステップS43へ進め、削除が指定されていないと判断した場合、処理をステップS44へ進める。
In step S42, the
ステップS43では、赤目補正部69は、削除が指定された赤目補正候補領域の情報を削除する。すなわち、判定部71は、削除命令を赤目補正部69へ供給する。赤目補正部69は、削除命令に基づいて、メモリ(図示せず)を参照して、選択された赤目補正候補領域の情報を削除する。なお、メモリには、全ての赤目補正候補領域の情報が記憶されているものとする。
In step S43, the red-
そして、赤目補正部69は、画像情報とともに、削除されたNG領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、削除されたNG領域の情報とに基づいて、図12に示す画像GIに代えて図13に示す画像GIを表示デバイスに表示する。
Then, the red-
例えば、図13では、画像表示部70により、赤目補正候補領域R5に対応する部分のハイライト表示(図中では斜線)が消えた状態で表示される。これにより、赤目補正候補領域R5が赤目補正の対象から削除されたことを把握することができる。
For example, in FIG. 13, the
ステップS44では、判定部71は、全てのNG領域が選択されたか否かを判断する。判定部71は、全てのNG領域が選択されたと判断した場合、処理をステップS45へ進め、全てのNG領域が選択されていないと判断した場合、処理をステップS41へ進める。
In step S44, the
ステップS45では、判定部71は、確定が指定されたか否かを判断する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が確定ボタン5dを押したことを検知することにより、確定命令を受け付ける。入力部5は、確定命令をデジタル信号処理部60へ供給する。その確定命令は、デジタル信号処理部60において、赤目検出部67経由で判定部71へ供給される。判定部71は、確定命令を受け取った場合、確定が指定されたと判断し、確定命令を受け取っていない場合、確定が指定されていないと判断する。判定部71は、確定が指定されたと判断した場合、処理をステップS46(図8,7で示す(1))へ進め、確定が指定されていないと判断した場合、処理をステップS50(図8,7で示す(2))へ進める。
In step S45, the
ステップS46では、画像表示部70が、成功度合い「低」と決定された領域(以下、「低領域」とする)を表示する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が選択ボタン5bを押したことを検知することにより、低領域の表示命令を受け付ける。入力部5は、低領域の表示命令を、デジタル信号処理部60へ供給する。その低領域の表示命令は、デジタル信号処理部60において、赤目検出部67及び判定部71経由で赤目補正部69へ供給される。赤目補正部69は、低領域の表示命令に基づいて、1以上の低領域の中から表示すべき低領域を選択する。赤目補正部69は、画像情報とともに、選択された低領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、選択された低領域の情報とに基づいて、削除候補を表示デバイスに表示する。ここで、削除候補は、複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である。
In step S <b> 46, the
例えば、図13では、画像表示部70により、画像GIとともに、赤目補正候補領域R4が低領域であることを示すフレームRF4が、削除候補を示す情報として表示される。これにより、赤目補正候補領域R4が削除候補であることを把握することができ、赤目補正候補領域R4を赤目補正する対象から削除すべきか否かの判断を利用者に促すことができる。すなわち、赤目補正候補領域R4を削除すべきか否かの判断を利用者に促すことができ、削除すべきであると判断した場合に削除命令を入力するように利用者に促すことができる。
For example, in FIG. 13, the
ステップS47では、判定部71は、削除が指定されたか否かを判断する。すなわち、デジタル信号処理部60の入力部5は、例えば利用者が削除ボタン5cを押したことを検知することにより、削除命令を受け付ける。入力部5は、削除命令をデジタル信号処理部60へ供給する。その削除命令は、デジタル信号処理部60において、赤目検出部67経由で判定部71へ供給される。判定部71は、削除命令を受け取った場合、削除が指定されたと判断し、削除命令を受け取っていない場合、削除が指定されていないと判断する。判定部71は、削除が指定されたと判断した場合、処理をステップS48へ進め、削除が指定されていないと判断した場合、処理をステップS49へ進める。
In step S47, the
ステップS48では、赤目補正部69は、削除が指定された赤目補正候補領域の情報を削除する。すなわち、判定部71は、削除命令を赤目補正部69へ供給する。赤目補正部69は、削除命令に基づいて、メモリ(図示せず)を参照して、選択された赤目補正候補領域の情報を削除する。なお、メモリには、全ての赤目補正候補領域の情報が記憶されているものとする。
In step S48, the red-
そして、赤目補正部69は、画像情報とともに、削除された低領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、削除された低領域の情報とに基づいて、図13に示す画像GIに代えて図14に示す画像GIを表示デバイスに表示する。
Then, the red-
例えば、図14では、画像表示部70により、赤目補正候補領域R4に対応する部分のハイライト表示(図中では斜線)が消えた状態で表示される。これにより、赤目補正候補領域R4が赤目補正の対象から削除されたことを把握することができる。
For example, in FIG. 14, the
ステップS49では、判定部71は、全ての低領域が選択されたか否かを判断する。判定部71は、全ての低領域が選択されたと判断した場合、処理をステップS45へ進め、全ての低領域が選択されていないと判断した場合、処理をステップS41へ進める。
In step S49, the
なお、本実施形態において、NG領域と低領域とを対象として削除するか否かの指定を行っているが、中領域も対象として削除するか否かの指定を行ってもよい。こうすることで、より精度の高い赤目領域の除去を行うことができる。 In this embodiment, it is specified whether or not to delete the NG area and the low area, but it may be specified whether or not the middle area is also deleted. By doing so, it is possible to remove the red-eye region with higher accuracy.
ステップS50では、赤目補正部69は、赤目補正候補領域を確定する。すなわち、デジタル信号処理部60の判定部71は、確定命令を赤目補正部69へ供給する。赤目補正部69は、確定命令に基づき、メモリ(図示せず)を参照して、全ての赤目補正候補領域を確定する。そして、赤目補正部69は、画像情報とともに、確定された赤目補正候補領域の情報を、画像表示部70へ供給する。画像表示部70は、画像情報と、確定された赤目補正候補領域の情報とに基づいて、図14に示す画像GIに代えて図15に示す画像GIを表示デバイスに表示する。
In step S50, the red-
例えば、図15では、画像表示部70により、赤目補正候補領域R1〜R3に対応する部分のハイライト表示(図中では斜線)が別のハイライト表示(図中では格子状のハッチング)で表示される。これにより、赤目補正候補領域R1〜R3が赤目補正の対象として確定したことを把握することができる。
For example, in FIG. 15, the
以上のような処理により、画像表示部70により表示される画像は、例えば、図15に示すような画像になる。なお、図15において、実線斜線で示されている部分は、赤目位置情報を示す。赤目位置情報は、画像GIにおいて、赤目検出に成功していると判定部71が判定する場合における赤目補正候補領域R1,R2,R3の位置を示す情報である。
By the processing as described above, the image displayed by the
そして、赤目補正部69は、確定した赤目補正候補領域に対して赤目補正を行う。
Then, the red-
例えば、図15では、赤目補正部69は、複数の赤目補正候補領域R1〜R5において、削除命令で指定された赤目補正候補領域R4,R5を除く赤目補正候補領域R1〜R3を赤目補正する。
For example, in FIG. 15, the red-
このように、フラッシュ撮影された画像GIの中において、赤目補正に失敗している可能性が高い順番に(赤目検出に成功している度合いが低い順番に)削除すべきかどうかの入力を、利用者に対して促すことができる。これにより、不適切な赤目補正候補領域を赤目補正の対象から削除することができるとともに、全ての赤目補正候補領域に対して赤目補正を行うか否かを指定することを避けることができる。このため、例えば赤目補正を適切に行うことができ、利用者側の処理負担を軽減できる。 As described above, in the image GI taken with the flash, the input indicating whether or not to delete the red eye correction in the order of the high possibility that the red eye correction has failed (in the order of the low degree of the red eye detection success) is used. Can be encouraged. Thereby, an inappropriate red-eye correction candidate area can be deleted from the target of red-eye correction, and it can be avoided to specify whether or not to perform red-eye correction on all red-eye correction candidate areas. For this reason, for example, red-eye correction can be performed appropriately, and the processing burden on the user side can be reduced.
なお、例えば、NG1,NG2,NG3(1から順に信頼度が低いとする)のように信頼度のランク分けが細かく設定されている場合、信頼度の低い順に削除せず、例えば、画面内の右から左に削除していくようにしても良い。 For example, when the reliability ranking is finely set as in NG1, NG2, NG3 (assuming that the reliability is low in order from 1), it is not deleted in the order of low reliability. You may make it delete from right to left.
例えば、拡大された再生画像から赤目補正候補領域の確認を行い削除するような場合、削除対象が離散的に存在している画像に対して信頼度の低い順に削除すると、削除のたびに表示対象(削除対象)が画像全体において右に左にと変わることがある。この場合、画像全体においてどれだけの削除対象が残っているか分かりにくい。そこで、上記のように、例えば、画面内の右から左に削除していくようにすることにより、削除残しを低減できる。 For example, in the case where the red eye correction candidate area is confirmed and deleted from the enlarged reproduced image, if the deletion target is deleted in the order of low reliability with respect to the image in which the deletion target exists discretely, the display target is displayed every time the deletion is performed. (Delete target) may change from right to left in the entire image. In this case, it is difficult to know how many deletion targets remain in the entire image. Therefore, as described above, for example, by deleting from the right to the left in the screen, it is possible to reduce the deletion residue.
なお、撮像装置のデジタル信号処理部は、BPF65の代わりにHPFを備えていてもよい。この場合でも、輝度信号Yなどの入力信号のうち高周波成分を通過させて輪郭強調部66へ供給することができる。
Note that the digital signal processing unit of the imaging apparatus may include an HPF instead of the
本発明の好適な第2実施形態に係る撮像装置について、図16〜図22を参照して説明する。なお、第1実施形態と同様の部分は説明を省略し、第1実施形態と異なる部分を中心に説明する。 An imaging apparatus according to a preferred second embodiment of the present invention will be described with reference to FIGS. The description of the same parts as in the first embodiment will be omitted, and the description will focus on the parts that are different from the first embodiment.
撮像装置100は、図16に示すように、基本的な構成は第1実施形態と同様であるが、デジタル信号処理部60の代わりにデジタル信号処理部160を備え、入力部5の代わりに入力部105を備える点で、第1実施形態と異なる。具体的には、以下の点が異なる。
As shown in FIG. 16, the
すなわち、入力部105には、利用者により、画像表示部70が表示した画像(例えば、図21に示す画像GI)及び赤目位置情報(例えば、図21に示す実線斜線の領域)に基づいて、赤目検出閾値TH1の変更命令が入力される。
That is, based on the image (for example, the image GI shown in FIG. 21) and the red-eye position information (for example, the area indicated by the solid line in FIG. 21) displayed by the user on the
デジタル信号処理部160は、図17に示すように、赤目検出部67の代わりに赤目検出部167を備え、判定部71の代わりに判定部171を備え、赤目補正部69の代わりに赤目補正部169を備える。赤目補正部169は、赤目検出閾値TH1の変更命令を、赤目検出部167及び判定部171を経由して入力部105から受け取る。赤目補正部169は、変更後の赤目検出閾値TH1aを生成し判定部171へ渡す。判定部171は、赤目検出閾値TH1の代わりに変更後の赤目検出閾値TH1aを用いて判定を行う。
As shown in FIG. 17, the digital
また、撮像装置が赤目検出を行う処理の流れが、図18及び図19に示すように、次の点で第1実施形態と異なる。なお、図18及び図19において、図3に示す処理と同様の処理は同じ記号で示し説明を省略する。 Further, as shown in FIGS. 18 and 19, the flow of processing in which the imaging apparatus performs red-eye detection differs from the first embodiment in the following points. In FIG. 18 and FIG. 19, the same processes as those shown in FIG.
ステップS131(図18、図19で示す(4))では、赤目検出閾値の変更命令を受け付けたか否かが判断される。すなわち、画像表示部70は、赤目位置情報とともに画像を表示する。赤目位置情報及び画像は利用者により閲覧される。
In step S131 ((4) shown in FIGS. 18 and 19), it is determined whether or not a red-eye detection threshold change command has been received. That is, the
例えば、画像表示部70により表示される画像は、図21に示すような画像になる。図21において、実線斜線で示されている部分は、赤目位置情報を示す。図21の場合、赤目検出に成功していると判定部171が判定する場合における赤目補正候補領域R1,R2,R3,R4に対して、赤目位置情報が表示されている。ここで、赤目補正候補領域R1,R2,R3は、適切に判定されている。赤目補正候補領域R4は、誤判定されている。赤目位置情報とともに赤目補正候補領域R4が表示されていることを閲覧した利用者は、厳しめに設定するように赤目検出閾値TH1の変更命令を入力する。
For example, the image displayed by the
このように、例えば、赤目補正すべきでない領域が誤判定された場合に、赤目検出閾値TH1を厳しめに設定しなおすように変更命令が入力される。 In this way, for example, when a region that should not be corrected for red-eye is erroneously determined, a change command is input so that the red-eye detection threshold TH1 is strictly set.
あるいは、例えば、画像表示部70により表示される画像は、図22に示すような画像になる。図22において、実線斜線で示されている部分は、赤目位置情報を示す。図22の場合、赤目検出に成功していると判定部171が判定する場合における赤目補正候補領域R1,R2に対して、赤目位置情報が表示されている。ここで、赤目補正候補領域R1,R2は、適切に判定されている。赤目補正候補領域R3は、本来なら赤目検出されるべき領域であり、誤判定されている。赤目位置情報とともに赤目補正候補領域R4が表示されていることを閲覧した利用者は、緩めに設定するように赤目検出閾値TH1の変更命令を入力する。
Alternatively, for example, the image displayed by the
このように、例えば、赤目補正すべき領域が誤判定された場合に、赤目検出閾値TH1を緩めに設定しなおすように変更命令が入力される。 In this way, for example, when a region to be corrected for red-eye is erroneously determined, a change command is input so as to reset the red-eye detection threshold TH1 to be loose.
デジタル信号処理部160の入力部105には、赤目検出閾値TH1の変更命令が入力される。赤目補正部169は、赤目検出部167及び判定部171を経由して赤目検出閾値TH1の変更命令を入力部105から受け取る。赤目補正部169は、赤目検出閾値TH1の変更命令を受け取った場合、赤目検出閾値の変更命令を受け付けたと判断する。赤目補正部169は、赤目検出閾値TH1の変更命令を受け取っていない場合、赤目検出閾値の変更命令を受け付けていないと判断する。
An instruction to change the red-eye detection threshold TH1 is input to the
赤目検出閾値の変更命令を受け付けたと判断された場合、赤目補正部169により変更後の赤目検出閾値TH1aが生成され判定部171へ渡され、ステップS1(図19、図18で示す(3))へ進められる。赤目検出閾値の変更命令を受け付けていないと判断された場合、処理が終了する。
When it is determined that a red-eye detection threshold change command has been received, the red-
撮影された画像の中において赤目補正すべきでない領域に対して赤目補正されることが低減される点は、第1実施形態と同様である。したがって、このような撮像装置100によっても、例えば赤目補正は適切に行われる。
Similar to the first embodiment, red-eye correction is reduced for a region that should not be corrected for red-eye in a captured image. Therefore, even with such an
ステップS105では、判定部171が、成功度合い判定処理を行う。具体的には、図20に示すように、成功度合い判定処理は、次の点で第1実施形態と異なる。
In step S105, the
ステップS155では、判定部171は、変更後の赤目検出閾値TH1aを受け取った場合、赤目検出閾値TH1の代わりに変更後の赤目検出閾値TH1aを用いて判定を行う。この点で、図6のステップS55と異なる。
In step S155, when the
このように、例えば、赤目補正すべきでない領域が誤判定された場合に、赤目検出閾値TH1に代えて、厳しめに設定しなおされた赤目検出閾値TH1aにより赤目検出に成功したか否かが判定されるようになる。これにより、撮影された画像の中において赤目補正すべきでない領域に対して赤目補正されることがさらに低減される。 In this way, for example, when an area that should not be corrected for red-eye is erroneously determined, whether or not the red-eye detection has succeeded with the red-eye detection threshold TH1a that has been strictly set instead of the red-eye detection threshold TH1. It will be judged. This further reduces red-eye correction for areas that should not be red-eye corrected in the captured image.
また、例えば、赤目補正すべき領域が誤判定された場合に、赤目検出閾値TH1に代えて、緩めに設定しなおされた赤目検出閾値TH1aにより赤目検出に成功したか否かが判定されるようになる。これにより、撮影された画像の中において赤目補正すべき領域に対して赤目補正されないことも低減される。 In addition, for example, when a region to be corrected for red-eye is erroneously determined, it is determined whether or not the red-eye detection has succeeded based on the red-eye detection threshold TH1a that is set loosely instead of the red-eye detection threshold TH1. become. As a result, it is possible to reduce the fact that red-eye correction is not performed on a region to be corrected for red-eye in a captured image.
なお、利用者により撮像装置の入力部に入力されるのは、赤目検出閾値TH1の変更命令である代わりに顔検出閾値TH2の変更命令であってもよい。あるいは、利用者により撮像装置の入力部に入力されるのは、赤目検出閾値TH1の変更命令である代わりに赤目検出閾値TH1及び顔検出閾値TH2の変更命令であってもよい。 Note that what is input to the input unit of the imaging apparatus by the user may be a change instruction for the face detection threshold TH2 instead of a change instruction for the red-eye detection threshold TH1. Alternatively, what is input to the input unit of the imaging apparatus by the user may be a command to change the red-eye detection threshold TH1 and the face detection threshold TH2 instead of a command to change the red-eye detection threshold TH1.
次に、上述した各実施形態の機能を実現するためのプログラムについて説明する。 Next, a program for realizing the functions of the above-described embodiments will be described.
上述した各実施形態の機能を実現するように各種のデバイスを動作させ、その各種のデバイスと接続された装置あるいはシステム内のコンピュータに対して上述した各実施形態の機能を実現させるソフトウェアのプログラムコード(プログラム)を供給する。 Software program code for operating various devices so as to realize the functions of the above-described embodiments and realizing the functions of the above-described embodiments for a computer in an apparatus or system connected to the various devices. Supply (program).
そして、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に(ソフトウェア的に又はハードウェア的に)格納されたプログラムにしたがって上記の各種のデバイスを動作させるようにしたものも、本発明の範疇に含まれる。 Also, the scope of the present invention includes those in which the various devices described above are operated in accordance with a program (software or hardware) stored in a computer (CPU or MPU) of the system or apparatus. It is.
また、この場合、上記のソフトウェアのプログラム自体が上述した実施形態の機能を実現することになる。 In this case, the software program itself realizes the functions of the above-described embodiment.
また、そのプログラム自体、及びそのプログラムのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムを格納した記憶媒体も、本発明の範疇に含まれる。 Further, the program itself and means for supplying the program code of the program to a computer, for example, a storage medium storing such a program are also included in the scope of the present invention.
かかるプログラムを記憶する記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 As a storage medium for storing such a program, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
また、供給されたプログラムをコンピュータが実行することにより、上述の実施形態の機能が実現されるだけではない。 In addition, the functions of the above-described embodiments are not only realized by the computer executing the supplied program.
例えば、そのプログラムがコンピュータにおいて稼動しているOS(オペレーティングシステム)あるいは他のアプリケーション等と協働して上述の実施形態の機能を実現させる場合にも、かかるプログラムは、本発明の範疇に含まれる。 For example, when the program realizes the functions of the above-described embodiment in cooperation with an OS (operating system) running on a computer or another application, the program is also included in the scope of the present invention. .
さらに、供給されたプログラムは、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納される。 Further, the supplied program is stored in a memory provided in a function expansion board of the computer or a function expansion unit connected to the computer.
そして、そのプログラムの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合にも、かかるプログラムは、本発明の範疇に含まれる。 Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and when the functions of the above-described embodiments are realized by the processing, Such a program is included in the category of the present invention.
1,100 撮像装置
5,105 入力部
67,167 赤目検出部
68,168 顔検出部
69,169 赤目補正部
70 画像表示部
71,171 判定部
DESCRIPTION OF SYMBOLS 1,100 Imaging device 5,105 Input part 67,167 Red eye detection part 68,168 Face detection part 69,169 Red
Claims (7)
少なくとも前記赤目検出信頼度に基づいて、検出することに成功している度合いを各前記赤目補正候補領域に対して判定する判定部と、
前記度合いに基づき、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに順次表示する表示部と、
を備えたことを特徴とする撮像装置。 A plurality of red-eye correction candidate areas that are candidates for red-eye correction are detected from the image, and a red-eye detection reliability indicating the redness of the detected red-eye correction candidate area is set in each of the red-eye correction candidate areas. A red-eye detector to be generated,
A determination unit that determines the degree of successful detection for each of the red-eye correction candidate regions based on at least the red-eye detection reliability;
Based on the degree, a display unit that sequentially displays deletion candidates that are red-eye correction candidate regions that are candidates to be deleted from red-eye correction targets in the plurality of red-eye correction candidate regions, together with the image;
An imaging apparatus comprising:
ことを特徴とする請求項1に記載の撮像装置。 The display unit sequentially displays, together with the image, deletion candidates that are red-eye correction candidate regions that are candidates to be deleted from the red-eye correction target in the plurality of red-eye correction candidate regions in order of decreasing degree. The imaging device according to claim 1.
前記複数の赤目補正候補領域において、前記削除命令で指定された赤目補正候補領域を除く赤目補正候補領域を赤目補正する赤目補正部と、
をさらに備えたことを特徴とする請求項1又は2に記載の撮像装置。 An input unit for inputting a deletion instruction that is an instruction for designating deletion of the deletion candidate;
A red-eye correction unit that corrects red-eye correction candidate areas excluding the red-eye correction candidate area specified by the deletion instruction in the plurality of red-eye correction candidate areas;
The imaging apparatus according to claim 1, further comprising:
前記判定部は、赤目補正候補領域の前記赤目検出信頼度と、赤目補正領域を含む顔候補領域の前記顔検出信頼度とに基づいて、前記度合いを判定する
請求項1から3のいずれか1項に記載の撮像装置。 A plurality of face candidate areas that are areas recognized as the face of the subject are detected from the image, and a face detection reliability indicating the face likeness of the detected face candidate area is generated for each face candidate area Further comprising a face detecting unit,
4. The determination unit according to claim 1, wherein the determination unit determines the degree based on the red-eye detection reliability of the red-eye correction candidate region and the face detection reliability of the face candidate region including the red-eye correction region. The imaging device according to item.
少なくとも前記赤目検出信頼度に基づいて、検出することに成功している度合いを各前記赤目補正候補領域に対して判定する判定ステップと、
前記度合いが低い順番に、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに表示する表示ステップと、
を備えたことを特徴とする撮像方法。 A plurality of red-eye correction candidate areas that are candidates for red-eye correction are detected from the image, and a red-eye detection reliability indicating the redness of the detected red-eye correction candidate area is set in each of the red-eye correction candidate areas. A red-eye detection step to generate for
A determination step of determining, for each of the red-eye correction candidate regions, a degree of success in detection based on at least the red-eye detection reliability;
A display step of displaying, together with the image, deletion candidates that are red-eye correction candidate areas that are candidates to be deleted from red-eye correction targets in the plurality of red-eye correction candidate areas in order of decreasing degree;
An imaging method comprising:
ことを特徴とする撮像プログラム。 An imaging program for causing an imaging apparatus to perform the imaging method according to claim 5.
少なくとも前記赤目検出信頼度に基づいて、検出することに成功している度合いを各前記赤目補正候補領域に対して判定する判定部と、
前記度合いに基づき、前記複数の赤目補正候補領域において赤目補正の対象から削除すべき候補となる赤目補正候補領域である削除候補を前記画像とともに順次表示する表示部と、
を備えたことを特徴とする画像処理装置。 A plurality of red-eye correction candidate areas that are candidates for red-eye correction are detected from the image, and a red-eye detection reliability indicating the redness of the detected red-eye correction candidate area is set in each of the red-eye correction candidate areas. A red-eye detector to be generated,
A determination unit that determines the degree of successful detection for each of the red-eye correction candidate regions based on at least the red-eye detection reliability;
Based on the degree, a display unit that sequentially displays deletion candidates that are red-eye correction candidate regions that are candidates to be deleted from red-eye correction targets in the plurality of red-eye correction candidate regions, together with the image;
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006194888A JP2008022502A (en) | 2006-07-14 | 2006-07-14 | Imaging apparatus, imaging method, imaging program and image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006194888A JP2008022502A (en) | 2006-07-14 | 2006-07-14 | Imaging apparatus, imaging method, imaging program and image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008022502A true JP2008022502A (en) | 2008-01-31 |
JP2008022502A5 JP2008022502A5 (en) | 2009-08-27 |
Family
ID=39078105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006194888A Pending JP2008022502A (en) | 2006-07-14 | 2006-07-14 | Imaging apparatus, imaging method, imaging program and image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008022502A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009278541A (en) * | 2008-05-16 | 2009-11-26 | Canon Inc | Signal processing apparatus and signal processing method |
JP2011511358A (en) * | 2008-02-01 | 2011-04-07 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Automatic red eye detection |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003209683A (en) * | 2001-09-27 | 2003-07-25 | Fuji Photo Film Co Ltd | Image processing equipment and image processing method |
JP2004208281A (en) * | 2002-12-11 | 2004-07-22 | Fuji Photo Film Co Ltd | Image correction apparatus and imaging unit |
JP2005286830A (en) * | 2004-03-30 | 2005-10-13 | Fuji Photo Film Co Ltd | Image processing method, image processing apparatus, and program |
-
2006
- 2006-07-14 JP JP2006194888A patent/JP2008022502A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003209683A (en) * | 2001-09-27 | 2003-07-25 | Fuji Photo Film Co Ltd | Image processing equipment and image processing method |
JP2004208281A (en) * | 2002-12-11 | 2004-07-22 | Fuji Photo Film Co Ltd | Image correction apparatus and imaging unit |
JP2005286830A (en) * | 2004-03-30 | 2005-10-13 | Fuji Photo Film Co Ltd | Image processing method, image processing apparatus, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011511358A (en) * | 2008-02-01 | 2011-04-07 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Automatic red eye detection |
US8446494B2 (en) | 2008-02-01 | 2013-05-21 | Hewlett-Packard Development Company, L.P. | Automatic redeye detection based on redeye and facial metric values |
JP2009278541A (en) * | 2008-05-16 | 2009-11-26 | Canon Inc | Signal processing apparatus and signal processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11948282B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
JP4078334B2 (en) | Image processing apparatus and image processing method | |
US9747492B2 (en) | Image processing apparatus, method of processing image, and computer-readable storage medium | |
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
JP4983962B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5089405B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
US20060034602A1 (en) | Image capture apparatus and control method therefor | |
JP6564271B2 (en) | Imaging apparatus, image processing method, program, and storage medium | |
US8830374B2 (en) | Image capture device with first and second detecting sections for detecting features | |
JP5293206B2 (en) | Image search apparatus, image search method and program | |
KR20200023651A (en) | Preview photo blurring method and apparatus and storage medium | |
JP2019106045A (en) | Image processing device, method, and program | |
US7826639B2 (en) | Method for displaying an identified region together with an image, program executable in a computer apparatus, and imaging apparatus | |
US8369619B2 (en) | Method and apparatus for skin color correction and digital photographing apparatus using both | |
WO2020027210A1 (en) | Image processing device, image processing method, and image processing program | |
JP4148903B2 (en) | Image processing apparatus, image processing method, and digital camera | |
JP5215775B2 (en) | White balance control device, imaging device using the same, and white balance control method | |
JP5414216B2 (en) | Imaging apparatus, control method thereof, and program | |
JP6808482B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2008022502A (en) | Imaging apparatus, imaging method, imaging program and image processing device | |
JP5044472B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2006128793A (en) | Image pickup device and control method thereof | |
JP2006148326A (en) | Imaging apparatus and method of controlling the same | |
JP2007312249A (en) | Unit and method for image processing | |
JP5677485B2 (en) | White balance control device, imaging device using the same, and white balance control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110131 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110704 |