JP4148903B2 - Image processing apparatus, image processing method, and digital camera - Google Patents

Image processing apparatus, image processing method, and digital camera Download PDF

Info

Publication number
JP4148903B2
JP4148903B2 JP2004001007A JP2004001007A JP4148903B2 JP 4148903 B2 JP4148903 B2 JP 4148903B2 JP 2004001007 A JP2004001007 A JP 2004001007A JP 2004001007 A JP2004001007 A JP 2004001007A JP 4148903 B2 JP4148903 B2 JP 4148903B2
Authority
JP
Japan
Prior art keywords
red
eye
region
image
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004001007A
Other languages
Japanese (ja)
Other versions
JP2005196385A (en
Inventor
真由美 湯浅
達夫 小坂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004001007A priority Critical patent/JP4148903B2/en
Publication of JP2005196385A publication Critical patent/JP2005196385A/en
Application granted granted Critical
Publication of JP4148903B2 publication Critical patent/JP4148903B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

この発明は、人物や動物などをフラッシュを用いて撮影した際に発生する赤目を検出して、検出した赤目を補正する画像処理装置、画像処理方法およびデジタルカメラに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and a digital camera that detect red eyes generated when a person or an animal is photographed using a flash and correct the detected red eyes.

小型化、高画質化などの技術の進歩と、銀塩カメラに比べて手軽に使用することができることから、デジタルカメラは、急激に普及しており、銀塩カメラに取って代わりつつある。   Digital cameras are rapidly becoming widespread and are replacing silver salt cameras because of advances in technology such as miniaturization and high image quality, and ease of use compared to silver salt cameras.

暗い場所での撮影は、デジタルカメラも銀塩カメラと同様にフラッシュなどの照明が不可欠である。人物や動物をフラッシュを用いて撮影した場合、フラッシュの光が網膜で反射することによって、被写体である人物や動物の瞳が赤くなる赤目現象が発生することがある。この赤目現象は、レンズの光軸とフラッシュの光軸とが並行で、かつ2つの光軸の距離が近い場合に発生しやすい。特に、小型化が進んでいるデジタルカメラでは、レンズとフラッシュとの間の距離が短くなっているので、赤目現象が発生することが多い。そのため、デジタルカメラに限らず小型カメラには、赤目を軽減する赤目軽減機能が搭載されていることが多い。   When shooting in dark places, digital cameras require lighting such as a flash as well as silver halide cameras. When a person or an animal is photographed using a flash, a red-eye phenomenon may occur in which the light of the flash is reflected by the retina and the eyes of the subject person or animal become red. This red-eye phenomenon is likely to occur when the optical axis of the lens and the optical axis of the flash are parallel and the distance between the two optical axes is short. In particular, in digital cameras that are becoming smaller in size, the distance between the lens and the flash is shortened, so that a red-eye phenomenon often occurs. Therefore, not only digital cameras but also small cameras are often equipped with a red-eye reduction function for reducing red eyes.

赤目軽減機能の1つとして、フラッシュから2回光を照射する方法がある。まず、撮影する直前にフラッシュによってダミーの光を照射して人物や動物の瞳孔を狭くしておき、撮影時のフラッシュの光による網膜での反射光を少なくすることで、赤目現象の発生を防止する。   One of the red-eye reduction functions is to irradiate light twice from a flash. First, the pupil of a person or animal is narrowed by irradiating a dummy light with a flash just before shooting to reduce the reflected light on the retina due to the flash light during shooting, thereby preventing the occurrence of red-eye phenomenon To do.

しかしながら、フラッシュから2回光を照射する方法では、ダミーの光を照射しなければならないため、電池の消耗が激しいという問題があった。   However, in the method of irradiating light twice from the flash, the dummy light has to be irradiated, which causes a problem that the battery is consumed very much.

また、フラッシュから2回光を照射して、フラッシュの光による網膜での反射光を少なくなるようにしても、完全に赤目現象を無くすことはできない。そのため、撮影後に赤目を補正する必要があった。   Further, even if the light is irradiated twice from the flash so that the light reflected from the retina by the flash light is reduced, the red-eye phenomenon cannot be completely eliminated. Therefore, it was necessary to correct red eyes after shooting.

特許文献1(第1の従来技術)には、赤目領域を検出する前処理として、顔領域を検出する顔領域検出を行い、顔領域の検出を赤目領域の検出/除去等の赤目処理に利用する技術が開示されている。具体的には、まず、操作者によってディスプレイに表示されている画像の中から赤目領域が含まれる顔の一点あるいは、一部範囲が指定されると、指定された領域を一定範囲拡大した画像領域の検索範囲を初期設定する。そして、操作者が指定した領域の画素の色、あるいは、初期設定された検索範囲の全部または一部の画素の色を参照して顔の画像領域の基本的な色である肌色の基準色を決定して、決定した基準色と画像領域の画素の色との色差に基づいて顔の画像領域を検索する。   In Patent Document 1 (first prior art), face region detection for detecting a face region is performed as pre-processing for detecting a red eye region, and the detection of the face region is used for red eye processing such as detection / removal of the red eye region. Techniques to do this are disclosed. Specifically, first, when a point or a part of a face including a red-eye area is specified from an image displayed on the display by the operator, an image area obtained by enlarging the specified area by a certain range Initialize search range for. The skin color reference color, which is the basic color of the face image area, is determined by referring to the pixel color of the area specified by the operator or the color of all or part of the pixels in the initial search range. The face image area is searched based on the color difference between the determined reference color and the pixel color of the image area.

つぎに、検索した顔の画像領域の中の各画素の色差を用いたクラスタリング処理によって、目や口、眉等の特徴点を検出する。そして、検出した特徴点の色を判別し、輝度情報を基準として、毛、黒目部分影等の黒領域および白目部分などの白領域を検出し、彩度情報を基準として、しみや赤目、唇等の赤領域の判別等の特徴点の色を判別する。   Next, feature points such as eyes, mouth, and eyebrows are detected by clustering processing using the color difference of each pixel in the searched face image region. Then, the color of the detected feature point is determined, black areas such as hair and black eye shadows and white areas such as white eye shadows are detected based on luminance information, and spots, red eyes, lips are detected based on saturation information. The color of the feature point such as the discrimination of the red region is discriminated.

最後に、各色の判別結果に加えて、特徴点の形状なども考慮して総合的に判断して、赤目領域を検出して、検出した赤目領域の彩度および明度を低下させて赤目を補正する。   Finally, in addition to the discrimination results of each color, comprehensive judgment is also made considering the shape of the feature points, etc. to detect the red-eye area and reduce the saturation and lightness of the detected red-eye area to correct red eyes To do.

また、特許文献2(第2の従来技術)には、認識対象となる人物の入力画像から当該人物の顔領域が抽出された際に、その顔領域の中から分離度フィルタを用いて顔の各特徴点候補を抽出し、この各特徴点候補の中から顔の構造的な制約情報に基づいて各特徴点のセット候補を選択し、この各特徴点セット候補を基準に切り出した特徴点近傍領域と予め登録してあるテンプレートパターンとの照合により各適合度を計算してその緩和を求め、最も適合度の緩和の高い特徴点セットを正しい特徴点セットとして選択することで、入力画像から目、鼻などの特徴点を安定に抽出する技術が開示されている。   Further, in Patent Document 2 (second prior art), when a face area of a person is extracted from an input image of the person to be recognized, the face of the face is extracted from the face area using a separability filter. Each feature point candidate is extracted, a feature point set candidate is selected from the feature point candidates based on the structural constraint information of the face, and the feature point neighborhood cut out based on each feature point set candidate Each matching degree is calculated by matching the region with a pre-registered template pattern to find its relaxation, and the feature point set with the highest relaxation degree is selected as the correct feature point set. A technique for stably extracting feature points such as the nose is disclosed.

さらに、非特許文献1(第3の従来技術)には、瞳と鼻孔とが含まれている顔辞書パターンを画像全体にわたって移動させながら類似度を随時求めていき、類似度の局所最大点を顔領域として抽出し、抽出した顔領域の中から分離度フィルタを用いて顔の各特徴点候補を抽出して、部分空間法を用いたパターン照合により、抽出した各特徴点候補が正しい特徴点であるのか否かを検証して、画像全体から目、鼻孔などの特徴点を抽出する技術が開示されている。   Furthermore, Non-Patent Document 1 (third prior art) obtains a similarity degree at any time while moving a face dictionary pattern including a pupil and a nostril over the entire image, and determines a local maximum point of the similarity degree. Extracted as a face area, extracted each feature point candidate of the face from the extracted face area using a separability filter, and the extracted feature point candidates are correct by pattern matching using the subspace method. And a technique for extracting feature points such as eyes and nostrils from the entire image is disclosed.

特開平10−233929号公報JP-A-10-233929 特許第3279913号公報Japanese Patent No. 3279913 電子情報通信学会論文誌 D−II Vol.J80-D-II No.8 pp.2170-2177 1997年8月 「形状抽出とパターン照合の組み合わせによる顔特徴点抽出」IEICE Transactions D-II Vol.J80-D-II No.8 pp.2170-2177 August 1997 "Facial feature point extraction by combination of shape extraction and pattern matching"

しかしながら、上記第1の従来技術では、たとえば、色相だけを用いた場合には赤目領域の検出精度が低く、誤検出が発生することがある。そのため、面積、彩度、明度、形状などの複数の条件を考慮して総合的に判断しているが、考慮する条件が多くなると赤目検出に時間がかかってしまうという問題があった。   However, in the first prior art, for example, when only the hue is used, the detection accuracy of the red-eye region is low, and erroneous detection may occur. For this reason, comprehensive determination is made in consideration of a plurality of conditions such as area, saturation, brightness, and shape, but there is a problem that it takes time to detect red-eye when the number of conditions to be considered increases.

また、上記第1の従来技術では、赤目を補正するために、操作者が、ディスプレイに表示されている画像の中から赤目領域が含まれる顔の1点あるいは、一部範囲を指定するようにしており、この指定によっては赤目検出に時間がかかってしまう。赤目検出の時間を短縮するためには、適切な領域を指定しなければならい。しかしながら、領域の指定は、操作者が手動で行うため、非常に不便であるという問題もあった。   In the first prior art, in order to correct the red eye, the operator designates one point or a partial range of the face including the red eye region from the image displayed on the display. Depending on this specification, it takes time to detect red-eye. In order to shorten the red-eye detection time, an appropriate area must be specified. However, there is a problem that the designation of the area is very inconvenient because it is manually performed by the operator.

さらに、上記第2および第3の従来技術では、瞳を正確に検出することはできるが、顔領域を検出した後に特徴点である瞳を検出するようにしているため、その処理時間が長く、デジタルカメラなどの赤目検出にそのまま適用することは難しいという問題があった。   Furthermore, in the second and third conventional techniques, the pupil can be accurately detected, but since the pupil which is a feature point is detected after the face area is detected, the processing time is long, There is a problem that it is difficult to directly apply to red-eye detection of a digital camera or the like.

また、デジタルカメラには、自動的に被写体までの距離を測定することにより、レンズの焦点を調整する自動焦点調節機能がある。デジタルカメラでは、自動焦点調節機能において画像の中のどの部分に焦点を合わせるかは、予め定められていることが多い。しかし、風景の中を背景に人物や動物を撮影する場合、必ずしも予め定められている部分に人物や動物が位置するわけではない。このような場合には、人物に焦点が合っていない画像が撮影されることがあるという問題があった。   Digital cameras also have an automatic focus adjustment function that adjusts the focus of the lens by automatically measuring the distance to the subject. In a digital camera, it is often predetermined which part of an image is focused in the automatic focus adjustment function. However, when a person or animal is photographed against the background of a landscape, the person or animal is not necessarily located at a predetermined portion. In such a case, there is a problem that an image out of focus on the person may be taken.

本発明は、上記に鑑みて成されたものであって、顔領域を検出することなく赤目を検出することで処理時間を短縮して、赤目補正を行うことができる画像処理装置、画像処理方法およびデジタルカメラを得ることを第1の目的とする。   The present invention has been made in view of the above, and an image processing apparatus and an image processing method capable of performing red-eye correction by reducing the processing time by detecting red eyes without detecting a face area. The first object is to obtain a digital camera.

第2の目的は、人物や動物を含む撮影の場合、正確に人物や動物に焦点を合わせることができるデジタルカメラを得ることである。   The second object is to obtain a digital camera that can accurately focus on a person or animal when photographing including a person or animal.

上述した課題を解決し、目的を達成するために、本発明は、所定の形状の内部領域と外部領域とを有する分離度フィルタによって前記入力画像の中のから前記内部領域と前記外部領域とを検出して、前記内部領域に含まれる前記入力画像の画像特徴量と前記外部領域に含まれる入力画像の画像特徴量との分離の度合いを示す分離度を前記入力画像の画素ごとに算出して、この算出した各分離度と前記各画素とを対応付けた分離度マップを作成する分離度マップ作成手段と、この分離度マップ作成手段によって作成された分離度マップの各分離度と所定の閾値とを比較して、前記分離度が前記閾値よりも大きい画素を検出して、この検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出する特徴点候補検出手段と、この特徴点候補検出手段によって検出された前記赤目の候補が所定の条件を満たしているか否かを判定して、前記所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出する特徴点検出手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention uses the separability filter having an inner area and an outer area having a predetermined shape to separate the inner area and the outer area from the input image. And detecting a degree of separation for each pixel of the input image that indicates a degree of separation between the image feature amount of the input image included in the internal region and the image feature amount of the input image included in the external region. A separability map creating means for creating a separability map in which each calculated separability is associated with each pixel; each separability of the separability map created by the separability map creating means and a predetermined threshold value And a feature point candidate detecting means for detecting a pixel whose degree of separation is greater than the threshold, and detecting a pixel whose degree of separation of the detected pixel indicates a local maximum value as a red-eye candidate, and Feature point Feature inspection for determining whether or not the red-eye candidate detected by the complementary detection means satisfies a predetermined condition, and detecting a predetermined area including the red-eye candidate satisfying the predetermined condition as a red-eye area And an exit means.

また、本発明は、入力画像の中から赤目領域を検出して、この検出した赤目領域を補正する画像処理方法において、所定の形状の内部領域と外部領域とを有する分離度フィルタによって前記入力画像の中のから前記内部領域と前記外部領域とを検出して、前記内部領域に含まれる前記入力画像の画像特徴量と前記外部領域に含まれる入力画像の画像特徴量との分離の度合いを示す分離度を前記入力画像の画素ごとに算出して、この算出した各分離度と前記各画素とを対応付けた分離度マップを作成する分離度マップ作成ステップと、この分離度マップ作成ステップによって作成された分離度マップの各分離度と所定の閾値とを比較して、前記分離度が前記閾値よりも大きい画素を検出して、この検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出する特徴点候補検出ステップと、この特徴点候補検出ステップによって検出された前記赤目の候補が所定の条件を満たしているか否かを判定して、前記所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出する特徴点検出ステップと、を備えることを特徴とする。   According to another aspect of the present invention, there is provided an image processing method for detecting a red-eye area from an input image and correcting the detected red-eye area, by using a separability filter having an inner area and an outer area having a predetermined shape. The internal region and the external region are detected from among the images, and the degree of separation between the image feature amount of the input image included in the internal region and the image feature amount of the input image included in the external region is indicated. A separation degree map creating step for calculating a separation degree for each pixel of the input image and creating a separation degree map in which each calculated separation degree is associated with each pixel, and the separation degree map creating step. Each separation degree of the obtained separation degree map is compared with a predetermined threshold value to detect a pixel having the separation degree larger than the threshold value, and the separation degree of the detected pixel indicates a local maximum value A feature point candidate detection step for detecting as a red eye candidate, and whether or not the red eye candidate detected by the feature point candidate detection step satisfies a predetermined condition, and satisfies the predetermined condition And a feature point detecting step of detecting a predetermined area including a red eye candidate as a red eye area.

本発明は、分離度マップ作成手段が、所定の形状の内部領域と外部領域とを有する分離度フィルタによって入力画像の中のから内部領域と外部領域とを検出して、内部領域に含まれる入力画像の画像特徴量と外部領域に含まれる入力画像の画像特徴量との分離の度合いを示す分離度を入力画像の画素ごとに算出して、この算出した各分離度と各画素とを対応付けた分離度マップを作成し、特徴点候補検出手段が、分離度マップの各分離度と所定の閾値とを比較して、分離度が閾値よりも大きい画素を検出して、検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出し、特徴点検出手段が、赤目の候補が所定の条件を満たしているか否かを判定して、所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出しているので、入力画像から顔領域を検出した後に赤目を検出することなく正確に赤目を検出することができ、赤目の検出に要する時間を短縮することができる。   According to the present invention, the separability map creating means detects an inner area and an outer area from an input image by a separability filter having an inner area and an outer area having a predetermined shape, and includes an input included in the inner area. The degree of separation indicating the degree of separation between the image feature quantity of the image and the image feature quantity of the input image included in the external area is calculated for each pixel of the input image, and each calculated separation degree is associated with each pixel. The feature point candidate detection means compares each separation degree of the separation degree map with a predetermined threshold value to detect pixels having a separation degree greater than the threshold value, and separates the detected pixels. A pixel whose degree is a local maximum value is detected as a candidate for red eye, and the feature point detection unit determines whether the candidate for red eye satisfies a predetermined condition, and a candidate for red eye that satisfies the predetermined condition A predetermined area including Since it is, and it is possible to accurately detect the red eye without detecting redeye from the input image after detecting the face area, it is possible to shorten the time required for the detection of red-eye.

また、本発明は、瞳位置検出手段が、入力画像の中から人物または動物の瞳を検出して、基準領域決定手段が、検出された瞳を含む基準領域を決定し、パラメータ調整手段が、基準領域に基づいて被写体を撮影するためのパラメータを調整するようにしているため、被写体に人物または動物が含まれている場合には、撮影のためのパラメータを人物または動物に正確にあわせて画像を撮影することができる。   Further, according to the present invention, the pupil position detection unit detects a human or animal pupil from the input image, the reference region determination unit determines a reference region including the detected pupil, and the parameter adjustment unit includes: Since the parameters for shooting the subject are adjusted based on the reference area, if the subject contains a person or an animal, the shooting parameters are accurately matched to the person or animal. Can be taken.

以下に、本発明にかかる画像処理装置、画像処理方法およびデジタルカメラの実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of an image processing apparatus, an image processing method, and a digital camera according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.

(第1の実施形態)
図1〜図4を用いてこの発明における第1の実施形態を説明する。図1は、この発明における第1の実施形態の画像処理装置の構成を示すブロック図である。この発明における第1の実施形態の画像処理装置は、画像入力部101、分離度マップ生成部102、特徴点候補検出部103、特徴点検出部104、画像補正部105および画像出力部106を備えている。
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. The image processing apparatus according to the first embodiment of the present invention includes an image input unit 101, a separability map generation unit 102, a feature point candidate detection unit 103, a feature point detection unit 104, an image correction unit 105, and an image output unit 106. ing.

画像入力部101は、デジタルカメラで撮影された画像を取り込む入力手段である。デジタルカメラで撮影された画像フォーマットは、RBGフォーマットやYUVフォーマットなどさまざまである。画像入力部101は、取り込んだ画像フォーマットがRBGフォーマットとは異なる画像フォーマットである場合には、入力された画像フォーマットをRGBフォーマットに変換する特許請求の範囲でいうところの入力画像変換手段の機能を備えている。   The image input unit 101 is an input unit that captures an image captured by a digital camera. There are various image formats photographed with a digital camera, such as an RBG format and a YUV format. When the captured image format is an image format different from the RBG format, the image input unit 101 converts the input image format into the RGB format, and functions as an input image conversion unit in the scope of claims. I have.

分離度マップ生成部102は、後述する図2に示した分離度フィルタを用いて、赤目補正の対象となる画像の分離度マップを生成する。特徴点候補検出部103は、分離度マップ内の分離度の値と所定の閾値とを比較して、分離度の値が所定の閾値よりも大きい点を検出して、検出した点の中で局所最大値を示す画素を特徴点候補(赤目の候補)として検出する。   The separability map generation unit 102 generates a separability map of an image to be subjected to red-eye correction using a separability filter shown in FIG. 2 described later. The feature point candidate detection unit 103 compares the value of the degree of separation in the degree of separation map with a predetermined threshold value, detects a point where the value of the degree of separation is larger than the predetermined threshold value, and among the detected points A pixel indicating the local maximum value is detected as a feature point candidate (red-eye candidate).

特徴点検出部104は,特徴点候補検出部103によって検出された複数の特徴点候補が所定の条件を満たしているか否かを判定して、所定の条件を満たしている特徴点候補を赤目を示す特徴点として検出する。   The feature point detection unit 104 determines whether or not a plurality of feature point candidates detected by the feature point candidate detection unit 103 satisfy a predetermined condition, and determines the feature point candidates satisfying the predetermined condition as red eyes. It is detected as a feature point.

画像補正部105は、特徴点検出部104によって検出された特徴点付近の領域、すなわち赤目領域に対して赤目補正処理を行う。画像出力部106は、画像補正部105によって赤目補正処理が施された画像をCRT(Cathode-Ray Tube)、液晶ディスプレイなどの一般的な表示機器に出力する。なお、表示機器は、画像補正処理装置内に備えるようにしてもよいし、画像補正処理装置を表示機器に接続して用いるようにしてもよい。   The image correction unit 105 performs red-eye correction processing on a region near the feature point detected by the feature point detection unit 104, that is, a red-eye region. The image output unit 106 outputs the image subjected to the red-eye correction process by the image correction unit 105 to a general display device such as a CRT (Cathode-Ray Tube) or a liquid crystal display. The display device may be provided in the image correction processing device, or the image correction processing device may be connected to the display device for use.

つぎに、この発明における第1の実施形態の画像処理装置の動作を説明する。画像入力部101は、デジタルカメラで撮影された画像を取り込み、取り込んだ画像がRGBフォーマットであるのか否かを判断する。取り込んだ画像がRGBフォーマットとは異なる場合には、取り込んだ画像フォーマットをRGBフォーマットに変換する。画像入力部101は、RGBフォーマットの画像を分離度マップ生成部102に出力する。   Next, the operation of the image processing apparatus according to the first embodiment of the present invention will be described. The image input unit 101 captures an image captured by a digital camera, and determines whether the captured image is in RGB format. If the captured image is different from the RGB format, the captured image format is converted to the RGB format. The image input unit 101 outputs an RGB format image to the separability map generation unit 102.

分離度マップ生成部102は、画像の各画素に対して分離度フィルタの出力値(分離度)を算出して、分離度マップを生成する。分離度フィルタは、図2に示すように、半径rの円の外側の外部領域1と、半径rの円の内側の内部領域2とで構成されている。分離度マップ生成部102は、分離度フィルタの外部領域1と内部領域2との間で、輝度などの画像特徴量がどの程度分離されているかを示す分離度を算出する。具体的には、分離度ηは

Figure 0004148903
によって算出される。なお、分離度フィルタを用いて特徴点を検出する方法は、特許文献2によって公知である。 The separability map generation unit 102 calculates an output value (separation degree) of the separability filter for each pixel of the image and generates a separability map. As shown in FIG. 2, the separability filter includes an outer region 1 outside the circle with the radius r and an inner region 2 inside the circle with the radius r. The separability map generation unit 102 calculates a separability indicating how much image feature quantity such as luminance is separated between the outer region 1 and the inner region 2 of the separability filter. Specifically, the degree of separation η is
Figure 0004148903
Is calculated by A method of detecting feature points using a separability filter is known from Patent Document 2.

通常の特徴点候補検出では、(式2)および(式3)の画像特徴量である輝度Piには白黒画像における輝度を用いる。しかし、本発明の画像処理装置では赤目領域を検出すること、すなわち、周辺と比較して赤い領域が円形状の領域として存在する特徴点を検出する。したがって、分離度マップ生成部102は、(式2)および(式3)の輝度PiにRGBのG値(緑)の輝度を用いる。ここで、図3−1〜図3−5を参照して赤目領域の検出において(式2)および(式3)の輝度PiにG値が適していることを説明する。   In normal feature point candidate detection, the brightness in the black and white image is used as the brightness Pi that is the image feature amount of (Expression 2) and (Expression 3). However, the image processing apparatus of the present invention detects a red-eye area, that is, a feature point where a red area exists as a circular area as compared with the surrounding area. Accordingly, the separability map generation unit 102 uses the luminance of RGB G value (green) as the luminance Pi of (Expression 2) and (Expression 3). Here, with reference to FIGS. 3-1 to 3-5, it will be described that the G value is suitable for the luminance Pi in (Expression 2) and (Expression 3) in the detection of the red-eye region.

図3−1は、赤目を含む目の画像領域を示している。図3−1において、領域Aは赤目を、領域Bは白目を、領域Cは目の周りの肌を示している。ここで、図3−1の各領域A〜CのR値(赤)、G値(緑)、B値(青)の個別の画像に着目する。R値の画像は、一般的に、図3−2に示すように、赤目の領域A、白目の領域B、肌の領域Cの全ての領域の輝度は大きくなる。G値の画像は、一般的に、図3−3に示すように、赤目の領域Aの輝度は小さくなり、白目の領域Bおよび肌の領域Cの輝度は大きくなる。B値の画像は、一般的に、図3−4に示すように、赤目の領域Aおよび肌の領域Cの輝度は小さくなり、白目の領域Bの輝度は大きくなる。すなわち、図3−5に示すように、赤目の領域Aでは、R値の画像の輝度が「大」、G値の画像の輝度が「小」、B値の画像の輝度が「小」となり、白目の領域Bでは、R値の画像の輝度が「大」、G値の画像の輝度が「大」、B値の画像の輝度が「大」となり、肌の領域Cでは、R値の画像の輝度が「大」、G値の画像の輝度が「大」、B値の画像の輝度が「小」となる。赤目の領域Aを検出するためには、白目の領域Bの輝度と肌の領域Cの輝度との和と、赤目の領域Aの輝度の差が大きいことが望ましい。白目の領域Bの輝度と肌の領域Cの輝度との和と、赤目の領域Aの輝度の差は、G値の画像が最も大きくなっているので、G値の輝度を用いることが赤目検出には適している。   FIG. 3A illustrates an image area of the eye including red eyes. In FIG. 3A, a region A shows red eyes, a region B shows white eyes, and a region C shows skin around the eyes. Here, attention is focused on individual images of R value (red), G value (green), and B value (blue) in each of the areas A to C in FIG. As shown in FIG. 3B, the R-value image generally has a high luminance in all areas of the red-eye area A, the white-eye area B, and the skin area C. As shown in FIG. 3C, the G-value image generally has a lower red-eye area A brightness and a white-eye area B and skin area C brightness. In the B-value image, generally, as shown in FIG. 3-4, the luminance of the red-eye region A and the skin region C decreases, and the luminance of the white-eye region B increases. That is, as shown in FIG. 3-5, in the red-eye region A, the luminance of the R value image is “high”, the luminance of the G value image is “small”, and the luminance of the B value image is “small”. In the white-eye region B, the luminance of the R value image is “high”, the luminance of the G value image is “high”, and the luminance of the B value image is “high”. The brightness of the image is “high”, the brightness of the G value image is “high”, and the brightness of the B value image is “small”. In order to detect the red-eye region A, it is desirable that the difference between the luminance of the white-eye region B and the luminance of the skin region C and the luminance of the red-eye region A is large. The difference between the luminance of the white-eye region B and the skin region C and the red-eye region A is the largest in the G-value image. Suitable for.

分離度マップ生成部102は、G値の輝度を用いて(式1)〜(式3)によって算出した分離度から、画像の各画素とその分離度とを対応付けた分離度マップを作成する。分離度マップは、分離度フィルタの半径rを対象とする顔画像あるいは赤目領域の大きさに応じて変更して、想定される複数の半径に対して分離度を算出して作成してもよいし、各半径の分離度マップの値に応じて複数の分離度マップを統合するようにしてもよい。複数の分離度マップを統合す場合には、ある位置における分離度値として、各半径の分離度の値の最大値を利用して、最大値となった分離度フィルタの半径も対応付けておく。   The separability map generation unit 102 creates a separability map in which each pixel of the image is associated with the separability from the separability calculated by (Expression 1) to (Expression 3) using the luminance of the G value. . The separability map may be created by calculating the separability for a plurality of assumed radii by changing the radius r of the separability filter according to the size of the face image or the red-eye area. Then, a plurality of separability maps may be integrated according to the value of the separability map for each radius. When integrating a plurality of separability maps, the separability filter radius that is the maximum value is associated with the separability value at a certain position by using the maximum separability value of each radius. .

特徴点候補検出部103は、分離度マップ内の分離度の値と所定の閾値とを比較して、分離度の値が所定の閾値よりも大きい画素を検出する。図2に示した円形状の分離度フィルタでは、瞳や鼻孔などの円形状の特徴点にフィットするほど分離度は「1.0」に近い値となり、分離度を算出する対象領域の形状が円形から離れるに連れて分離度は低下して「0」に近い値となる。たとえば、図4に示すように、画像内の点線で示した部分の分離度は、瞳を示す領域3にかかる部分で大きくなる。特徴点候補検出部103は、検出した分離度の値が所定の閾値よりも大きい点の中で局所最大値を示す画素を特徴点候補(赤目の候補)として検出する。   The feature point candidate detecting unit 103 compares the value of the degree of separation in the degree of separation map with a predetermined threshold value, and detects a pixel having a value of the degree of separation larger than the predetermined threshold value. In the circular separability filter shown in FIG. 2, the separability becomes a value closer to “1.0” as a circular feature point such as a pupil or nostril is fitted, and the shape of the target region for which the separability is calculated is As the distance from the circle increases, the degree of separation decreases to a value close to “0”. For example, as shown in FIG. 4, the degree of separation of the portion indicated by the dotted line in the image increases at the portion related to the region 3 indicating the pupil. The feature point candidate detection unit 103 detects, as a feature point candidate (red-eye candidate), a pixel that indicates a local maximum value among points where the detected degree of separation is greater than a predetermined threshold.

なお、局所最大値を求める前に、分離度の値に、たとえば、ガウスフィルタなどで平滑化フィルタ処理を行えば、ノイズに対する耐性が高くなり、より精度のよい特徴点候補を検出することができる。   In addition, if the smoothing filter process is performed on the value of the separation degree, for example, using a Gaussian filter before the local maximum value is obtained, resistance to noise is increased, and more accurate feature point candidates can be detected. .

特徴点検出部104は、特徴点候補検出部103によって検出された複数の特徴点候補が、所定の条件を満たしているか否かを判定して、所定の条件を満たしている特徴点候補を赤目を示す特徴点として検出する。   The feature point detection unit 104 determines whether or not a plurality of feature point candidates detected by the feature point candidate detection unit 103 satisfy a predetermined condition, and selects a feature point candidate satisfying the predetermined condition as a red-eye. Are detected as feature points.

所定の条件は、
(1)特徴点である赤目の候補のG値の画像特徴量(この場合は、輝度)が所定の閾値より小さいこと。
(2)特徴点候補である赤目の候補を中心として分離度フィルタの内部領域の各画素のG値の画像特徴量(この場合は、輝度)の平均値が所定の閾値より小さいこと。
(3)特徴点である赤目の候補の色相値が示す赤みが所定の閾値より大きいこと。
(4)特徴点候補である赤目の候補を中心として分離度フィルタの内部領域の色相値が示す赤みの平均値が所定の閾値より大きいこと。
(5)複数の特徴点候補である赤目の候補の中から、右目と左目とを示す組となる配置の特徴点候補が存在すること。
とする。
The predetermined conditions are
(1) The image feature amount (in this case, luminance) of the red eye candidate that is a feature point is smaller than a predetermined threshold value.
(2) The average value of the image feature amount (in this case, luminance) of the G value of each pixel in the inner region of the separability filter centering on the red eye candidate that is the feature point candidate is smaller than a predetermined threshold value.
(3) The redness indicated by the hue value of the candidate red eye that is the feature point is greater than a predetermined threshold.
(4) The average value of redness indicated by the hue value of the inner region of the separability filter centering on the red eye candidate that is the feature point candidate is larger than a predetermined threshold.
(5) There are feature point candidates arranged as a pair indicating the right eye and the left eye from among a plurality of candidate red eye candidates.
And

特徴点検出部104は、上記5つの条件の少なくとも1つを満たす赤目の候補を特徴点として検出する。なお、上記5つの条件は、各値が所定の閾値より大きいか、または小さいかで判断するようにしたが、所定の画像中における相対値によって判断するようにしてもよいし、所定の閾値と相対値とを組み合わせて判断するようにしてもよい。もちろん、最大値または最小値で判断するようにしてもかまわない。   The feature point detection unit 104 detects, as feature points, red-eye candidates that satisfy at least one of the above five conditions. The above five conditions are determined based on whether each value is larger or smaller than a predetermined threshold, but may be determined based on a relative value in a predetermined image. You may make it judge in combination with a relative value. Of course, the determination may be made based on the maximum value or the minimum value.

画像補正部105は、特徴点検出部104によって検出された特徴点付近、すなわち赤目領域に対してたとえば、赤目領域のR値から所定の値を減算して、赤目領域の赤みを減少させるなどの赤目補正処理を行って、赤目補正処理を行った後の画像を画像出力部106に出力する。   The image correcting unit 105 subtracts a predetermined value from the R value of the red eye region, for example, to reduce the redness of the red eye region, for example, near the feature point detected by the feature point detecting unit 104, that is, the red eye region. The red eye correction process is performed, and the image after the red eye correction process is output to the image output unit 106.

画像出力部106は、画像補正部105によって赤目補正処理が施された画像を、表示機器に表示する。   The image output unit 106 displays the image that has been subjected to the red-eye correction process by the image correction unit 105 on a display device.

このようにこの第1の実施形態では、RGBフォーマットにおける画像においては、赤目部分ではR値の輝度が大きくて、かつB値およびG値の輝度が小さくなっていて、赤目部分付近の白目部分ではR値、G値、B値すべての輝度が大きくなっていて、赤目部分付近の肌部分ではR値およびG値の輝度が大きくて、かつB値の輝度が小さくなっていることに着目して、赤目部分と、白目部分および肌部分の輝度の差が最も大きいG値の輝度を用いて入力画像から分離度を算出して、算出した分離度に基づいて赤目を検出し、検出した赤目に対して赤目補正処理を行うようにしている。これにより、入力画像から顔領域を検出した後に赤目を検出することなく正確に赤目を検出することができ、従来技術と比べて対象となる画像から赤目を検出して、検出した赤目を補正する処理に要する時間を短縮することができる。   As described above, in the first embodiment, in the image in the RGB format, the luminance of the R value is large and the luminance of the B value and the G value is small in the red eye portion, and in the white eye portion near the red eye portion. Pay attention to the fact that the brightness of all of the R value, the G value, and the B value is large, the brightness of the R value and the G value is large, and the brightness of the B value is small in the skin part near the red-eye part. The separation degree is calculated from the input image using the luminance of the G value having the largest luminance difference between the red-eye portion and the white-eye portion and the skin portion, and the red-eye is detected based on the calculated separation degree. On the other hand, red-eye correction processing is performed. As a result, it is possible to accurately detect the red eye without detecting the red eye after detecting the face area from the input image, and the detected red eye is corrected by detecting the red eye from the target image as compared with the prior art. The time required for processing can be shortened.

また、赤目補正処理に必要な情報を外部から入力する必要がないため、操作者をわずらわせることなく赤目補正処理を行うことができ、利便性を上げることができる。   Further, since it is not necessary to input information necessary for the red-eye correction process from the outside, the red-eye correction process can be performed without bothering the operator, and convenience can be improved.

なお、この第1の実施の形態では、分離度マップ生成部102が、分離度を算出する(式2)および(式3)の輝度Piに、G値の輝度を用いるようにした。しかし、輝度PiはG値の輝度に限るものではなく、たとえば、R値の輝度、G値の輝度、B値の輝度をすべて用いるようにしてもよいし、任意の組み合わせによる演算を行った値を用いるようにしてもよい。   In the first embodiment, the separability map generation unit 102 uses the luminance of the G value as the luminance Pi of (Equation 2) and (Equation 3) for calculating the separability. However, the brightness Pi is not limited to the brightness of the G value, and for example, all of the brightness of the R value, the brightness of the G value, and the brightness of the B value may be used, or a value obtained by calculation by an arbitrary combination May be used.

また、分離度マップ生成部102が分離度を算出する際に、図2に示した分離度フィルタの外部領域1にはR値の輝度を、内部領域2にはG値の輝度とB値の輝度の和を用いるというように、異なる種類の値を用いるようにしてもよい。   When the separability map generation unit 102 calculates the separability, the outer area 1 of the separability filter shown in FIG. 2 has R-value luminance, and the inner area 2 has G-value luminance and B-value luminance. Different types of values may be used, such as using the luminance sum.

また、この第1の実施形態では、YUVなどのRGBフォーマットとは異なる画像が入力された場合、画像入力部101が入力された画像フォーマットをRGBフォーマットに変換するようにしたが、入力された画像フォーマットをRGBフォーマットに変換することなく、入力された画像フォーマットの値から分離度を算出するようにしてもよい。たとえば、入力された画像フォーマットがYUVフォーマットの場合には、YUVの値をそのまま用いて分離度を算出してもよい。また、入力された画像がJPEGのフォーマットの場合には、入力された画像をデコードした後に処理を行うことが望ましい。   In the first embodiment, when an image different from the RGB format such as YUV is input, the image input unit 101 converts the input image format into the RGB format. The degree of separation may be calculated from the value of the input image format without converting the format to the RGB format. For example, when the input image format is the YUV format, the degree of separation may be calculated using the YUV value as it is. When the input image is in JPEG format, it is desirable to perform processing after decoding the input image.

また、この第1の実施形態の画像処理装置にコンピュータなどに接続する通信インタフェース機能を備えて、コンピュータなどに接続して使用してもよい。この場合、画像入力部101および画像出力部106は、通信インタフェース機能を介して接続されたコンピュータと画像の入出力を行えばよい。また、画像出力部106は、赤目補正処理を施した画像を表示機器に出力するだけでなく、たとえば、CD−ROM、フロッピー(登録商標)ディスク(FD)、DVDなどの記録媒体や、コンピュータ内のメモリなどに赤目補正処理を施した画像を出力するようにしてもよい。もちろん、この第1の実施形態の画像処理装置をデジタルカメラ内に備えるようにしてもかまわない。   In addition, the image processing apparatus according to the first embodiment may be provided with a communication interface function for connecting to a computer or the like so as to be connected to a computer or the like. In this case, the image input unit 101 and the image output unit 106 may perform image input / output with a computer connected via the communication interface function. The image output unit 106 not only outputs an image subjected to red-eye correction processing to a display device, but also, for example, a recording medium such as a CD-ROM, a floppy (registered trademark) disk (FD), a DVD, An image that has been subjected to the red-eye correction process may be output to the memory or the like. Of course, the image processing apparatus according to the first embodiment may be provided in the digital camera.

また、分離度マップ生成部102が生成する分離度マップは、画像入力部101から入力された画像全体を対象としてもよいし、画像処理装置内に、たとえば、キーボードやマウスなどの一般的な入力機器を備え、この入力機器を用いて操作者が、赤目を含む領域を選択するようにして、選択された領域のみを処理対象画像として分離度マップを生成するようにしてもよい。もちろん、コンピュータなどに画像処理装置を接続して用いる場合には、接続されたコンピュータの入力機器を用いて処理対象画像を選択するようにしてもよい。   Further, the separability map generated by the separability map generation unit 102 may target the entire image input from the image input unit 101, or a general input such as a keyboard or a mouse in the image processing apparatus. A device may be provided, and an operator may select a region including red eyes using the input device, and the separability map may be generated using only the selected region as a processing target image. Of course, when an image processing apparatus is connected to a computer or the like, the processing target image may be selected using an input device of the connected computer.

さらに、この発明における第1の実施形態の画像処理装置の画像入力部101、分離度マップ生成部102、特徴点候補検出部103、特徴点検出部104、画像補正部105および画像出力部106によって実現される前述した各機能を、汎用のコンピュータに実行させるための画像処理プログラムとして提供してもよい。この場合、画像処理プログラムは、コンピュータにインストール可能な形式、またはコンピュータが実行可能な形式のファイルでCD−ROM、フロッピー(登録商標)ディスク、DVDなどのコンピュータで読み取り可能な記録媒体に記録して提供する。記録媒体に記録された画像処理プログラムは、記録媒体から読み出されてコンピュータ上で実現される。   Further, the image input unit 101, the separability map generation unit 102, the feature point candidate detection unit 103, the feature point detection unit 104, the image correction unit 105, and the image output unit 106 of the image processing apparatus according to the first embodiment of the present invention. The functions described above may be provided as an image processing program for causing a general-purpose computer to execute the functions. In this case, the image processing program is recorded in a computer-readable recording medium such as a CD-ROM, a floppy (registered trademark) disk, and a DVD in a format that can be installed in a computer or a computer-executable format. provide. The image processing program recorded on the recording medium is read from the recording medium and realized on the computer.

この発明にかかる画像処理プログラムを実行するコンピュータは、少なくとも制御装置と、記憶装置とを備えている。制御装置は、コンピュータ全体を制御するCPUなどの演算処理装置と、ROMとを備えている。記憶装置は、一般的なRAMで構成され、入力された処理対象となる画像や分離度マップ、赤目補正処理が施された画像を記憶する。制御装置は、画像処理プログラムが記録されている記録媒体から画像処理プログラムを読み出して実行することで、分離度マップ生成部102、特徴点候補検出部103、特徴点検出部104、画像補正部105および画像出力部106によって実現される前述した各機能としてコンピュータを動作させる。   A computer that executes an image processing program according to the present invention includes at least a control device and a storage device. The control device includes an arithmetic processing device such as a CPU that controls the entire computer, and a ROM. The storage device includes a general RAM, and stores an input image to be processed, a separability map, and an image subjected to red-eye correction processing. The control device reads out and executes the image processing program from the recording medium on which the image processing program is recorded, whereby the separability map generation unit 102, the feature point candidate detection unit 103, the feature point detection unit 104, and the image correction unit 105. The computer is operated as each of the functions described above realized by the image output unit 106.

また、画像処理プログラムをネットワークに接続されたコンピュータ上に格納し、ネットワークを介してダウンロードさせることにより提供するように構成してもよい。また、画像処理プログラムをネットワークを介して提供または配布するように構成してもよい。   Alternatively, the image processing program may be stored on a computer connected to a network and provided by being downloaded via the network. Further, the image processing program may be provided or distributed via a network.

(第2の実施形態)
図5〜図7を用いてこの発明における実施の形態2を説明する。図5は、この発明における第2の実施形態のデジタルカメラの構成の一例を示すブロック図である。この発明における第2の実施形態のデジタルカメラは、シャッター509、レンズ501(特許請求の範囲でいうところの光学系)、CCD510、画像入力部508、記憶部505、表示部504、瞳位置決定部507、AF領域決定部506(特許請求の範囲でいうところの基準領域決定手段)、焦点制御部503(特許請求の範囲でいうところのパラメータ調整手段)およびモータ502を備えている。
(Second Embodiment)
A second embodiment of the present invention will be described with reference to FIGS. FIG. 5 is a block diagram showing an example of the configuration of a digital camera according to the second embodiment of the present invention. A digital camera according to the second embodiment of the present invention includes a shutter 509, a lens 501 (an optical system in the claims), a CCD 510, an image input unit 508, a storage unit 505, a display unit 504, and a pupil position determination unit. 507, an AF area determination unit 506 (reference area determination unit in the claims), a focus control unit 503 (parameter adjustment unit in the claims), and a motor 502.

シャッター509は、レンズ501から入力された光をCCD510がデジタルデータに変換した被写体の画像を画像入力部508に取り込ませるための手段として使用される。シャッター509は、たとえば、2段階の押しボタンで構成され、操作者によって、1段階まで押されると、レンズ501の焦点を調整する指示である焦点調整指示を、2段階まで押されると、被写体の画像を記憶する指示である撮影指示を画像入力部508に出力する。   The shutter 509 is used as a means for causing the image input unit 508 to capture an image of a subject obtained by converting the light input from the lens 501 into digital data by the CCD 510. The shutter 509 is composed of, for example, a two-stage push button, and when the operator presses the focus adjustment instruction, which is an instruction to adjust the focus of the lens 501, when the button is pressed to the first stage, A shooting instruction that is an instruction to store an image is output to the image input unit 508.

焦点調整指示が入力されると、画像入力部508は、CCD510から入力される画像を取り込んで、取り込んだ画像を表示部504と瞳位置決定部507内の分離度マップ生成部517とに出力する。撮影指示が入力されると、画像入力部508は、CCD510から入力される画像を取り込んで記憶部505に記憶させる。   When the focus adjustment instruction is input, the image input unit 508 captures the image input from the CCD 510 and outputs the captured image to the display unit 504 and the separation degree map generation unit 517 in the pupil position determination unit 507. . When a shooting instruction is input, the image input unit 508 captures an image input from the CCD 510 and stores it in the storage unit 505.

表示部504は、たとえば、液晶ディスプレイなどで構成され、画像入力部508から入力された画像、または記憶部505に記憶されている画像を表示する。   The display unit 504 is configured with a liquid crystal display, for example, and displays an image input from the image input unit 508 or an image stored in the storage unit 505.

瞳位置決定部507は、画像入力部508から入力された画像内に人物または動物の瞳が存在するか否かを検出して、瞳が存在する場合には、検出した瞳の位置情報をAF領域決定部506に出力する。画像内に瞳が存在しない場合には、瞳位置決定部507は、たとえば、画像内の位置情報としてありえない値を位置情報とするなどで、瞳が存在しないことをAF領域決定部506に通知する。   The pupil position determination unit 507 detects whether or not a human or animal pupil is present in the image input from the image input unit 508. If a pupil is present, the pupil position determination unit 507 outputs the detected pupil position information as AF. The data is output to the area determination unit 506. When there is no pupil in the image, the pupil position determination unit 507 notifies the AF area determination unit 506 that there is no pupil, for example, by using a value that is impossible as position information in the image as position information. .

瞳位置決定部507は、分離度マップ生成部517と、特徴点候補検出部527と、焦点制御部503とを備えている。   The pupil position determination unit 507 includes a separability map generation unit 517, a feature point candidate detection unit 527, and a focus control unit 503.

分離度マップ生成部517は、画像に対して分離度フィルタの出力値(分離度)を算出して、分離度マップを生成する。分離度マップを生成するための分離度フィルタについては、第1の実施形態で説明したものと同様となるのでここではその説明を省略する。分離度マップ生成部517は、(式1)〜(式3)によって分離度を算出するが、ここでは、瞳を検出するために分離度マップを生成するので、(式2)および(式3)の輝度Piには白黒画像における輝度を用いる。   The separability map generation unit 517 calculates an output value (separability) of the separability filter for the image, and generates a separability map. Since the separability filter for generating the separability map is the same as that described in the first embodiment, the description thereof is omitted here. The separability map generation unit 517 calculates the separability by (Equation 1) to (Equation 3), but here, since the separability map is generated in order to detect the pupil, (Equation 2) and (Equation 3) The brightness Pi of the monochrome image is used as the brightness Pi.

特徴点候補検出部527は、分離度マップ内の分離度の値と所定の閾値とを比較して、分離度の値が所定の閾値よりも大きい画素を検出して、検出した画素の中で局所最大値を示す画素を特徴点候補として検出する。   The feature point candidate detection unit 527 compares the value of the degree of separation in the degree of separation map with a predetermined threshold value, detects a pixel having a value of the degree of separation larger than the predetermined threshold value, and detects among the detected pixels. A pixel indicating the local maximum value is detected as a feature point candidate.

特徴点検出部537は、特徴点候補検出部527によって検出された複数の特徴点候補に対して、パターン照合処理を行って類似度を算出して、算出した類似度の値や各特徴点候補の位置、分離度フィルタの半径などの情報を統合して、瞳の位置を検出する。そして、検出した瞳の位置情報をAF領域決定部506に出力する。   The feature point detection unit 537 performs pattern matching processing on the plurality of feature point candidates detected by the feature point candidate detection unit 527 to calculate the similarity, and calculates the similarity value and each feature point candidate. The position of the pupil and the radius filter radius are integrated to detect the pupil position. Then, the detected pupil position information is output to the AF area determination unit 506.

AF領域決定部506は、瞳位置決定部507から入力される位置情報に基づいて、レンズ501の焦点を調整するためのAF領域を決定する。焦点制御部503は、AF領域決定部506によって決定されたAF領域にレンズ501の焦点を調整するモータ502を駆動してレンズ501を制御する。   The AF area determination unit 506 determines an AF area for adjusting the focus of the lens 501 based on the position information input from the pupil position determination unit 507. The focus control unit 503 controls the lens 501 by driving a motor 502 that adjusts the focus of the lens 501 in the AF area determined by the AF area determination unit 506.

つぎに、図6のフローチャートを参照して、この発明における第2の実施形態のデジタルカメラの動作を説明する。なお、分離度マップ生成部517が分離度マップを生成して、特徴点候補検出部527が分離度マップを用いて特徴点候補(ここでは、瞳領域の候補)を検出する動作は、第1の実施形態と同様のものとなるので、ここではその詳細な説明は省略する。   Next, the operation of the digital camera according to the second embodiment of the present invention will be described with reference to the flowchart of FIG. The operation in which the separability map generation unit 517 generates a separability map and the feature point candidate detection unit 527 detects feature point candidates (here, pupil area candidates) using the separability map is the first operation. Therefore, detailed description thereof is omitted here.

シャッター509から焦点調節指示が入力されると、画像入力部508は、CCD510から入力される画像を取り込んで、取り込んだ画像を表示部504と分離度マップ生成部517とに出力する(ステップS100,S110)。表示部504は、画像入力部508から入力された画像を表示する。   When a focus adjustment instruction is input from the shutter 509, the image input unit 508 captures an image input from the CCD 510, and outputs the captured image to the display unit 504 and the separation degree map generation unit 517 (step S100, S110). The display unit 504 displays the image input from the image input unit 508.

分離度マップ生成部517は、画像入力部508から入力された画像の白黒画像の輝度を用いて、(式1)〜(式3)によって分離度を算出して、分離度マップを生成する(ステップS120)。   The separability map generation unit 517 calculates the separability by (Equation 1) to (Equation 3) using the luminance of the black and white image of the image input from the image input unit 508, and generates the separability map ( Step S120).

特徴点候補検出部527は、分離度マップ内の分離度の値と所定の閾値とを比較して、分離度の値が所定の閾値よりも大きい画素を検出する。特徴点候補検出部527は、検出した分離度の値が所定の閾値よりも大きい値の中で局所最大値を示す画素を特徴点候補として検出する(ステップS130)。   The feature point candidate detection unit 527 compares the value of the degree of separation in the degree-of-separation map with a predetermined threshold value, and detects a pixel having a value of the degree of separation larger than the predetermined threshold value. The feature point candidate detection unit 527 detects, as a feature point candidate, a pixel indicating a local maximum value among the detected values of the degree of separation larger than a predetermined threshold value (step S130).

特徴点検出部537は、特徴点候補検出部527によって検出された複数の特徴点候補に対して、パターン照合処理を行って特徴点である瞳を検出して、検出した瞳の位置情報をAF領域決定部506に出力する(ステップS140)。具体的には、特徴点検出部537は、特徴点候補検出部527が検出した複数の特徴点候補の付近において、分離度フィルタの半径に応じた局所正規化画像を取得する。そして、取得した局所正規化画像と辞書との類似度を部分空間法によって算出する。   The feature point detection unit 537 performs pattern matching processing on a plurality of feature point candidates detected by the feature point candidate detection unit 527 to detect a pupil that is a feature point, and uses the detected pupil position information as AF. It outputs to the area | region determination part 506 (step S140). Specifically, the feature point detection unit 537 acquires a local normalized image according to the radius of the separability filter in the vicinity of the plurality of feature point candidates detected by the feature point candidate detection unit 527. Then, the similarity between the acquired local normalized image and the dictionary is calculated by the subspace method.

なお、類似度を算出するための辞書は、様々な人物や照明条件、顔の向きなどにおける左右の瞳の学習パターンを収集して作成される第1の辞書と、特徴点候補の中で第1の辞書との類似度が所定の閾値より高い、目尻や目頭、眉端などの誤りパターンを選別収集して作成された第2の辞書とが予め準備されているものとする。   The dictionary for calculating the similarity is the first dictionary created by collecting learning patterns of left and right pupils in various persons, lighting conditions, face orientations, etc., and the first among the feature point candidates. It is assumed that a second dictionary created by selecting and collecting error patterns such as the corners of the eyes, the head of the eyes, and the eyebrows whose similarity to the first dictionary is higher than a predetermined threshold is prepared in advance.

特徴点検出部537は、局所正規化画像と第2の辞書との類似度を、局所正規化画像と第1の辞書との類似度から減算して類似度を算出する。特徴点検出部537は、左瞳および右瞳の類似度の値によって、各特徴点候補を整列して、類似どの値がそれぞれ所定の数、または所定の閾値以上となる特徴点候補を選択する。そして、選択した特徴点候補を用いて左右の瞳の組(セット)を作成する。   The feature point detection unit 537 calculates the similarity by subtracting the similarity between the local normalized image and the second dictionary from the similarity between the local normalized image and the first dictionary. The feature point detection unit 537 aligns the feature point candidates according to the similarity values of the left pupil and the right pupil, and selects feature point candidates whose similarity values are equal to or greater than a predetermined number or a predetermined threshold value, respectively. . Then, a set of left and right pupils is created using the selected feature point candidates.

特徴点検出部537は、セットが、予め想定した顔の大きさや角度から定められた所定の条件を満たしているか否かを判定する。所定の条件を満たしているセットの左瞳と右瞳とから推定される顔領域が、異なるセットとの間でも成り立つか否かを判定する。すなわち、推定された顔領域の瞳位置として成り立つセットが複数あるか否かを判定する。推定された顔領域の瞳の位置として成り立つセットが複数ある場合、特徴点検出部537は、さらに所定の評価値を用いて、瞳の位置として成り立つセットを1つ検出する。評価値は、たとえば、セットの左瞳と右瞳との類似度の和を用いて、より類似度の値が大きいセットを瞳の位置として検出する。特徴点検出部537は、検出した瞳の位置情報をAF領域決定部506に出力する。なお、部分空間法を用いて特徴点検出する方法は、非特許文献1によって公知である。   The feature point detection unit 537 determines whether or not the set satisfies a predetermined condition determined from a face size and an angle assumed in advance. It is determined whether or not the face area estimated from the left and right pupils of a set that satisfies a predetermined condition holds between different sets. That is, it is determined whether or not there are a plurality of sets that hold as estimated pupil positions of the face area. When there are a plurality of sets that are established as the pupil positions of the estimated face area, the feature point detection unit 537 further detects one set that is established as the pupil position using a predetermined evaluation value. As the evaluation value, for example, a set having a higher similarity value is detected as the pupil position by using the sum of the similarities between the left pupil and the right pupil of the set. The feature point detection unit 537 outputs the detected pupil position information to the AF area determination unit 506. A method for detecting feature points using the subspace method is known from Non-Patent Document 1.

特徴点検出部537は、上述したパターン処理によって特徴点である瞳の位置を検出できなかった(被写体に人物や動物が含まれていない)場合には、たとえば、画像内の位置情報としてありえない値を位置情報とするなどで、瞳が存在しないことをAF領域決定部506に通知する。   For example, if the feature point detection unit 537 cannot detect the position of the pupil, which is a feature point, by the pattern processing described above (the subject does not include a person or an animal), for example, a value that is not possible as position information in the image The position information is used to notify the AF area determination unit 506 that there is no pupil.

AF領域決定部506は、特徴点検出部537によって瞳が検出されたか否かを判定する(ステップS160)。特徴点検出部537から瞳の位置情報が入力された場合、AF領域決定部506は、瞳の位置情報に基づいて、両瞳が含む領域をレンズ501の焦点を調整するためのAF領域を決定する(ステップS170)。たとえば、図7に示すような画像701が画像入力部508によって取り込まれたとすると、AF領域決定部506には、特徴点検出部537から人物702の左右の瞳703を示す位置情報が入力される。AF領域決定部506は、左右の瞳703を含む矩形領域をAF領域704に決定する。そして、決定したAF領域の位置情報を焦点制御部503に出力する。   The AF area determination unit 506 determines whether or not a pupil is detected by the feature point detection unit 537 (step S160). When pupil position information is input from the feature point detection unit 537, the AF region determination unit 506 determines an AF region for adjusting the focal point of the lens 501 based on the pupil position information. (Step S170). For example, if an image 701 as shown in FIG. 7 is captured by the image input unit 508, position information indicating the left and right pupils 703 of the person 702 is input from the feature point detection unit 537 to the AF area determination unit 506. . The AF area determination unit 506 determines a rectangular area including the left and right pupils 703 as the AF area 704. Then, the determined AF area position information is output to the focus control unit 503.

AF領域決定部506は、瞳が検出されなかった場合には、予め定められた所定の領域をAF領域に決定する(ステップS180)。そして、決定したAF領域を焦点制御部503に出力する。   When no pupil is detected, the AF area determination unit 506 determines a predetermined area as an AF area (step S180). Then, the determined AF area is output to the focus control unit 503.

焦点制御部503は、AF領域決定部506によって決定されたAF領域にレンズ501の焦点を調整するにモータ502を駆動してレンズ501の焦点制御処理を行う(ステップS190)。焦点制御には、たとえば、レンズ501を段階的に動かして、AF領域における画像のコントラストが最も高くなるところに焦点を合わせるTTLコントラスト検出方式などを用いる。もちろん、AF領域を対象として焦点制御を行う方式であれば、TTLコントラスト検出方式とは異なる方式を用いてもかまわない。   The focus control unit 503 performs the focus control process of the lens 501 by driving the motor 502 to adjust the focus of the lens 501 to the AF area determined by the AF area determination unit 506 (step S190). For focus control, for example, a TTL contrast detection method is used in which the lens 501 is moved stepwise to focus the image at the highest contrast in the AF area. Of course, a method different from the TTL contrast detection method may be used as long as focus control is performed on the AF area.

画像入力部508は、焦点制御処理が終了した後の画像を取り込んで、取り込んだ画像を表示部504に表示する(ステップS200)。そして、シャッター509から撮影指示が入力されると、画像入力部508はCCD510から入力される画像を取り込んで記憶部505に記憶させて、画像を保存する(ステップS210)。   The image input unit 508 captures the image after the focus control process is completed, and displays the captured image on the display unit 504 (step S200). When a shooting instruction is input from the shutter 509, the image input unit 508 captures an image input from the CCD 510, stores it in the storage unit 505, and saves the image (step S210).

このようにこの第2の実施形態では、人物または動物の瞳を検出して、検出した瞳を含む領域をAF領域として焦点制御を行うようにしているため、撮影する被写体の中に人物または動物が存在する場合には、正確に焦点制御を行って画像を撮影することができる。   As described above, in the second embodiment, since the pupil of a person or animal is detected and focus control is performed using the area including the detected pupil as the AF area, the person or animal is included in the subject to be photographed. Can be taken with accurate focus control.

なお、この第2の実施形態では、シャッター509が1段階押された時に焦点調整指示を、シャッター509が2段階押された時に撮影指示を画像入力部508に出力するようにしたが、焦点調整指示を出力するタイミングはこれに限るものではない。たとえば、デジタルカメラが撮影可能な状態、すなわち、入力された画像が表示部504に表示されている間は繰り返し焦点制御処理を行うような場合には、デジタルカメラ内の計時機能によって所定の間隔で焦点調整指示を発生させるようにしてもよい。   In the second embodiment, the focus adjustment instruction is output to the image input unit 508 when the shutter 509 is pressed in one step, and the shooting instruction is output to the image input unit 508 when the shutter 509 is pressed in two steps. The timing for outputting the instruction is not limited to this. For example, in a state where the digital camera can shoot, that is, when the focus control process is repeatedly performed while the input image is displayed on the display unit 504, the time counting function in the digital camera is used at predetermined intervals. A focus adjustment instruction may be generated.

また、この第2の実施形態では、レンズ501からの光をデジタルデータに変換するための画像素子としてCCD510を用いる例を挙げて説明したが、たとえば、CMOSセンサーなどの画像素子を用いてもよい。   In the second embodiment, the example in which the CCD 510 is used as an image element for converting the light from the lens 501 into digital data has been described. However, for example, an image element such as a CMOS sensor may be used. .

また、この第2の実施形態では、AF領域決定部506は左右の瞳が含まれる矩形領域をAF領域に決定するようにしたが、これに限るものではなく、片方の瞳だけが含まれる領域をAF領域としてもよいし、AF領域の形状は矩形でなくてもかまわない。   In the second embodiment, the AF area determination unit 506 determines the rectangular area including the left and right pupils as the AF area. However, the present invention is not limited to this, and the area includes only one of the pupils. May be used as the AF region, and the shape of the AF region may not be rectangular.

また、画像の中に二人以上の人物の瞳が検出された場合には、特徴点検出部537は、推定される人物の顔の大きさを比較して、比較した結果、推定される顔の大きさが大きい方がデジタルカメラからの距離が近いと判断して、推定される顔の大きさが大きいほうの瞳の位置情報をAF領域決定部506に出力するようにしてもよいし、検出された瞳の位置を表示部504に重畳して表示して操作者に選択させるようにしてもよい。   Further, when two or more human eyes are detected in the image, the feature point detection unit 537 compares the estimated face sizes of the persons, and as a result of the comparison, the estimated face is detected. It is possible to determine that the larger the size is, the closer the distance from the digital camera is, and to output the position information of the pupil whose estimated face size is larger to the AF area determination unit 506, The detected pupil position may be superimposed on the display unit 504 and displayed by the operator.

一般的には、デジタルカメラにはデジタルカメラを制御するCPUが搭載されていることが多い。この第2の実施形態の分離度マップ生成部517、特徴点候補検出部527、特徴点検出部537およびAF領域決定部506によって実現される前述した各機能をソフトウエアによって実現して、デジタルカメラ内のCPUに実行させるようにしてもよい。   In general, a digital camera often has a CPU for controlling the digital camera. The above-described functions realized by the separability map generation unit 517, the feature point candidate detection unit 527, the feature point detection unit 537, and the AF area determination unit 506 according to the second embodiment are realized by software, and the digital camera The CPU may be executed by the CPU.

以上のように、本発明にかかる画像処理装置、画像処理方法およびデジタルカメラは、フラッシュを内蔵したデジタルカメラの画像処理に有用であり、特に、フラッシュを用いて撮影した際に発生する赤目現象を補正する赤目補正処理に適している。   As described above, the image processing apparatus, the image processing method, and the digital camera according to the present invention are useful for image processing of a digital camera with a built-in flash, and in particular, a red-eye phenomenon that occurs when shooting using a flash. Suitable for red-eye correction processing.

この発明における第1の実施形態の画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 分離度フィルタを説明するための図である。It is a figure for demonstrating a separability filter. 分離度を算出する際に用いる適切な輝度を説明するための図である。It is a figure for demonstrating the suitable brightness | luminance used when calculating a separation degree. 分離度を算出する際に用いる適切な輝度を説明するための図である。It is a figure for demonstrating the suitable brightness | luminance used when calculating a separation degree. 分離度を算出する際に用いる適切な輝度を説明するための図である。It is a figure for demonstrating the suitable brightness | luminance used when calculating a separation degree. 分離度を算出する際に用いる適切な輝度を説明するための図である。It is a figure for demonstrating the suitable brightness | luminance used when calculating a separation degree. 分離度を算出する際に用いる適切な輝度を説明するための図である。It is a figure for demonstrating the suitable brightness | luminance used when calculating a separation degree. 特徴点候補の決定方法を説明するための図である。It is a figure for demonstrating the determination method of a feature point candidate. この発明における第2の実施形態のデジタルカメラの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the digital camera of 2nd Embodiment in this invention. この発明における第2の実施形態のデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera of 2nd Embodiment in this invention. AF領域の決定方法を説明するための図である。It is a figure for demonstrating the determination method of AF area | region.

符号の説明Explanation of symbols

101,508 画像入力部
102,517 分離度マップ生成部
103,527 特徴点候補検出部
104,537 特徴点検出部
105 画像補正部
106 画像出力部
501 レンズ
502 モータ
503 焦点制御部
504 表示部
505 記憶部
506 AF領域決定部
507 瞳位置決定部
509 シャッター
510 CCD
101,508 Image input unit 102,517 Separation map generation unit 103,527 Feature point candidate detection unit 104,537 Feature point detection unit 105 Image correction unit 106 Image output unit 501 Lens 502 Motor 503 Focus control unit 504 Display unit 505 Storage 506 AF area determination unit 507 Pupil position determination unit 509 Shutter 510 CCD

Claims (10)

入力画像の中から赤目領域を検出して、この検出した赤目領域を補正する画像処理装置において、
前記入力画像の画素ごとに、所定の形状の内部領域と外部領域とを有する分離度フィルタによって、前記入力画像のうち、前記内部領域に含まれる領域と、前記外部領域に含まれる領域とのRGB色空間のG値の輝度の分離の度合いを示す分離度を算出して、この算出した各分離度と前記各画素とを対応付けた分離度マップを作成する分離度マップ作成手段と、
この分離度マップ作成手段によって作成された分離度マップの各分離度と所定の閾値とを比較して、
前記分離度が前記閾値よりも大きい画素を検出して、
この検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出する特徴点候補検出手段と、
この特徴点候補検出手段によって検出された前記赤目の候補が所定の条件を満たしているか否かを判定して、
前記所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出する特徴点検出手段と、
を備えることを特徴とする画像処理装置。
In an image processing apparatus that detects a red-eye area from an input image and corrects the detected red-eye area,
For each pixel of the input image, RGB of the region included in the internal region and the region included in the external region of the input image is determined by a separability filter having an internal region and an external region having a predetermined shape. A degree-of- separation map creating means for calculating a degree of separation indicating the degree of separation of the luminance of the G value in the color space, and creating a degree-of-separation map in which each calculated degree of separation is associated with each pixel;
Compare each separation degree of the separation degree map created by this separation degree map creating means with a predetermined threshold value,
Detecting pixels with a degree of separation greater than the threshold;
A feature point candidate detecting means for detecting, as a red-eye candidate, a pixel whose separation degree of the detected pixel indicates a local maximum value;
It is determined whether or not the red eye candidate detected by the feature point candidate detecting means satisfies a predetermined condition,
Feature point detecting means for detecting a predetermined region including a candidate for red eye that satisfies the predetermined condition as a red eye region;
An image processing apparatus comprising:
前記特徴点検出手段によって赤目領域として検出された領域に対して赤目補正処理を行う画像補正手段、
をさらに備えたことを特徴とする請求項1に記載の画像処理装置。
Image correction means for performing red-eye correction processing on the area detected as the red-eye area by the feature point detection means;
The image processing apparatus according to claim 1, further comprising:
前記分離度フィルタは円形状の外部領域と内部領域とを有し、
前記特徴点検出手段が前記赤目領域を検出する所定の条件を、
前記赤目の候補のG値の輝度が所定の閾値より小さいこととすることを特徴とする請求項に記載の画像処理装置。
The separability filter has a circular outer region and an inner region,
A predetermined condition for the feature point detection means to detect the red-eye region,
The image processing apparatus according to claim 1 , wherein the red-eye candidate G value has a luminance smaller than a predetermined threshold.
前記分離度フィルタは円形状の外部領域と内部領域とを有し、
前記特徴点検出手段が前記赤目領域を検出する所定の条件を、
前記赤目の候補を中心として前記分離度フィルタの内部領域に含まれる各画素のG値の輝度の平均値が所定の閾値より小さいこととすることを特徴とする請求項に記載の画像処理装置。
The separability filter has a circular outer region and an inner region,
A predetermined condition for the feature point detection means to detect the red-eye region,
The image processing apparatus according to claim 1 , wherein an average value of luminances of G values of pixels included in an inner region of the separability filter centering on the red eye candidate is smaller than a predetermined threshold value. .
前記分離度フィルタは円形状の外部領域と内部領域とを有し、 前記特徴点検出手段が前記赤目領域を検出する所定の条件を、 前記赤目の候補の色相値が示す赤みが所定の閾値より大きいこととすることを特徴とする請求項に記載の画像処理装置。
The separability filter has a circular outer region and an inner region, and the feature point detection unit detects a predetermined condition for detecting the red eye region, and the redness indicated by the hue value of the red eye candidate is greater than a predetermined threshold value. The image processing apparatus according to claim 1 , wherein the image processing apparatus is large.
前記分離度フィルタは円形状の外部領域と内部領域とを有し、 前記特徴点検出手段が前記赤目領域を検出する所定の条件を、 前記赤目の候補を中心として前記分離度フィルタの内部領域に含まれる各画素の色相値が示す赤みの平均値が所定の閾値より大きいこととすることを特徴とする請求項に記載の画像処理装置。
The separability filter has a circular outer region and an inner region, and a predetermined condition for the feature point detection means to detect the red eye region is set to the inner region of the separability filter centering on the red eye candidate. The image processing apparatus according to claim 1 , wherein an average value of redness indicated by a hue value of each pixel included is greater than a predetermined threshold value.
前記分離度フィルタは円形状の外部領域と内部領域とを有し、
前記特徴点検出手段が前記赤目領域を検出する所定の条件を、
前記特徴点候補検出手段によって検出された赤目の候補の中から、右目と左目とを示す組となる配置の赤目の候補を検出こととすることを特徴とする請求項に記載の画像処理装置。
The separability filter has a circular outer region and an inner region,
A predetermined condition for the feature point detection means to detect the red-eye region,
The image processing apparatus according to claim 1 , wherein a candidate for red eye arranged in a pair indicating a right eye and a left eye is detected from the red eye candidates detected by the feature point candidate detection unit. .
入力画像をRGBフォーマットに変換する入力画像変換手段を、An input image conversion means for converting the input image into the RGB format,
さらに有することを特徴とする請求項1〜7の何れか記載の画像処理装置。The image processing apparatus according to claim 1, further comprising:
入力画像の中から赤目領域を検出して、この検出した赤目領域を補正する画像処理方法において、
前記入力画像の画素ごとに、所定の形状の内部領域と外部領域とを有する分離度フィルタによって、前記入力画像のうち、前記内部領域に含まれる領域と、前記外部領域に含まれる領域とのRGB色空間のG値の輝度の分離の度合いを示す分離度を算出して、この算出した各分離度と前記各画素とを対応付けた分離度マップを作成する分離度マップ作成ステップと、
この分離度マップ作成ステップによって作成された分離度マップの各分離度と所定の閾値とを比較して、前記分離度が前記閾値よりも大きい画素を検出して、この検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出する特徴点候補検出ステップと、
この特徴点候補検出ステップによって検出された前記赤目の候補が所定の条件を満たしているか否かを判定して、前記所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出する特徴点検出ステップと、
を備えることを特徴とする画像処理方法。
In an image processing method for detecting a red-eye area from an input image and correcting the detected red-eye area,
For each pixel of the input image, RGB of the region included in the internal region and the region included in the external region of the input image is determined by a separability filter having an internal region and an external region having a predetermined shape. A separation degree map creating step for calculating a separation degree indicating a degree of separation of the luminance of the G value in the color space, and creating a separation degree map in which the calculated separation degrees and the respective pixels are associated;
Each separation degree of the separation degree map created by the separation degree map creation step is compared with a predetermined threshold value, and a pixel having the separation degree larger than the threshold value is detected, and the separation degree of the detected pixel is A feature point candidate detection step of detecting a pixel indicating a local maximum value as a candidate for red eye;
It is determined whether or not the red eye candidate detected by the feature point candidate detection step satisfies a predetermined condition, and a predetermined area including the red eye candidate satisfying the predetermined condition is detected as a red eye area. A feature point detecting step,
An image processing method comprising:
請求項1〜9の何れか一つに記載の画像処理装置が搭載されたことを特徴とするデジタルカメラ。 A digital camera comprising the image processing apparatus according to claim 1.
JP2004001007A 2004-01-06 2004-01-06 Image processing apparatus, image processing method, and digital camera Expired - Fee Related JP4148903B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004001007A JP4148903B2 (en) 2004-01-06 2004-01-06 Image processing apparatus, image processing method, and digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004001007A JP4148903B2 (en) 2004-01-06 2004-01-06 Image processing apparatus, image processing method, and digital camera

Publications (2)

Publication Number Publication Date
JP2005196385A JP2005196385A (en) 2005-07-21
JP4148903B2 true JP4148903B2 (en) 2008-09-10

Family

ID=34816651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004001007A Expired - Fee Related JP4148903B2 (en) 2004-01-06 2004-01-06 Image processing apparatus, image processing method, and digital camera

Country Status (1)

Country Link
JP (1) JP4148903B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
IL183385A0 (en) * 2007-05-24 2007-09-20 Yosef Cohen Security systems and methods
JP2010020594A (en) * 2008-07-11 2010-01-28 Kddi Corp Pupil image recognition device
JP5026398B2 (en) * 2008-11-27 2012-09-12 本田技研工業株式会社 Vehicle periphery monitoring device
US8295593B2 (en) 2009-01-07 2012-10-23 Seiko Epson Corporation Method of detecting red-eye objects in digital images using color, structural, and geometric characteristics
JP4580029B2 (en) * 2009-10-02 2010-11-10 キヤノン株式会社 Image processing apparatus and method
JP4850961B2 (en) * 2010-07-09 2012-01-11 キヤノン株式会社 Image processing apparatus and method
JP5884759B2 (en) * 2013-03-22 2016-03-15 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
WO2016158719A1 (en) * 2015-03-31 2016-10-06 株式会社Screenホールディングス Image processing method, control program, and image processing device
JP6508259B2 (en) * 2017-06-08 2019-05-08 株式会社ニコン Imaging device and program
US20190370942A1 (en) * 2018-06-01 2019-12-05 Apple Inc. Red-eye correction techniques
JP7342883B2 (en) * 2018-12-21 2023-09-12 ソニーグループ株式会社 Imaging control device, imaging device, imaging control method

Also Published As

Publication number Publication date
JP2005196385A (en) 2005-07-21

Similar Documents

Publication Publication Date Title
JP4709147B2 (en) System and method for removing red eye phenomenon from digital images
US9767539B2 (en) Image capture device with contemporaneous image correction mechanism
JP5140163B2 (en) Method and apparatus for gaze measurement
JP4078334B2 (en) Image processing apparatus and image processing method
US8055067B2 (en) Color segmentation
JP4196714B2 (en) Digital camera
US8682097B2 (en) Digital image enhancement with reference images
US8446494B2 (en) Automatic redeye detection based on redeye and facial metric values
JP2007097178A (en) Method for removing "red-eyes" by face detection
JPH09322192A (en) Detection and correction device for pink-eye effect
JP2003036438A (en) Program for specifying red-eye in image, recording medium, image processor and method for specifying red- eye
KR20100030596A (en) Image capturing apparatus, method of determining presence or absence of image area, and recording medium
JP2005092759A (en) Image processing device and method, red-eye detection method, and program
JP2008226194A (en) Pupil color correction device and program
JP4148903B2 (en) Image processing apparatus, image processing method, and digital camera
JP4537143B2 (en) Image processing apparatus and method, imaging apparatus, and program
JP2009123081A (en) Face detection method and photographing apparatus
JP2005149370A (en) Imaging device, personal authentication device and imaging method
JP2007094535A (en) Authentication system and authentication method
JP2007312206A (en) Imaging apparatus and image reproducing apparatus
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2006074498A (en) Image processor and imaging apparatus
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program
JP2005202841A (en) Image processing method and apparatus
JP2007249525A (en) Imaging device, and face area extraction method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080620

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080624

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees