JP2012157057A - Image processing apparatus and method, and imaging apparatus - Google Patents

Image processing apparatus and method, and imaging apparatus Download PDF

Info

Publication number
JP2012157057A
JP2012157057A JP2012088769A JP2012088769A JP2012157057A JP 2012157057 A JP2012157057 A JP 2012157057A JP 2012088769 A JP2012088769 A JP 2012088769A JP 2012088769 A JP2012088769 A JP 2012088769A JP 2012157057 A JP2012157057 A JP 2012157057A
Authority
JP
Japan
Prior art keywords
image
white balance
balance correction
area
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012088769A
Other languages
Japanese (ja)
Other versions
JP5237480B2 (en
Inventor
Masahiro Takayama
将浩 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012088769A priority Critical patent/JP5237480B2/en
Publication of JP2012157057A publication Critical patent/JP2012157057A/en
Application granted granted Critical
Publication of JP5237480B2 publication Critical patent/JP5237480B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform more stable white balance correction according to a face detection result.SOLUTION: An image processing apparatus for processing an image signal of an image comprises: first calculation means (103) that calculates a first white balance correction value by detecting white pixels from the image; face detection means (114) that detects a face area; determination means (103) that, when white balance correction is performed on an image signal of the face area based on the first white balance correction value, determines whether or not it is in a second color signal area around a first color signal area indicating a flesh color; second calculation means (103) that, when it is in the second color signal area, calculates a second white balance correction value for correcting the image signal so that it moves toward a direction of the first color signal area based on a relationship between the corrected image signal of the face area and the first color signal area, and when it is not in the second color signal area, does not calculate the second white balance correction value; and white balance correction means (103).

Description

本発明は画像処理装置及び方法、及び撮像装置に関し、更に詳しくは、顔検出結果を用いて画像処理を行う画像処理装置及び方法、及び撮像装置に関する。   The present invention relates to an image processing apparatus and method, and an imaging apparatus, and more particularly to an image processing apparatus and method and an imaging apparatus that perform image processing using a face detection result.

デジタルカメラ等に用いられている従来のホワイトバランスゲイン算出回路の動作を説明する。まず図8に示すように、予め画面を、複数画素ずつ任意の複数のブロック(m個)に分割する。そして、各ブロック(1〜m)毎に、画素値を各色毎に加算平均して色平均値(R[i]、G[i]、B[i])を算出する。そして、例えば以下の式(1)を用いて色評価値(Cx[i]、Cy[i])を算出する。
Cx[i] = (R[i] - B[i]) / Y[i] × 1024
Cy[i] = (R[i] + B[i]) - 2G[i]/ Y[i] × 1024 …(1)
ただし、Y[i] = R[i] + 2G[i] + B[i]、[i]は各ブロックのインデックス番号
The operation of a conventional white balance gain calculation circuit used in a digital camera or the like will be described. First, as shown in FIG. 8, the screen is divided in advance into a plurality of arbitrary blocks (m) by a plurality of pixels. Then, for each block (1 to m), pixel values are added and averaged for each color to calculate a color average value (R [i], G [i], B [i]). Then, for example, the color evaluation values (Cx [i], Cy [i]) are calculated using the following formula (1).
Cx [i] = (R [i]-B [i]) / Y [i] x 1024
Cy [i] = (R [i] + B [i])-2G [i] / Y [i] x 1024 (1)
Where Y [i] = R [i] + 2G [i] + B [i], [i] is the index number of each block

そして、予め様々な光源下で白色被写体を撮影し、色評価値を算出する。これにより、予め設定された図9に示すような白検出範囲301に、各ブロック毎に算出された色評価値が含まれる場合、そのブロックは白であると判定する。そして、同様にして白と判定されたブロックの画素値を積分する。白検出範囲301は、予め異なる光源下で白を撮影し、算出した色評価値をプロットしたもので、図9におけるx座標(Cx)の負方向が高色温度被写体の白を撮影したときの色評価値、正方向が低色温度被写体の白を撮影したときの色評価値である。またy座標(Cy)は光源の緑成分の度合いを意味しており、負方向になるにつれG成分が大きくなり、つまり光源が蛍光灯であることを示している。   Then, a white subject is photographed in advance under various light sources, and a color evaluation value is calculated. Thereby, when the color evaluation value calculated for each block is included in the preset white detection range 301 as shown in FIG. 9, it is determined that the block is white. Similarly, the pixel values of the blocks determined to be white are integrated. The white detection range 301 is obtained by photographing white under a different light source in advance and plotting the calculated color evaluation value. When the negative direction of the x coordinate (Cx) in FIG. The color evaluation value is a color evaluation value when the positive direction is a white image of a low color temperature subject. The y coordinate (Cy) means the degree of the green component of the light source, and the G component increases as it goes in the negative direction, that is, the light source is a fluorescent lamp.

そして、積分された画素値(sumR、sumG、sumB)より、以下の式(2)を用いてホワイトバランス係数(WBCo_R、WBCo_G、WBCo_B)を算出する。
WBCo_R = sumY × 1024 / sumR
WBCo_G = sumY × 1024 / sumG …(2)
WBCo_B = sumY × 1024 / sumB
ただし、sumY = (sumR + 2 × sumG + sumB) / 4
Then, white balance coefficients (WBCo_R, WBCo_G, WBCo_B) are calculated from the integrated pixel values (sumR, sumG, sumB) using the following equation (2).
WBCo_R = sumY × 1024 / sumR
WBCo_G = sumY × 1024 / sumG (2)
WBCo_B = sumY × 1024 / sumB
However, sumY = (sumR + 2 × sumG + sumB) / 4

しかし、従来のホワイトバランス係数算出方法では、以下のような問題があった。即ち、太陽光のような光源下において、白の色評価値は図9の領域A付近に分布し、肌色の分布は領域B付近に分布する。太陽光源下における肌色の色評価値は低色光源下における白点の色評価値とほぼ同等の領域に分布する。従って、画角に白色が少なくかつ、図10のように人がアップで撮影された場合、画面の色評価値は図9の領域Bに分布するため、肌色を低色温度下の白色と誤判別し、人の肌を白色に補正してしまうという問題があった。また、人の肌を示す領域付近に分布する有彩色が画角一面にあるときは、その有彩色を白と誤判別して肌を白色に補正してしまう場合もあった。   However, the conventional white balance coefficient calculation method has the following problems. That is, under a light source such as sunlight, the white color evaluation value is distributed in the vicinity of the region A in FIG. 9 and the skin color distribution is distributed in the vicinity of the region B. The skin color evaluation value under the solar light source is distributed in a region substantially equivalent to the white point color evaluation value under the low color light source. Therefore, when the angle of view is small and a person is photographed up as shown in FIG. 10, the color evaluation value of the screen is distributed in the region B of FIG. 9, so the skin color is misunderstood as white under a low color temperature. Another problem is that human skin is corrected to white. Further, when a chromatic color distributed in the vicinity of a region showing human skin is on the entire surface of the field of view, the chromatic color may be misidentified as white and the skin may be corrected to white.

この問題に対する従来の対処法として被写体照度が明るい場合は外光と判断して、白検出範囲を狭めて肌色を白と誤判別しないような工夫を行っていた。   As a conventional countermeasure against this problem, when the subject illuminance is bright, it is determined that the light is outside, and the white detection range is narrowed so that the skin color is not erroneously determined to be white.

しかし、一般の蛍光灯類には、白色が領域C付近となる光源や領域Cより下方にも分布する光源も存在し、そういった光源に対応するためには、白検出範囲を拡大しなければならない。だが、低照度の高色温度蛍光灯や中色温度蛍光灯類での肌色分布は黒体放射軸の下方向(領域C)付近に分布するケースがあり、白検出範囲を拡大することで肌色を白と誤判別してしまい、肌色が褪色するようなケースがあった。   However, in general fluorescent lamps, there are also light sources in which white is near the region C and light sources distributed below the region C. In order to cope with such light sources, the white detection range must be expanded. . However, there are cases where the skin color distribution in low-light high-color temperature fluorescent lamps and medium-color temperature fluorescent lamps is distributed near the downward direction (region C) of the black body radiation axis. Has been mistaken for white, and the skin color has faded.

そこで、特許文献1記載の方法では、顔検出を行い、顔が検出された場合は顔の肌色を抽出し、基準の肌と比較しその結果を基にホワイトバランス補正を行うという提案がなされている。   Therefore, in the method described in Patent Document 1, it has been proposed that face detection is performed, and when a face is detected, the skin color of the face is extracted, compared with the reference skin, and white balance correction is performed based on the result. Yes.

米国特許第6975759号US Pat. No. 6,975,759

しかしながら、上述した従来のホワイトバランス補正値算出方法においては、顔検出回路において顔を誤認識した場合が考慮されていない。そのため顔検出回路において顔ではない領域を顔と誤検出した場合にも、その顔ではない領域を適正な肌色にするように動作するため、結果として所望なホワイトバランス補正値を得ることができないことがあるという欠点があった。   However, in the above-described conventional white balance correction value calculation method, the case where the face is erroneously recognized in the face detection circuit is not taken into consideration. Therefore, even if a non-face area is erroneously detected as a face in the face detection circuit, the non-face area operates so as to have an appropriate skin color, and as a result, a desired white balance correction value cannot be obtained. There was a drawback that there was.

また、処理速度等の撮像装置のパフォーマンスによっては、撮影時に顔検出ができない場合がある。そのような撮像装置において、撮影準備段階で顔が検出されていても、撮影時に被写体の位置がずれてしまうようなケースが生じることがあるが、そのような場合についても考慮されていない。つまり撮影準備時に正しく顔を検出した場合であっても、結果としてホワイトバランス補正精度が低くなることがあるという欠点があった。図11はSW1までに顔検出を行い、SW2(本撮影)直前で被写体の位置がずれた場合を示した例である。SW1直前に得られた顔検出結果を利用することにより、SW2時(本撮影時)に正しい顔色評価値を取得できなくなり、ホワイトバランス補正精度が低くなってしまう。   In addition, depending on the performance of the imaging apparatus such as processing speed, face detection may not be possible during shooting. In such an imaging apparatus, even if a face is detected in the shooting preparation stage, a case may occur in which the position of the subject is shifted during shooting, but such a case is not taken into consideration. That is, even when a face is correctly detected at the time of shooting preparation, there is a drawback that the white balance correction accuracy may be lowered as a result. FIG. 11 shows an example in which face detection is performed before SW1, and the position of the subject is shifted immediately before SW2 (main shooting). By using the face detection result obtained immediately before SW1, it becomes impossible to acquire a correct face color evaluation value at SW2 (main photographing), and the white balance correction accuracy is lowered.

本発明は上記問題点を鑑みてなされたものであり、撮像を行って得られた画像の画像信号を処理する本発明の画像処理装置は、前記画像から白画素の検出を行うことにより第1のホワイトバランス補正値を算出する第1の算出手段と、前記画像から顔領域を検出する顔検出手段と、前記顔検出手段により検出された顔領域の画像信号を前記第1のホワイトバランス補正値に基づきホワイトバランス補正した場合に、補正された顔領域の画像信号が、肌色を表す第1の色信号領域の周辺の第2の色信号領域にあるか否かを判定する判定手段と、前記判定手段により前記第2の色信号領域にあると判定された場合、前記補正された顔領域の画像信号と前記第1の色信号領域との関係に基づき、前記補正された顔領域の画像信号が前記第1の色信号領域の方向に移動するように前記画像の画像信号を補正した第2のホワイトバランス補正値を算出し、前記判定手段により前記第2の色信号領域にないと判定された場合、前記第2のホワイトバランス補正値の算出を行わない第2の算出手段と、前記第1または前記第2のホワイトバランス補正値を用いて、撮像を行って得られた画像の画像信号にホワイトバランス補正を行うホワイトバランス補正手段と、を有する。 The present invention has been made in view of the above problems, and an image processing apparatus according to the present invention that processes an image signal of an image obtained by performing imaging first detects a white pixel from the image. First calculation means for calculating a white balance correction value, a face detection means for detecting a face area from the image, and an image signal of the face area detected by the face detection means as the first white balance correction value. Determining means for determining whether the image signal of the corrected face area is in a second color signal area around the first color signal area representing the skin color when white balance correction is performed based on If the determination means determines that the second color signal area is present, the corrected face area image signal is based on the relationship between the corrected face area image signal and the first color signal area. Is the first color signal Calculating a second white balance correction value obtained by correcting the image signal of the image to move in the direction of the band, when it is determined that not in the second color signal region by the determining means, the second White that performs white balance correction on an image signal of an image obtained by performing imaging using a second calculation unit that does not calculate a white balance correction value and the first or second white balance correction value. And a balance correction unit .

また、撮像を行って得られた画像の画像信号を処理する本発明の画像処理方法は、第1の算出手段が、前記画像から白画素の検出を行うことにより第1のホワイトバランス補正値を算出する第1の算出工程と、顔検出手段が、前記画像から顔領域を検出する顔検出工程と、判定手段が、前記顔検出工程により検出された顔領域の画像信号を前記第1のホワイトバランス補正値に基づきホワイトバランス補正した場合に、補正された顔領域の画像信号が肌色を表す第1の色信号領域の周辺の第2の色信号領域にあるか否かを判定する判定工程と、第2の算出手段が、前記判定工程により前記第2の色信号領域にあると判定された場合、前記補正された顔領域の画像信号と前記第1の色信号領域との関係に基づき、前記補正された顔領域の画像信号が前記第1の色信号領域の方向に移動するように前記画像の画像信号を補正した第2のホワイトバランス補正値を算出し、前記判定手段により前記第2の色信号領域にないと判定された場合、前記第2のホワイトバランス補正値の算出を行わない第2の算出工程と、前記第1または前記第2のホワイトバランス補正値を用いて、撮像を行って得られた画像の画像信号にホワイトバランス補正を行うホワイトバランス補正工程と、を有する In the image processing method of the present invention for processing an image signal of an image obtained by imaging, the first calculation means detects the white pixel from the image, thereby obtaining the first white balance correction value. A first calculating step for calculating; a face detecting step for detecting a face region from the image by a face detecting unit; and a determining unit for outputting an image signal of the face region detected by the face detecting step to the first white A determination step of determining whether or not the image signal of the corrected face area is in the second color signal area around the first color signal area representing the skin color when white balance correction is performed based on the balance correction value; When the second calculating means determines that the second color signal area is in the second color signal area by the determination step, based on the relationship between the corrected face area image signal and the first color signal area, Image signal of the corrected face area There calculating a second white balance correction value obtained by correcting the image signal of the image to move in the direction of the first color signal region, it is determined not to the second color signal region by the determining means The second white balance correction value is not calculated, and the image signal of the image obtained by imaging using the first white balance correction value or the second white balance correction value. A white balance correction step of performing white balance correction .

また、本発明の撮像装置は、撮像して得られた画像の画像信号を出力する撮像手段と、上記画像処理装置とを含む。   The imaging apparatus of the present invention includes an imaging unit that outputs an image signal of an image obtained by imaging, and the image processing apparatus.

本発明によれば、顔検出結果に応じて、より安定したホワイトバランス補正を行うことができる。   According to the present invention, more stable white balance correction can be performed according to the face detection result.

本発明の実施の形態における顔検出機能を備えた撮像装置の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the imaging device provided with the face detection function in embodiment of this invention. テンプレートマッチングによるパターン認識処理を説明するフローチャートである。It is a flowchart explaining the pattern recognition process by template matching. テンプレートマッチングの概念を説明する図である。It is a figure explaining the concept of template matching. 本発明の実施の形態におけるWB補正値の算出方法を示すフローチャートである。It is a flowchart which shows the calculation method of the WB correction value in embodiment of this invention. 本発明の実施の形態における第1のWB補正値の算出処理を示すフローチャートである。It is a flowchart which shows the calculation process of the 1st WB correction value in embodiment of this invention. 本発明の実施の形態における肌色補正の判断方法を説明する図である。It is a figure explaining the judgment method of skin color correction in an embodiment of the invention. 本発明の実施の形態における第2のWB補正値算出の概念図である。It is a conceptual diagram of the 2nd WB correction value calculation in embodiment of this invention. 画面を任意の複数ブロックに分割した例を示す図である。It is a figure which shows the example which divided | segmented the screen into arbitrary several blocks. 白検出範囲を示す図である。It is a figure which shows a white detection range. 被写体として顔のアップを撮影した例を示す図である。It is a figure which shows the example which image | photographed the face-up as a to-be-photographed object. 従来のホワイトバランス補正方法で起こる問題の一例を説明した図である。It is a figure explaining an example of the problem which arises in the conventional white balance correction method.

以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

図1は、画像処理装置の一例として、本発明の実施の形態における顔検出機能を備えた撮像装置の機能構成を示す概略ブロック図である。   FIG. 1 is a schematic block diagram illustrating a functional configuration of an imaging apparatus having a face detection function according to an embodiment of the present invention as an example of an image processing apparatus.

図1において、101はCCDやCMOS等から成る固体撮像素子であり、その表面は、例えばベイヤー配列のRGBカラーフィルタにより覆われ、カラー撮影が可能な構成となっている。102はメモリで、撮像素子101から得られた画像信号を一旦記憶する。   In FIG. 1, reference numeral 101 denotes a solid-state imaging device made of a CCD, a CMOS, or the like, and the surface thereof is covered with, for example, an RGB color filter having a Bayer arrangement so that color imaging can be performed. A memory 102 temporarily stores an image signal obtained from the image sensor 101.

114は顔検出部であり、メモリ102に記憶された画像信号から、顔領域を検出する。なお、顔領域を検出する技術としては様々な手法が提案されており、顔の位置およびサイズ情報を取得できればどのような手法を用いてもよく、本願発明は、顔検出の手法により制限されるものではない。例えば、ニュートラルネットワークに代表される学習を用いた方法や、目や鼻と言った物理的形状に特徴のある部位を画像領域からテンプレートマッチングで抽出する手法が知られている。他にも、肌の色や目の形といった画像特徴量を検出し、統計的手法を用いて解析する手法が挙げられる(例えば、特開平10−232934号公報、特開2000−48184号公報を参照)。他に、現在製品として提案されているものとしては、ウェーブレット変換と画像特徴量を利用して顔検出する方法等や、テンプレートマッチング等を組み合わせた方法などがある。   Reference numeral 114 denotes a face detection unit that detects a face area from the image signal stored in the memory 102. Various techniques have been proposed as techniques for detecting a face region, and any technique may be used as long as it can acquire face position and size information, and the present invention is limited by the face detection technique. It is not a thing. For example, a method using learning typified by a neutral network and a method of extracting a part having a physical shape such as eyes and nose from an image region by template matching are known. Other methods include detecting image feature quantities such as skin color and eye shape and analyzing them using statistical methods (for example, Japanese Patent Laid-Open Nos. 10-232934 and 2000-48184). reference). In addition, what is currently proposed as a product includes a method of detecting a face using wavelet transform and image feature amounts, a method of combining template matching, and the like.

ここで、顔検出の手法として、パターン認識の一つであるテンプレートマッチングについて説明する。パターン認識とは、観測されたパターンをあらかじめ定められた概念(クラス)の一つに対応させる処理である。図2は、パターン認識処理のフローチャートであり、顔検出部114によって実行される。   Here, template matching, which is one of pattern recognition, will be described as a face detection method. Pattern recognition is a process of matching an observed pattern with one of predetermined concepts (classes). FIG. 2 is a flowchart of the pattern recognition process, which is executed by the face detection unit 114.

先ず、メモリ102から画像データを読み出して前処理し(ステップS1)、前処理された画像データから特徴的部分のパターンを抽出する(ステップS2)。そして、抽出されたパターンをテンプレート(標準パターン)に対応させる(テンプレートマッチング)。例えば、図3に示すように特徴的部分のパターン63が抽出された場合、テンプレート61の中心点62を取得したパターン63のある座標点(i,j)に置く。そして、中心点62のパターン63における位置をずらしながら、テンプレート61とパターン63との重なり部分の類似度を計算して行き、類似度が最大になる位置を決定する。パターン63を例えば目や耳等の形状を含むテンプレート61にマッチングさせることにより、目の位置情報や顔領域(顔座標)を取得することができる。   First, image data is read from the memory 102 and preprocessed (step S1), and a pattern of a characteristic portion is extracted from the preprocessed image data (step S2). Then, the extracted pattern is made to correspond to the template (standard pattern) (template matching). For example, when the characteristic part pattern 63 is extracted as shown in FIG. 3, the center point 62 of the template 61 is placed at a certain coordinate point (i, j) of the acquired pattern 63. Then, while shifting the position of the center point 62 in the pattern 63, the similarity of the overlapping portion between the template 61 and the pattern 63 is calculated, and the position where the similarity is maximized is determined. By matching the pattern 63 with, for example, a template 61 including shapes such as eyes and ears, position information of eyes and face areas (face coordinates) can be acquired.

このようにして、認識パターンを取得して(ステップS3)、取得した認識パターンを出力し(ステップS4)、パターン認識処理を終了する。   Thus, a recognition pattern is acquired (step S3), the acquired recognition pattern is output (step S4), and a pattern recognition process is complete | finished.

図1の説明に戻る。CPU115では、顔検出部114から送られた信号に基づいて、顔が検出されていれば、顔が最適な明るさになるようなシャッタースピードTv、絞り値Avを計算し、また顔に合焦するようにフォーカスレンズの駆動量を計算する。一方、顔が検出されていなければ、CPU115は画像全体が最適な明るさになるようなシャッタースピードTv、絞り値Avを計算すると共に、予め設定された合焦領域内にある被写体に合焦するようなフォーカスレンズの駆動量を計算する。CPU115で計算された露出値(Tv、Av)及びフォーカスレンズの駆動量は制御回路113に送られ、各値に基づいて不図示のレンズや絞り、シャッター、撮像素子101がそれぞれ制御される。   Returning to the description of FIG. The CPU 115 calculates the shutter speed Tv and the aperture value Av so that the face becomes optimal brightness if the face is detected based on the signal sent from the face detection unit 114, and focuses on the face. The driving amount of the focus lens is calculated as follows. On the other hand, if the face is not detected, the CPU 115 calculates the shutter speed Tv and the aperture value Av so that the entire image has the optimum brightness, and focuses on the subject in the preset focus area. The driving amount of the focus lens is calculated. The exposure values (Tv, Av) calculated by the CPU 115 and the driving amount of the focus lens are sent to the control circuit 113, and a lens, a diaphragm, a shutter, and an image sensor 101 (not shown) are controlled based on each value.

103はホワイトバランス(WB)制御部であり、メモリ102に記憶された画像信号及び顔検出部114から得られる顔情報に基づいてWB補正値を算出する。そして、算出したWB補正値を用いて、メモリ102に記憶された画像信号に対してホワイトバランス補正(WB補正)を行う。即ち、WB制御部103は、ホワイトバランス補正手段と、第1の算出手段及び第2の算出手段とに対応する。なお、このWB制御部103で用いられるWB補正値の算出方法については、詳細に後述する。   A white balance (WB) control unit 103 calculates a WB correction value based on the image signal stored in the memory 102 and the face information obtained from the face detection unit 114. Then, white balance correction (WB correction) is performed on the image signal stored in the memory 102 using the calculated WB correction value. In other words, the WB control unit 103 corresponds to white balance correction means, first calculation means, and second calculation means. The WB correction value calculation method used by the WB control unit 103 will be described in detail later.

104は、WB制御部103によりWB補正された画像信号が最適な色で再現されるように色ゲインをかけて色差信号R−Y、B−Yに変換する色変換マトリックス(MTX)回路である。105は色差信号R−Y、B−Yの帯域を制限するローパスフィルタ(LPF)回路、106はLPF回路105で帯域制限された画像信号の内、飽和部分の偽色信号を抑圧するCSUP(Chroma Supress)回路である。   Reference numeral 104 denotes a color conversion matrix (MTX) circuit that converts the color difference signals RY and BY into color difference signals so that the image signal corrected by the WB control unit 103 is WB corrected with an optimal color. . Reference numeral 105 denotes a low-pass filter (LPF) circuit that limits the bands of the color difference signals RY and BY. Reference numeral 106 denotes a CSUP (Chroma) that suppresses a false color signal in a saturated portion of the image signal band-limited by the LPF circuit 105. Supress) circuit.

一方、WB制御部103によりWB補正された画像信号は輝度信号(Y)生成回路111にも出力されて輝度信号Yが生成され、生成された輝度信号Yに対してエッジ強調回路112にてエッジ強調処理が施される。   On the other hand, the WB corrected image signal by the WB control unit 103 is also output to the luminance signal (Y) generation circuit 111 to generate the luminance signal Y, and the edge enhancement circuit 112 performs edge processing on the generated luminance signal Y. Emphasis processing is performed.

CSUP回路106から出力される色差信号R−Y、B−Yと、エッジ強調回路112から出力される輝度信号Yは、RGB変換回路107にてRGB信号に変換され、ガンマ補正回路108にて階調補正が施される。その後、色輝度変換回路109にてYUV信号に変換され、更に圧縮回路110にて例えばJPEG圧縮されて、外部記録媒体または内部記録媒体に画像信号として記録される。   The color difference signals RY and BY output from the CSUP circuit 106 and the luminance signal Y output from the edge emphasis circuit 112 are converted into RGB signals by the RGB conversion circuit 107, and the gamma correction circuit 108 converts the gradation signals Y to B and Y. Tone correction is applied. After that, it is converted into a YUV signal by the color luminance conversion circuit 109, and further compressed by, for example, JPEG by the compression circuit 110 and recorded as an image signal on an external recording medium or an internal recording medium.

次に、本実施の形態におけるWB補正値の算出方法について図4を参照して説明する。本実施の形態におけるWB補正値の算出方法は、顔検出結果に応じて顔領域が最適となるようなWB補正値を得ることができるようにするものである。なお、顔検出処理は図4に示す処理が行われる直前に、得られた画像信号に基づいて、例えば図2及び図3を参照して上述した方法により顔検出部114により行われ、顔検出結果がすでに得られているものとする。また、ここで行われるWB補正値の算出は、CPU115が行うように構成しても、WB制御部103が行うように構成しても、更には、WB補正値算出用の専用の構成を追加するようにしても、何れでも構わない。   Next, a method for calculating the WB correction value in the present embodiment will be described with reference to FIG. The calculation method of the WB correction value in the present embodiment makes it possible to obtain a WB correction value that optimizes the face area according to the face detection result. The face detection process is performed by the face detection unit 114 by the method described above with reference to FIGS. 2 and 3, for example, based on the obtained image signal immediately before the process shown in FIG. 4 is performed. It is assumed that the result has already been obtained. In addition, the calculation of the WB correction value performed here may be performed by the CPU 115 or the WB control unit 103, and a dedicated configuration for calculating the WB correction value may be added. It does not matter either.

先ず、ステップS11において、メモリ102に記憶された画像信号から白画素の検出を行って第1のホワイトバランス補正値(第1のWB補正値)を算出する。ここで、第1のWB補正値の算出方法について、図5を参照して詳しく説明する。   First, in step S11, white pixels are detected from the image signal stored in the memory 102, and a first white balance correction value (first WB correction value) is calculated. Here, the calculation method of the first WB correction value will be described in detail with reference to FIG.

まず、メモリ102に記憶された画像信号を読み出し、その画面を図8のような任意のm個のブロックに分割する(ステップS101)。そして、各ブロック(1〜m)毎に、画素値を各色毎に加算平均して色平均値(R[i]、G[i]、B[i])を算出し、式(1)を用いて色評価値(Cx[i]、Cy[i])を算出する(ステップS102)。
Cx[i] = (R[i] - B[i]) / Y[i] × 1024
Cy[i] = (R[i] + B[i]) - 2G[i]/ Y[i] × 1024 …(1)
ただし、Y[i] = R[i] + 2G[i] + B[i]、[i]は各ブロックのインデックス番号
First, the image signal stored in the memory 102 is read, and the screen is divided into arbitrary m blocks as shown in FIG. 8 (step S101). Then, for each block (1 to m), the pixel values are added and averaged for each color to calculate a color average value (R [i], G [i], B [i]). The color evaluation values (Cx [i], Cy [i]) are calculated by using them (step S102).
Cx [i] = (R [i]-B [i]) / Y [i] x 1024
Cy [i] = (R [i] + B [i])-2G [i] / Y [i] x 1024 (1)
Where Y [i] = R [i] + 2G [i] + B [i], [i] is the index number of each block

次に、ステップS102で算出したi番目のブロックの色評価値(Cx[i]、Cy[i])が、図9に示す予め設定した白検出範囲301に含まれるかどうかを判断する(ステップS103)。白検出範囲301は、予め異なる光源下で白を撮影し、算出した色評価値をプロットしたものである。図9におけるx座標(Cx)の負方向が高色温度被写体の白を撮影したときの色評価値、正方向が低色温度被写体の白を撮影したときの色評価値である。またy座標(Cy)は光源の緑成分の度合いを意味しており、負方向になるにつれG成分が大きくなり、つまり光源が蛍光灯であることを示している。   Next, it is determined whether or not the color evaluation value (Cx [i], Cy [i]) of the i-th block calculated in step S102 is included in the preset white detection range 301 shown in FIG. S103). The white detection range 301 is obtained by photographing white under different light sources in advance and plotting the calculated color evaluation values. The negative direction of the x coordinate (Cx) in FIG. 9 is a color evaluation value when white of a high color temperature subject is photographed, and the positive direction is a color evaluation value when white of a low color temperature subject is photographed. The y coordinate (Cy) means the degree of the green component of the light source, and the G component increases as it goes in the negative direction, that is, the light source is a fluorescent lamp.

算出した色評価値(Cx[i]、Cy[i])がこの白検出範囲301に含まれる場合には(ステップS103でYES)そのブロックが白色であると判断する。そして、そのブロックの色平均値(R[i]、G[i]、B[i])を積算していき(ステップS104)、含まれない場合には加算せずにステップS105に進む。このステップS103及びステップS104の処理は、式(3)により表すことができる。   When the calculated color evaluation values (Cx [i], Cy [i]) are included in the white detection range 301 (YES in step S103), it is determined that the block is white. Then, the color average values (R [i], G [i], B [i]) of the block are accumulated (step S104), and if not included, the process proceeds to step S105 without adding. The processing of step S103 and step S104 can be expressed by equation (3).

Figure 2012157057
Figure 2012157057

ここで、式(3)において、色評価値(Cx[i]、Cy[i])が白検出範囲301に含まれる場合はSw[i]を1に、含まれない場合にはSw[i]を0とする。このようにして、ステップS103の判断により色平均値(R[i]、G[i]、B[i])の加算を行うか、行わないかの処理を実質的に行っている。
ステップS105では、全てのブロックについて上記処理を行ったかどうかを判断し、未処理のブロックがあればステップS102に戻って上記処理を繰り返し、全てのブロックの処理が終了していればステップS106に進む。
Here, in Equation (3), Sw [i] is set to 1 when the color evaluation value (Cx [i], Cy [i]) is included in the white detection range 301, and Sw [i is set when it is not included. ] Is set to 0. In this way, the process of whether or not to add the color average values (R [i], G [i], B [i]) is substantially performed according to the determination in step S103.
In step S105, it is determined whether or not the above process has been performed for all blocks. If there is an unprocessed block, the process returns to step S102 to repeat the above process, and if all the blocks have been processed, the process proceeds to step S106. .

ステップS106では、得られた色評価値の積分値(sumR、sumG、sumB)から、以下の式(4)を用いて、第1のWB補正値(WBCo1_R、WBCo1_G、WBCo1_B)を算出する。
WBCo1_R = sumY × 1024 / sumR
WBCo1_G = sumY × 1024 / sumG …(4)
WBCo1_B = sumY × 1024 / sumB
ただし、sumY = (sumR + 2 × sumG + sumB) / 4
In step S106, the first WB correction values (WBCo1_R, WBCo1_G, WBCo1_B) are calculated from the integrated values (sumR, sumG, sumB) of the obtained color evaluation values using the following equation (4).
WBCo1_R = sumY × 1024 / sumR
WBCo1_G = sumY × 1024 / sumG (4)
WBCo1_B = sumY × 1024 / sumB
However, sumY = (sumR + 2 × sumG + sumB) / 4

上述したようにして第1のWB補正値を算出すると、ステップS12において顔が検出されているかどうかを判断する。顔が検出されていなければ、ステップS11で算出した第1のWB補正値をWB制御部103でWB処理に使用するWB補正値と決定して(ステップS20)、処理を終了する。   When the first WB correction value is calculated as described above, it is determined whether or not a face is detected in step S12. If no face is detected, the first WB correction value calculated in step S11 is determined as the WB correction value to be used for the WB processing by the WB control unit 103 (step S20), and the process is terminated.

顔が検出されていれば、ステップS13において顔領域のブロックを取得し、そのブロックの内の1つのブロックについて、第1のWB補正値を算出するためにステップS102で求めた色平均値(R[i]、G[i]、B[i])を取得する(ステップS14)。   If a face has been detected, a block of the face area is acquired in step S13, and the color average value (R) obtained in step S102 for calculating the first WB correction value for one of the blocks is determined. [i], G [i], B [i]) are acquired (step S14).

次に、ステップS14で取得した色平均値にステップS11で求めた第1のWB補正値をそれぞれ乗じて、肌色平均値(顔領域の色平均値を第1のWB補正値によりWB補正した値、補正画像信号)を求める。そして、この肌色平均値が肌色領域(図6の領域(A))、肌色補正対象領域(図6の領域(B))、肌色補正対象外領域(図6の領域(C))のいずれにあるのかを判定する(ステップS15)。なお、肌色領域(A)は第1の色信号領域に対応し、肌色補正対象領域(B)は、第1の色信号領域の周辺領域である第2の色信号領域に対応する。図6の肌色領域(A)内(第1の色信号領域内)もしくは肌色補正対象領域(B)内(第2の色信号領域内)にある場合、肌色平均値をそれまでに算出された肌色平均値の合計に加算する(ステップS16)。また、肌色補正対象外領域(C)にあれば、そのブロックの肌色平均値は加算せずに、そのままステップS17に進む。なお、図6に示す肌色領域(A)及び肌色補正対象領域(B)は、例えば、太陽光などの白色光下で予め肌色を複数撮影し、統計的な手法を用いて設定することができる。   Next, the color average value acquired in step S14 is multiplied by the first WB correction value obtained in step S11, respectively, and the skin color average value (the value obtained by WB correction of the color average value of the face area with the first WB correction value) is obtained. , Corrected image signal). The skin color average value is any of the skin color area (area (A) in FIG. 6), the skin color correction target area (area (B) in FIG. 6), and the skin color correction non-target area (area (C) in FIG. 6). It is determined whether it exists (step S15). The skin color area (A) corresponds to the first color signal area, and the skin color correction target area (B) corresponds to the second color signal area which is a peripheral area of the first color signal area. In the case of the skin color area (A) (in the first color signal area) or the skin color correction target area (B) (in the second color signal area) of FIG. 6, the skin color average value has been calculated so far. It is added to the sum of the skin color average values (step S16). If it is in the skin color correction non-target region (C), the skin color average value of the block is not added, and the process directly proceeds to step S17. Note that the skin color region (A) and the skin color correction target region (B) shown in FIG. 6 can be set using a statistical method by photographing a plurality of skin colors in advance under white light such as sunlight. .

例えば、顔を誤検出した場合(図6(b)に示すような場合)や被写体が完全にずれた場合には、ブロックの肌評価値が図6の肌色補正対象外領域(C)に分布する場合が多い。顔領域がずれた場合(図6(c)に示すような場合)は顔領域の肌評価値は図6の肌色領域(A)または肌色補正対象領域(B)に分布することが多い。このように、肌色領域(A)及び肌色補正対象領域(B)にあるブロックのみを抽出して、WB演算処理に反映させる。なお、ステップS15の判断により肌色補正対象外領域(C)にある肌色評価値を除外するのではなく、重み付けによる加重加算を行ってもよい。その際には、肌色補正対象外領域(C)にある肌色評価値にかける重みを、肌色領域(A)及び肌色補正対象領域(B)にある肌色評価値にかける重みに対して低く設定しておく。   For example, when a face is erroneously detected (as shown in FIG. 6B) or the subject is completely displaced, the skin evaluation value of the block is distributed in the non-skin color correction target region (C) in FIG. There are many cases to do. When the face area is shifted (as shown in FIG. 6C), the skin evaluation values of the face area are often distributed in the skin color area (A) or the skin color correction target area (B) in FIG. Thus, only the blocks in the skin color area (A) and the skin color correction target area (B) are extracted and reflected in the WB calculation process. Note that weighted addition by weighting may be performed instead of excluding the skin color evaluation value in the skin color correction non-target area (C) based on the determination in step S15. In that case, the weight applied to the skin color evaluation value in the skin color correction non-target area (C) is set lower than the weight applied to the skin color evaluation value in the skin color area (A) and the skin color correction target area (B). Keep it.

上述した処理を取得したブロック数分(ステップS17でYESとなるまで)行ってから、ステップS18に進む。ステップS18では、ステップS16で加算して得られた肌色平均値の合計(合計画像信号)が肌色補正対象領域(B)内にあるかどうかを判断する。   After performing the above-described processing for the number of acquired blocks (until YES in step S17), the process proceeds to step S18. In step S18, it is determined whether the sum of the flesh color average values (total image signal) obtained in step S16 is within the flesh color correction target area (B).

図6の肌色領域(A)に入っている場合は(ステップS18でNO)、第1のWB補正値により肌色が適正にWB補正されたと判断できるため、第1のWB補正値を使用すると決定する(ステップS20)。肌色補正対象領域(B)内にある場合は(ステップS18でYES)、第1のWB補正値により補正された肌色が適正にWB補正されなかったと判断できる。従って、肌色領域方向に移動するような第2のホワイトバランス補正値(第2のWB補正値)を算出する(ステップS19)。また、肌色補正対象領域外(C)にある場合は(ステップS18でNO)、検出された肌色評価値が人の肌を表していないと判断し、第1のWB補正値を使用する(ステップS20)。   If it is in the skin color area (A) of FIG. 6 (NO in step S18), it can be determined that the skin color has been appropriately WB corrected by the first WB correction value, and therefore it is determined to use the first WB correction value. (Step S20). If it is within the skin color correction target area (B) (YES in step S18), it can be determined that the skin color corrected by the first WB correction value has not been properly WB corrected. Therefore, a second white balance correction value (second WB correction value) that moves in the skin color region direction is calculated (step S19). If it is outside the skin color correction target region (C) (NO in step S18), it is determined that the detected skin color evaluation value does not represent human skin, and the first WB correction value is used (step S18). S20).

図7にステップS19で行う第2のWB補正値算出の概念を示す。図7は、ある光源下において肌色が白色と誤認識され、第1のWB補正値が算出された場合を想定している。第1のWB補正値が適正なWB補正値より低色温度方向に位置しているために、第1のWB補正後の肌色が寒色方向に推移している。この場合、肌色評価値は適正な肌色を示す領域よりも寒色方向に位置しているため、ホワイトバランス補正値としてRゲインを第1のWB補正値よりも大きくかけることにより、適正肌色に補正することが可能になる。   FIG. 7 shows the concept of the second WB correction value calculation performed in step S19. FIG. 7 assumes a case where the skin color is erroneously recognized as white under a certain light source and the first WB correction value is calculated. Since the first WB correction value is located in the lower color temperature direction than the appropriate WB correction value, the flesh color after the first WB correction is shifted in the cold color direction. In this case, since the skin color evaluation value is located in the cold color direction from the region showing the proper skin color, the white skin correction value is corrected to an appropriate skin color by applying an R gain larger than the first WB correction value. It becomes possible.

上記の通り、本実施の形態によれば、顔を誤認識した場合や撮影時の被写体ずれによる誤補正、過補正を低減することができるため、顔検出結果に応じて、より安定したホワイトバランス補正を行うことが可能になる。   As described above, according to the present embodiment, it is possible to reduce miscorrection and overcorrection caused by misrecognition of a face or subject deviation at the time of shooting. Therefore, more stable white balance can be achieved according to the face detection result. Correction can be performed.

<他の実施形態>
なお、本発明は、複数の機器(例えばホストコンピュータ、インターフェイス機器、カメラヘッドなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、デジタルスチルカメラ、デジタルビデオカメラなど)に適用してもよい。
<Other embodiments>
Note that the present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a camera head, etc.), or a device (for example, a digital still camera, a digital video camera, etc.) composed of a single device. You may apply to.

また、本発明の目的は、以下の様にして達成することも可能である。まず、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   The object of the present invention can also be achieved as follows. First, a storage medium (or recording medium) that records a program code of software that implements the functions of the above-described embodiments is supplied to a system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、以下のようにして達成することも可能である。即ち、読み出したプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合である。ここでプログラムコードを記憶する記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、ROM、RAM、磁気テープ、不揮発性のメモリカード、CD−ROM、CD−R、DVD、光ディスク、光磁気ディスク、MOなどが考えられる。また、LAN(ローカル・エリア・ネットワーク)やWAN(ワイド・エリア・ネットワーク)などのコンピュータネットワークを、プログラムコードを供給するために用いることができる。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the following can be achieved. That is, when the operating system (OS) running on the computer performs part or all of the actual processing based on the instruction of the read program code, the functions of the above-described embodiments are realized by the processing. It is. Examples of the storage medium for storing the program code include a flexible disk, hard disk, ROM, RAM, magnetic tape, nonvolatile memory card, CD-ROM, CD-R, DVD, optical disk, magneto-optical disk, MO, and the like. Can be considered. Also, a computer network such as a LAN (Local Area Network) or a WAN (Wide Area Network) can be used to supply the program code.

Claims (7)

撮像を行って得られた画像の画像信号を処理する画像処理装置であって、
前記画像から白画素の検出を行うことにより第1のホワイトバランス補正値を算出する第1の算出手段と、
前記画像から顔領域を検出する顔検出手段と、
前記顔検出手段により検出された顔領域の画像信号を前記第1のホワイトバランス補正値に基づきホワイトバランス補正した場合に、補正された顔領域の画像信号が、肌色を表す第1の色信号領域の周辺の第2の色信号領域にあるか否かを判定する判定手段と、
前記判定手段により前記第2の色信号領域にあると判定された場合、前記補正された顔領域の画像信号と前記第1の色信号領域との関係に基づき、前記補正された顔領域の画像信号が前記第1の色信号領域の方向に移動するように前記画像の画像信号を補正した第2のホワイトバランス補正値を算出し、前記判定手段により前記第2の色信号領域にないと判定された場合、前記第2のホワイトバランス補正値の算出を行わない第2の算出手段と
前記第1または前記第2のホワイトバランス補正値を用いて、撮像を行って得られた画像の画像信号にホワイトバランス補正を行うホワイトバランス補正手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that processes an image signal of an image obtained by imaging,
First calculating means for calculating a first white balance correction value by detecting a white pixel from the image;
Face detection means for detecting a face region from the image;
A first color signal area in which the corrected face area image signal represents skin color when the face area image signal detected by the face detection means is white balance corrected based on the first white balance correction value. Determining means for determining whether or not the second color signal area in the vicinity of
When the determination means determines that the second color signal area is present, the corrected face area image is based on the relationship between the corrected face area image signal and the first color signal area. signal calculating a second white balance correction value obtained by correcting the image signal of the image to move in the direction of the first color signal region, determined not to the second color signal region by the determining means A second calculating unit that does not calculate the second white balance correction value ,
White balance correction means for performing white balance correction on an image signal of an image obtained by imaging using the first or second white balance correction value;
An image processing apparatus comprising:
前記第2の算出手段は、前記補正後の顔領域の画像信号が前記第1の色信号領域内に入るように、前記第2のホワイトバランス補正値を算出することを特徴とする請求項1に記載の画像処理装置。   2. The second white balance correction value according to claim 1, wherein the second calculation means calculates the second white balance correction value so that an image signal of the face region after correction falls within the first color signal region. An image processing apparatus according to 1. 前記第1の算出手段は前記画像の白画素を所定のブロック単位で検出し、前記判定手段は前記所定のブロック単位で検出された顔領域の画像信号について、前記判定を実行することを特徴とする請求項1に記載の画像処理装置。   The first calculation means detects white pixels of the image in a predetermined block unit, and the determination means performs the determination on the image signal of the face area detected in the predetermined block unit. The image processing apparatus according to claim 1. 撮像して得られた画像の画像信号を出力する撮像手段と、
請求項1乃至のいずれか1項に記載の画像処理装置と
を備えたことを特徴とする撮像装置。
Imaging means for outputting an image signal of an image obtained by imaging;
Imaging apparatus characterized by comprising an image processing apparatus according to any one of claims 1 to 3.
撮像を行って得られた画像の画像信号を処理する画像処理方法であって、
第1の算出手段が、前記画像から白画素の検出を行うことにより第1のホワイトバランス補正値を算出する第1の算出工程と、
顔検出手段が、前記画像から顔領域を検出する顔検出工程と、
判定手段が、前記顔検出工程により検出された顔領域の画像信号を前記第1のホワイトバランス補正値に基づきホワイトバランス補正した場合に、補正された顔領域の画像信号が肌色を表す第1の色信号領域の周辺の第2の色信号領域にあるか否かを判定する判定工程と、
第2の算出手段が、前記判定工程により前記第2の色信号領域にあると判定された場合、前記補正された顔領域の画像信号と前記第1の色信号領域との関係に基づき、前記補正された顔領域の画像信号が前記第1の色信号領域の方向に移動するように前記画像の画像信号を補正した第2のホワイトバランス補正値を算出し、前記判定手段により前記第2の色信号領域にないと判定された場合、前記第2のホワイトバランス補正値の算出を行わない第2の算出工程と
前記第1または前記第2のホワイトバランス補正値を用いて、撮像を行って得られた画像の画像信号にホワイトバランス補正を行うホワイトバランス補正工程と、
を有することを特徴とする画像処理方法。
An image processing method for processing an image signal of an image obtained by imaging,
A first calculating unit that calculates a first white balance correction value by detecting a white pixel from the image;
A face detecting step in which a face detecting means detects a face region from the image;
When the determination unit performs white balance correction on the image signal of the face area detected by the face detection step based on the first white balance correction value, the corrected face area image signal represents a skin color. A determination step of determining whether or not the second color signal area is around the color signal area;
When the second calculating means determines that the second color signal area is in the second color signal area by the determination step, based on the relationship between the image signal of the corrected face area and the first color signal area, calculating a corrected second white balance correction value image signal of the face region is corrected image signal of the image to move in the direction of the first color signal region, the second by the determination unit A second calculation step that does not calculate the second white balance correction value when it is determined that the color signal area is not present ;
A white balance correction step of performing white balance correction on an image signal of an image obtained by imaging using the first or second white balance correction value;
An image processing method comprising:
コンピュータに、請求項に記載の画像処理方法の各工程を実行させるためのプログラム。 A program for causing a computer to execute each step of the image processing method according to claim 5 . 請求項に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 6 .
JP2012088769A 2012-04-09 2012-04-09 Image processing apparatus and method, and imaging apparatus Active JP5237480B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012088769A JP5237480B2 (en) 2012-04-09 2012-04-09 Image processing apparatus and method, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012088769A JP5237480B2 (en) 2012-04-09 2012-04-09 Image processing apparatus and method, and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007235948A Division JP5064947B2 (en) 2007-09-11 2007-09-11 Image processing apparatus and method, and imaging apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013062849A Division JP5744945B2 (en) 2013-03-25 2013-03-25 Image processing apparatus and method, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2012157057A true JP2012157057A (en) 2012-08-16
JP5237480B2 JP5237480B2 (en) 2013-07-17

Family

ID=46838213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012088769A Active JP5237480B2 (en) 2012-04-09 2012-04-09 Image processing apparatus and method, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5237480B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148863A (en) * 1999-11-19 2001-05-29 Victor Co Of Japan Ltd White balance adjustment method and adjustment device
JP2003333618A (en) * 2002-05-13 2003-11-21 Sony Corp Image processor, image processing method, recording medium, and program
JP2006033158A (en) * 2004-07-13 2006-02-02 Canon Inc Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148863A (en) * 1999-11-19 2001-05-29 Victor Co Of Japan Ltd White balance adjustment method and adjustment device
JP2003333618A (en) * 2002-05-13 2003-11-21 Sony Corp Image processor, image processing method, recording medium, and program
JP2006033158A (en) * 2004-07-13 2006-02-02 Canon Inc Imaging apparatus

Also Published As

Publication number Publication date
JP5237480B2 (en) 2013-07-17

Similar Documents

Publication Publication Date Title
JP5064947B2 (en) Image processing apparatus and method, and imaging apparatus
JP5113514B2 (en) White balance control device and white balance control method
JP4217698B2 (en) Imaging apparatus and image processing method
JP5089405B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP5398156B2 (en) WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
EP1528797A2 (en) Image processing apparatus, image-taking system and image processing method
JP4971785B2 (en) Image processing apparatus and method, and imaging apparatus
CN109104601B (en) Detection device, image processing device, detection method, and image processing method
JP5215775B2 (en) White balance control device, imaging device using the same, and white balance control method
JP4726251B2 (en) Imaging apparatus and image processing method
JP5744945B2 (en) Image processing apparatus and method, and imaging apparatus
JP5237480B2 (en) Image processing apparatus and method, and imaging apparatus
JP5106311B2 (en) White balance control device, imaging device using the same, and white balance control method
JP2007312099A (en) Image-taking device
JP5677485B2 (en) White balance control device, imaging device using the same, and white balance control method
JP2006148326A (en) Imaging apparatus and method of controlling the same
JP2015119436A (en) Imaging apparatus
JP5367140B2 (en) White balance control device, imaging device using the same, and white balance control method
JP2012124715A (en) Imaging apparatus and imaging apparatus control method
US20200118304A1 (en) Image processing apparatus, image processing method, and recording medium
JP6616674B2 (en) Image processing apparatus and method, and imaging apparatus
JP2021086269A (en) Image processing device, control method of the same, and program
JP2020154640A (en) Image processing apparatus, image processing method and image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130328

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3