JP2017147535A - White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device - Google Patents

White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device Download PDF

Info

Publication number
JP2017147535A
JP2017147535A JP2016026760A JP2016026760A JP2017147535A JP 2017147535 A JP2017147535 A JP 2017147535A JP 2016026760 A JP2016026760 A JP 2016026760A JP 2016026760 A JP2016026760 A JP 2016026760A JP 2017147535 A JP2017147535 A JP 2017147535A
Authority
JP
Japan
Prior art keywords
white balance
balance adjustment
coefficient
imaging signal
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016026760A
Other languages
Japanese (ja)
Inventor
大輔 北篠
Daisuke Hojo
大輔 北篠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2016026760A priority Critical patent/JP2017147535A/en
Publication of JP2017147535A publication Critical patent/JP2017147535A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a white balance adjustment device, a white balance adjustment method, a white balance adjustment program, and a photographing device that are suitable for white balance adjustment in which individual differences in skin color of a person is taken into consideration without increasing a processing load.SOLUTION: Normal white balance coefficient calculation processing S101 comprises: extracting a region estimated to be in an achromatic color from a subject image on the basis of an imaging signal; and using the achromatic color subject image to calculate a normal white balance coefficient. Skin color white balance coefficient calculation processing S102 comprises: extracting a region of a skin color from the subject image; and using a subject image of the skin color to calculate a white balance coefficient. White balance coefficient composition processing S103 comprises: putting together the normal white balance coefficient and the skin color white balance coefficient; and calculating a composite white balance coefficient. White balance adjustment processing S104 comprises using the composite white balance coefficient to adjust white balance of the imaging signal.SELECTED DRAWING: Figure 2

Description

本発明は、撮影画像のホワイトバランスを調整するホワイトバランス調整装置、ホワイトバランス調整方法、ホワイトバランス調整プログラム及びホワイトバランス調整機能を有する撮影装置に関する。   The present invention relates to a white balance adjustment device, a white balance adjustment method, a white balance adjustment program, and a photographing device having a white balance adjustment function.

デジタルカメラ等の撮影装置や携帯端末に搭載された撮像装置には、カラー撮像時に安定した色再現を得るためのホワイトバランス調整機能が組み込まれている。ホワイトバランス調整機能では、無彩色の被写体を撮影している状態でR(Red)、G(Green)、B(Blue)の画素信号値が揃うように調整される。   An imaging device such as a digital camera or an imaging device mounted on a portable terminal incorporates a white balance adjustment function for obtaining stable color reproduction during color imaging. In the white balance adjustment function, adjustment is performed so that the pixel signal values of R (Red), G (Green), and B (Blue) are aligned in a state where an achromatic subject is photographed.

ホワイトバランス調整処理では、被写体を照明する光源が推定し、この推定結果に基づいて画素信号値が調整される。しかし、例えば、人物が被写体である場合に光源を正しく推定できないと、人物の顔の肌色に色かぶりが生じ、違和感のある撮影画像が得られる場合があった。そこで、例えば特許文献1や特許文献2に、撮影画像のうち、人物の顔などの肌色の領域を使用し、色味を補正する撮影装置が開示されている。   In the white balance adjustment process, the light source that illuminates the subject is estimated, and the pixel signal value is adjusted based on the estimation result. However, for example, when the person is a subject and the light source cannot be estimated correctly, a color cast may occur in the skin color of the person's face, and a shot image with an uncomfortable feeling may be obtained. Therefore, for example, Patent Document 1 and Patent Document 2 disclose a photographing apparatus that uses a skin-colored region such as a person's face in a photographed image and corrects the color.

特許文献1の撮影装置には、被写体像から人物の顔を検出し、検出した顔の肌色が基準とする肌色となるようにホワイトバランス調整処理を行う構成が開示されている。   Japanese Patent Application Laid-Open No. 2005-228561 discloses a configuration in which a human face is detected from a subject image and white balance adjustment processing is performed so that the detected skin color of the face becomes a reference skin color.

特許文献2の撮影装置には、被写体を照明する光源を推定してホワイトバランス調整処理を行う構成が開示されている。特許文献2の撮影装置では、被写体像から人物の顔が検出され、人物の肌に対応する領域の画素信号から、メラニンの色素成分、ヘモグロビンの色素成分、陰影成分が抽出され、これらの成分を用いて光源が推定される。   Japanese Patent Application Laid-Open No. 2004-26883 discloses a configuration in which a white balance adjustment process is performed by estimating a light source that illuminates a subject. In the imaging device of Patent Document 2, a human face is detected from a subject image, and a melanin pigment component, a hemoglobin pigment component, and a shadow component are extracted from pixel signals in a region corresponding to the human skin, and these components are extracted. To estimate the light source.

特開2010−041622号公報JP 2010-041622 A 特開2015−144420号公報JP2015-144420A

特許文献1に記載のホワイトバランス調整処理では、人物の実際の肌色に依らず、検出した肌色が基準とする肌色となるように画素信号値が補正される。そのため、撮影画像において、人物の実際の肌色を好適に再現することができない場合がある。   In the white balance adjustment processing described in Patent Document 1, the pixel signal value is corrected so that the detected skin color becomes the reference skin color regardless of the actual skin color of the person. For this reason, the actual skin color of the person may not be suitably reproduced in the captured image.

特許文献2では、画素信号からメラニンの色素成分、ヘモグロビンの色素成分、陰影成分を抽出される。メラニンの色素成分とヘモグロビンの色素成分が最も小さい画素信号は、光源情報を強く反映しているとして、ホワイトバランス調整処理に使用される。しかし、被写体像のうち、ホワイトバランス調整処理に使用する領域に人物の肌以外のものが含まれている場合や、顔検出処理に誤差が生じた場合に、色素成分が最も小さい被写体像が、人物の肌以外の被写体像となる場合が発生し得る。この場合、人物の肌以外の被写体像を使用してホワイトバランス調整処理が行われるため、正しく光源を推定できない場合がある。   In Patent Document 2, a melanin pigment component, a hemoglobin pigment component, and a shadow component are extracted from a pixel signal. The pixel signal having the smallest melanin pigment component and hemoglobin pigment component is used for white balance adjustment processing, as it strongly reflects light source information. However, the subject image with the smallest pigment component when the subject image contains something other than human skin in the region used for white balance adjustment processing or when an error occurs in the face detection processing, There may occur a case where the subject image is other than human skin. In this case, since the white balance adjustment process is performed using a subject image other than the human skin, the light source may not be estimated correctly.

また、特許文献2には、色素成分が最も小さい画素信号の代わりに、複数の画素信号うち、色素成分が低いものから所定の割合の画素信号のみを使用してホワイトバランス調整処理を行う処理が開示されている。しかし、この処理では、色素成分に基づいて、複数の画素信号に対して処理負荷の大きなソーティング(並び替え)を行う必要がある。   Further, Patent Document 2 discloses a process for performing white balance adjustment processing using only a predetermined proportion of pixel signals from among the plurality of pixel signals having the lowest pigment component, instead of the pixel signal having the smallest pigment component. It is disclosed. However, in this processing, it is necessary to perform sorting (rearrangement) with a large processing load on a plurality of pixel signals based on the pigment component.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、処理負荷を大きくすることなく、人物の肌の色の個人差を考慮したホワイトバランス調整を行うのに好適なホワイトバランス調整装置、ホワイトバランス調整方法、ホワイトバランス調整プログラム及び撮影装置を提供することである。   The present invention has been made in view of the above circumstances, and its object is to perform white balance adjustment in consideration of individual differences in human skin color without increasing the processing load. To provide a white balance adjustment device, a white balance adjustment method, a white balance adjustment program, and a photographing device.

本実施形態の一実施形態によれば、ホワイトバランス調整装置は、被写体からの光束に基づいて生成された撮像信号を記憶する撮像信号記憶部と、撮像信号に基づく被写体像中の肌領域を検出する肌検出部と、被写体像のうち肌領域の色評価値から、独立成分を抽出する独立成分抽出部と、独立成分の分布を特徴づける統計量を算出する統計量算出部と、統計量に基づいて肌領域の特徴量を算出する特徴量算出部と、特徴量を用いて、撮像信号のホワイトバランス調整に用いる第1の係数を算出する第1の係数算出部と、を備える。   According to one embodiment of the present embodiment, the white balance adjustment device detects an image signal storage unit that stores an image signal generated based on a light flux from a subject, and a skin area in the subject image based on the image signal. An independent component extraction unit that extracts an independent component from a color evaluation value of the skin region of the subject image, a statistic calculation unit that calculates a statistic that characterizes the distribution of the independent component, and a statistic A feature amount calculation unit that calculates a feature amount of the skin region based on the image data; and a first coefficient calculation unit that calculates a first coefficient used for white balance adjustment of the imaging signal using the feature amount.

本実施形態によれば、肌領域の色評価値の独立成分の統計量を用いてホワイトバランス係数を算出している。統計量は、複数の独立成分の分布を特徴づけるものであり、一部の独立成分によって受ける影響は小さい。そのため、統計量を用いてホワイトバランス係数を算出することにより、肌領域内の一部に人物の肌以外の被写体像が含まれている場合においても、その一部の肌以外の被写体像がホワイトバランス係数に与える影響を抑えることができる。また、独立成分の統計量の算出には複数の独立成分のソーティングは必要ないため、本実施形態により、処理負荷を抑えつつ、撮影画像における人物の肌の色を好適に再現することができる。   According to this embodiment, the white balance coefficient is calculated using the statistic of the independent component of the color evaluation value of the skin region. The statistic characterizes the distribution of a plurality of independent components, and is less influenced by some independent components. Therefore, by calculating the white balance coefficient using statistics, even when a subject image other than the human skin is included in a part of the skin region, the subject image other than the part of the skin is white. The influence on the balance coefficient can be suppressed. In addition, since the sorting of a plurality of independent components is not necessary for calculating the statistics of the independent components, according to the present embodiment, the skin color of a person in a captured image can be suitably reproduced while suppressing the processing load.

また、本実施形態の一実施形態によれば、特徴量算出部は、例えば、特徴量に対する基準値を設定し、基準値と特徴量との差分を検出し、統計量の信頼度に応じて特徴量及び基準値の算出方法を変更する。この場合、第1の係数算出部は、特徴量算出部によって検出された差分に基づいて第1の係数を算出する。   Further, according to one embodiment of the present embodiment, for example, the feature amount calculation unit sets a reference value for the feature amount, detects a difference between the reference value and the feature amount, and according to the reliability of the statistic Change the calculation method of feature value and reference value. In this case, the first coefficient calculation unit calculates the first coefficient based on the difference detected by the feature amount calculation unit.

また、本実施形態の一実施形態によれば、統計量は、例えば、複数の独立成分の分布の分散、複数の独立成分の分布の歪度、複数の独立成分の加重平均のうち、少なくともいずれか一つを含む。   Further, according to an embodiment of the present embodiment, the statistic is, for example, at least one of a distribution of a plurality of independent component distributions, a skewness of a plurality of independent component distributions, and a weighted average of a plurality of independent components. Including one.

また、本実施形態の一実施形態によれば、統計量算出部は、例えば、複数の独立成分の値の代表値を算出し、複数の独立成分から、値が代表値から所定値以上離れている独立成分を除外して統計量を算出する。   Further, according to one embodiment of the present embodiment, for example, the statistic calculation unit calculates a representative value of a plurality of independent component values, and the value is separated from the representative value by a predetermined value or more from the plurality of independent components. Statistics are calculated by excluding the independent components.

また、本実施形態の一実施形態によれば、独立成分は、例えば、メラニン色素成分とヘモグロビン色素成分を含む。   Moreover, according to one Embodiment of this embodiment, an independent component contains a melanin pigment component and a hemoglobin pigment component, for example.

また、本実施形態の一実施形態によれば、ホワイトバランス調整機構は、例えば、撮像信号の色評価値に基づいて、所定のアルゴリズムにより撮像信号のホワイトバランス調整に用いる第2の係数を算出する第2の係数算出部と、第1の係数と第2の係数に基づいて、撮像信号のホワイトバランス調整に用いる第3の係数を算出する係数合成部と、を更に備える。   Further, according to an embodiment of the present embodiment, the white balance adjustment mechanism calculates the second coefficient used for white balance adjustment of the imaging signal by a predetermined algorithm based on the color evaluation value of the imaging signal, for example. A second coefficient calculating unit; and a coefficient synthesizing unit that calculates a third coefficient used for white balance adjustment of the imaging signal based on the first coefficient and the second coefficient.

また、本実施形態の一実施形態によれば、ホワイトバランス調整機構は、例えば、撮像信号に基づく被写体像中の無彩色近傍の領域を抽出する無彩色検出部を更に備える。この場合、第2の係数算出部は、無彩色近傍の領域の色評価値に基づいて第2の係数を算出する。   Further, according to an embodiment of the present embodiment, the white balance adjustment mechanism further includes, for example, an achromatic color detection unit that extracts a region near the achromatic color in the subject image based on the imaging signal. In this case, the second coefficient calculation unit calculates the second coefficient based on the color evaluation value of the region near the achromatic color.

本実施形態の一実施形態によれば、ホワイトバランス調整方法は、被写体からの光束に基づいて生成された撮像信号を記憶する撮像信号記憶ステップと、撮像信号に基づく被写体像中の肌領域を検出する肌検出ステップと、被写体像のうち肌領域の色評価値から、独立成分を抽出する独立成分抽出ステップと、独立成分の分布を特徴づける統計量を算出する統計量算出ステップと、統計量に基づいて肌領域の特徴量を算出する特徴量算出ステップと、特徴量を用いて、撮像信号のホワイトバランス調整に用いる第1の係数を算出する第1の係数算出ステップと、を含む。   According to an embodiment of the present embodiment, the white balance adjustment method includes an imaging signal storing step for storing an imaging signal generated based on a light flux from a subject, and detecting a skin area in the subject image based on the imaging signal. A skin detection step, an independent component extraction step for extracting an independent component from a color evaluation value of a skin area of the subject image, a statistic calculation step for calculating a statistic characterizing the distribution of the independent component, and a statistic A feature amount calculating step for calculating a feature amount of the skin region based on the image data; and a first coefficient calculating step for calculating a first coefficient used for white balance adjustment of the imaging signal using the feature amount.

本実施形態の一実施形態によれば、ホワイトバランス調整プログラムは、被写体からの光束に基づいて生成された撮像信号を記憶する撮像信号ステップと、撮像信号に基づく被写体像中の肌領域を検出する肌検出ステップと、被写体像のうち肌領域の色評価値から、独立成分を抽出する独立成分抽出ステップと、独立成分の分布を特徴づける統計量を算出する統計量算出ステップと、統計量に基づいて肌領域の特徴量を算出する特徴量算出ステップと、特徴量を用いて、撮像信号のホワイトバランス調整に用いる第1の係数を算出する第1の係数算出ステップと、を含む方法をコンピュータに実行させるためのプログラムである。   According to an embodiment of the present embodiment, the white balance adjustment program detects an imaging signal step for storing an imaging signal generated based on a light flux from a subject, and a skin area in the subject image based on the imaging signal. Based on the statistic, a skin detection step, an independent component extraction step for extracting an independent component from the color evaluation value of the skin area of the subject image, a statistic calculation step for calculating a statistic characterizing the distribution of the independent component A method including: a feature amount calculating step of calculating a feature amount of the skin region; and a first coefficient calculating step of calculating a first coefficient used for white balance adjustment of the imaging signal using the feature amount. This is a program to be executed.

本実施形態の一実施形態によれば、撮影装置は、被写体からの光束に基づいて生成された撮像信号を生成する撮像部と、撮像信号に基づく被写体像中の肌領域を検出する肌検出部と、被写体像のうち肌領域の色評価値から、独立成分を抽出する独立成分抽出部と、独立成分の分布を特徴づける統計量を算出する統計量算出部と、統計量に基づいて肌領域の特徴量を算出する特徴量算出部と、特徴量を用いて、撮像信号のホワイトバランス調整に用いる第1の係数を算出する第1の係数算出部と、を備える。   According to one embodiment of the present embodiment, an imaging device includes an imaging unit that generates an imaging signal generated based on a light flux from a subject, and a skin detection unit that detects a skin region in a subject image based on the imaging signal An independent component extraction unit that extracts an independent component from a color evaluation value of the skin region of the subject image, a statistic calculation unit that calculates a statistic that characterizes the distribution of the independent component, and a skin region based on the statistic And a first coefficient calculation unit that calculates a first coefficient used for white balance adjustment of the image pickup signal using the feature quantity.

本実施形態によれば、処理負荷を大きくすることなく、人物の肌の色の個人差を考慮したホワイトバランス調整を行うのに好適なホワイトバランス調整装置、ホワイトバランス調整方法、ホワイトバランス調整プログラム及び撮影装置が提供される。   According to the present embodiment, a white balance adjustment device, a white balance adjustment method, a white balance adjustment program, and a white balance adjustment suitable for performing white balance adjustment in consideration of individual differences in human skin color without increasing processing load An imaging device is provided.

図1は、本発明の実施形態における撮影装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a photographing apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態におけるホワイトバランス調整処理にかかるフローチャートである。FIG. 2 is a flowchart according to white balance adjustment processing according to the embodiment of the present invention. 図3は、本発明の実施形態における通常ホワイトバランス調整処理にかかるフローチャートである。FIG. 3 is a flowchart according to the normal white balance adjustment processing in the embodiment of the present invention. 図4は、本発明の実施形態におけるCxCyBv色空間及び光源判定領域を示す図である。FIG. 4 is a diagram showing a CxCyBv color space and a light source determination area in the embodiment of the present invention. 図5は、本発明の実施形態における肌色ホワイトバランス調整処理にかかるフローチャートである。FIG. 5 is a flowchart according to the flesh color white balance adjustment process in the embodiment of the present invention. 図6は、本発明の実施形態における人物の顔を含む被写体像の一例である。FIG. 6 is an example of a subject image including a human face in the embodiment of the present invention. 図7は、本発明の実施形態におけるCxCyBv色空間及び肌色判定領域を示す図である。FIG. 7 is a diagram showing a CxCyBv color space and a skin color determination area in the embodiment of the present invention. 図8は、本発明の実施形態におけるメラニン色素成分とヘモグロビン色素成分を軸とする平面を示す図である。FIG. 8 is a diagram showing a plane with the melanin pigment component and the hemoglobin pigment component as axes in the embodiment of the present invention. 図9は、本発明の実施形態におけるメラニン色素成分とヘモグロビン色素成分を軸とする平面を示す図及び各成分の発生頻度を示すグラフである。FIG. 9 is a diagram showing a plane with the melanin pigment component and the hemoglobin pigment component as axes in the embodiment of the present invention, and a graph showing the frequency of occurrence of each component. 図10は、本発明の実施形態におけるメラニン色素成分とヘモグロビン色素成分を軸とする平面を示す図及び各成分の発生頻度を示すグラフである。FIG. 10 is a diagram showing a plane with the melanin pigment component and hemoglobin pigment component as axes in the embodiment of the present invention, and a graph showing the frequency of occurrence of each component.

以下、本発明の実施形態について図面を参照しながら説明する。以下においては、本発明の一実施形態として、デジタル一眼レフカメラについて説明する。なお、本発明の実施形態は、デジタル一眼レフカメラに限らず、例えば、ミラーレス一眼カメラ、コンパクトデジタルカメラ、カムコーダ、タブレット端末、PHS(Personal Handy phone System)、スマートフォン、フィーチャフォン、携帯ゲーム機など、ホワイトバランス調整機能を有する別の形態の装置に置き換えてもよい。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, a digital single lens reflex camera will be described as an embodiment of the present invention. The embodiments of the present invention are not limited to digital single-lens reflex cameras, but include, for example, mirrorless single-lens cameras, compact digital cameras, camcorders, tablet terminals, PHS (Personal Handy phone System), smartphones, feature phones, portable game machines, and the like. The apparatus may be replaced with another type of apparatus having a white balance adjustment function.

[撮影装置1の構成]
図1は、本実施形態の撮影装置1の構成を示すブロック図である。図1に示されるように、撮影装置1は、システムコントローラ100、操作部102、駆動回路104、撮影レンズ106、絞り108、シャッタ110、撮像素子112、撮像素子駆動回路114、画像処理エンジン116、バッファメモリ118、カード用インタフェース120、LCD(Liquid Crystal Display)制御回路122、LCD124及びROM(Read Only Memory)126を備えている。
[Configuration of the photographing apparatus 1]
FIG. 1 is a block diagram showing a configuration of the photographing apparatus 1 of the present embodiment. As shown in FIG. 1, the photographing apparatus 1 includes a system controller 100, an operation unit 102, a drive circuit 104, a photographing lens 106, a diaphragm 108, a shutter 110, an image sensor 112, an image sensor drive circuit 114, an image processing engine 116, A buffer memory 118, a card interface 120, an LCD (Liquid Crystal Display) control circuit 122, an LCD 124, and a ROM (Read Only Memory) 126 are provided.

操作部102には、電源スイッチやレリーズスイッチ、撮影モードスイッチなど、ユーザが撮影装置1を操作するために必要な各種スイッチが含まれる。ユーザにより電源スイッチが押されると、図示省略されたバッテリから撮影装置1の各種回路に電源ラインを通じて電源供給が行われる。システムコントローラ100は電源供給後、ROM126にアクセスして制御プログラムを読み出してワークエリア(不図示)にロードし、ロードされた制御プログラムを実行することにより、撮影装置1全体の制御を行う。   The operation unit 102 includes various switches necessary for the user to operate the photographing apparatus 1, such as a power switch, a release switch, and a photographing mode switch. When the user presses the power switch, power is supplied from the battery (not shown) to the various circuits of the photographing apparatus 1 through the power line. After supplying power, the system controller 100 accesses the ROM 126, reads out a control program, loads it into a work area (not shown), and executes the loaded control program to control the entire photographing apparatus 1.

レリーズスイッチが操作されると、システムコントローラ100は、撮影装置1に内蔵されたTTL(Through The Lens)露出計(不図示)で測定された測光値に基づき適正露出が得られるように、駆動回路104を介して絞り108及びシャッタ110を駆動制御する。より詳細には、絞り108及びシャッタ110の駆動制御は、プログラムAE(Automatic Exposure)、シャッタ速度優先AE、絞り優先AEなど、撮影モードスイッチにより指定されるAE機能に基づいて行われる。また、システムコントローラ100はAE制御と併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、位相差検出方式、コントラスト検出方式等が適用される。なお、この種のAE及びAFの構成及び制御については周知であるため、ここでの詳細な説明は省略する。   When the release switch is operated, the system controller 100 includes a drive circuit so that an appropriate exposure is obtained based on a photometric value measured by a TTL (Through The Lens) exposure meter (not shown) built in the photographing apparatus 1. The diaphragm 108 and the shutter 110 are driven and controlled via 104. More specifically, drive control of the aperture 108 and the shutter 110 is performed based on an AE function designated by a shooting mode switch, such as a program AE (Automatic Exposure), shutter speed priority AE, aperture priority AE, or the like. Further, the system controller 100 performs AF (Autofocus) control together with AE control. An active method, a phase difference detection method, a contrast detection method, or the like is applied to the AF control. Since the configuration and control of this type of AE and AF are well known, detailed description thereof is omitted here.

被写体からの光束は、撮影レンズ106、絞り108、シャッタ110を通過して撮像素子112により受光される。撮像素子112は、例えばベイヤ型画素配置を有する単板式カラーCCD(Charge Coupled Device)イメージセンサであり、受光面上の各画素で結像した光学像を光量に応じた電荷として蓄積して、R(Red)、G(Green)、B(Blue)の各色に応じた撮像信号に変換し撮像素子駆動回路114に出力する。なお、撮像素子112は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の他のイメージャであってもよい。   The light flux from the subject passes through the photographing lens 106, the diaphragm 108, and the shutter 110 and is received by the image sensor 112. The image sensor 112 is, for example, a single-plate color CCD (Charge Coupled Device) image sensor having a Bayer-type pixel arrangement, and accumulates an optical image formed by each pixel on the light receiving surface as a charge corresponding to the amount of light. The image signal is converted into an image signal corresponding to each color of (Red), G (Green), and B (Blue) and output to the image sensor driving circuit 114. Note that the image sensor 112 may be another imager such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

撮像素子駆動回路114は、撮像素子112から入力される撮像信号に対してクランプ、デモザイク等の所定の信号処理を施して、画像処理エンジン116に出力する。画像処理エンジン116は、撮像素子駆動回路114から入力される撮像信号に対してホワイトバランス調整、Y/C分離等の所定の信号処理を施して輝度信号Y、色差信号Cb、Crを生成し、JPEG(Joint Photographic Experts Group)等の所定のフォーマットで圧縮する。バッファメモリ118は、画像処理エンジン116による処理の実行時、処理データの一時的な保存場所として用いられる。   The imaging element driving circuit 114 performs predetermined signal processing such as clamping and demosaicing on the imaging signal input from the imaging element 112 and outputs the processed signal to the image processing engine 116. The image processing engine 116 performs predetermined signal processing such as white balance adjustment and Y / C separation on the imaging signal input from the imaging element driving circuit 114 to generate a luminance signal Y and color difference signals Cb and Cr, The image is compressed in a predetermined format such as JPEG (Joint Photographic Experts Group). The buffer memory 118 is used as a temporary storage location for processing data when the image processing engine 116 executes processing.

カード用インタフェース120のカードスロットには、メモリカード200が着脱可能に差し込まれている。画像処理エンジン116は、カード用インタフェース120を介してメモリカード200と通信可能である。画像処理エンジン116は、生成された圧縮画像信号(撮影画像データ)をメモリカード200(又は撮影装置1に備えられる不図示の内蔵メモリ)に保存する。   A memory card 200 is detachably inserted into a card slot of the card interface 120. The image processing engine 116 can communicate with the memory card 200 via the card interface 120. The image processing engine 116 stores the generated compressed image signal (captured image data) in the memory card 200 (or a built-in memory (not shown) provided in the image capturing apparatus 1).

また、画像処理エンジン116は、生成された輝度信号Y、色差信号Cb、Crをフレームメモリ(不図示)にフレーム単位でバッファリングする。画像処理エンジン116は、バッファリングされた信号を所定のタイミングで各フレームメモリから掃き出して所定のフォーマットのビデオ信号に変換し、LCD制御回路122に出力する。LCD制御回路122は、画像処理エンジン116から入力される画像信号を基に液晶を変調制御する。これにより、被写体の撮影画像がLCD124の表示画面に表示される。ユーザは、AE制御及びAF制御に基づいて適正な輝度及びピントで撮影されたリアルタイムのスルー画を、LCD124の表示画面を通じて視認することができる。   Further, the image processing engine 116 buffers the generated luminance signal Y and color difference signals Cb and Cr in a frame memory (not shown) in units of frames. The image processing engine 116 sweeps the buffered signal from each frame memory at a predetermined timing, converts it into a video signal of a predetermined format, and outputs it to the LCD control circuit 122. The LCD control circuit 122 modulates and controls the liquid crystal based on the image signal input from the image processing engine 116. Thereby, the photographed image of the subject is displayed on the display screen of the LCD 124. The user can view through the display screen of the LCD 124 a real-time through image captured with appropriate brightness and focus based on AE control and AF control.

画像処理エンジン116は、ユーザにより撮影画像の再生操作が行われると、操作により指定された撮影画像データをメモリカード200又は内蔵メモリから読み出して所定のフォーマットの画像信号に変換し、LCD制御回路122に出力する。LCD制御回路122が画像処理エンジン116から入力される画像信号を基に液晶を変調制御することで、被写体の撮影画像がLCD124の表示画面に表示される。   When the user performs a playback operation of the captured image, the image processing engine 116 reads the captured image data specified by the operation from the memory card 200 or the built-in memory, converts the image data into an image signal of a predetermined format, and the LCD control circuit 122. Output to. The LCD control circuit 122 performs modulation control on the liquid crystal based on the image signal input from the image processing engine 116, so that a captured image of the subject is displayed on the display screen of the LCD 124.

[ホワイトバランス調整処理]
次に、画像処理エンジン116による、撮像素子駆動回路114から入力される信号に対して施される信号処理について説明する。図2は、画像処理エンジン116によるホワイトバランス調整処理に係るフローチャートを示す。図2に示されるように、ホワイトバランス調整処理では、通常ホワイトバランス係数算出処理S101、肌色ホワイトバランス係数算出処理S102、ホワイトバランス係数合成処理S103、ホワイトバランス調整処理S104が実行される。
[White balance adjustment processing]
Next, signal processing performed on the signal input from the image sensor driving circuit 114 by the image processing engine 116 will be described. FIG. 2 shows a flowchart relating to white balance adjustment processing by the image processing engine 116. As shown in FIG. 2, in the white balance adjustment process, a normal white balance coefficient calculation process S101, a flesh color white balance coefficient calculation process S102, a white balance coefficient synthesis process S103, and a white balance adjustment process S104 are executed.

通常ホワイトバランス係数算出処理S101では、撮像素子112から出力され、撮像素子駆動回路114で信号処理が施された撮像信号R、G、Bに基づいて被写体像から無彩色と推定される領域が抽出される。次いで、抽出した無彩色の被写体像を使用して周知のホワイトバランス係数(通常ホワイトバランス係数)の算出処理が行われる。肌色ホワイトバランス係数算出処理S102では、被写体像から肌色の領域が抽出され、この肌色の被写体像を使用してホワイトバランス係数(肌色ホワイトバランス係数)の算出処理が行われる。ホワイトバランス係数合成処理S103では、通常ホワイトバランス係数と肌色ホワイトバランス係数が合成され、合成ホワイトバランス係数が算出される。ホワイバランス調整処理S104では、合成ホワイトバランス係数を使用して、撮像信号R、G、Bのホワイトバランスが調整される。 In the normal white balance coefficient calculation processing S101, an achromatic color is estimated from the subject image based on the imaging signals R P , G P , and B P that are output from the imaging device 112 and subjected to signal processing by the imaging device driving circuit 114. Regions are extracted. Next, a known white balance coefficient (normal white balance coefficient) calculation process is performed using the extracted achromatic subject image. In the flesh color white balance coefficient calculation process S102, a flesh color region is extracted from the subject image, and a white balance coefficient (skin color white balance coefficient) calculation process is performed using the flesh color subject image. In the white balance coefficient combining process S103, the normal white balance coefficient and the skin color white balance coefficient are combined to calculate a combined white balance coefficient. In the white balance adjustment process S104, the white balance of the imaging signals R P , G P , and BP is adjusted using the combined white balance coefficient.

[図3(通常ホワイトバランス係数算出処理)]
図3は、通常ホワイトバランス係数算出処理S101のフローチャートを示す。
[FIG. 3 (Normal White Balance Coefficient Calculation Processing)]
FIG. 3 shows a flowchart of the normal white balance coefficient calculation process S101.

[図3のS201(画像分割処理)]
本処理ステップS201では、撮像素子駆動回路114から入力された撮像信号に基づいて、被写体像がm個(mは正の整数)の分割領域に区分けされる。各分割領域は、R、G、Bの色情報(色評価値)を含んでいる。各分割領域の色情報に基づいて、それぞれR、G、Bに対応する色信号R[i]、G[i]、B[i](i=1〜m)が算出される。色信号は、例えば、分割領域内の各画素の色情報を表す信号値の平均値である。
[S201 in FIG. 3 (Image Division Processing)]
In this processing step S201, the subject image is divided into m (m is a positive integer) divided areas based on the imaging signal input from the imaging element driving circuit 114. Each divided region includes R, G, and B color information (color evaluation value). Based on the color information of each divided region, color signals R [i], G [i], and B [i] (i = 1 to m) corresponding to R, G, and B are calculated. The color signal is, for example, an average value of signal values representing the color information of each pixel in the divided area.

[図3のS202(輝度信号生成処理)]
本処理ステップS202では、各分割領域の色信号に基づいて、各分割領域の輝度を表す輝度信号Y[i]が算出される。i番目の分割領域の輝度信号Y[i]は、例えば、ITU−R BT.601規格の輝度信号であり、以下の数式1によって算出される。

Figure 2017147535
なお、輝度信号Y[i]の算出において、各色信号R[i]、G[i]、B[i]にかけられる定数は数式1に示される値に限定されない。この定数は、LCD124の仕様やビデオ信号の規格に応じて適宜変更可能である。 [S202 in FIG. 3 (Luminance Signal Generation Processing)]
In this processing step S202, a luminance signal Y [i] representing the luminance of each divided region is calculated based on the color signal of each divided region. The luminance signal Y [i] of the i-th divided area is, for example, ITU-R BT. This is a luminance signal of 601 standard and is calculated by the following formula 1.
Figure 2017147535
In the calculation of the luminance signal Y [i], the constants applied to the color signals R [i], G [i], and B [i] are not limited to the values shown in Equation 1. This constant can be appropriately changed according to the specification of the LCD 124 and the standard of the video signal.

[図3のS203(被写体輝度算出部)]
本処理ステップS203では、輝度信号Y[i]と、撮影装置1の露出値及び撮像素子112の感度に基づいて、被写体輝度が算出される。被写体が適正な露出値で撮像された場合の被写体輝度をBv、撮像素子112の感度をSv、撮影装置1の露出値をEvと置くと、これらの関係は以下の数式2で表される。

Figure 2017147535
なお、Bv、Sv、Evは何れもAPEX(Additive System of Photographic Exposure)値である。また、露出値Evは、絞り108の絞り値Avと、シャッタ110のシャッタスピードTvの和で表されるため、数式2は次の数式3のように変形できる。
Figure 2017147535
[S203 in FIG. 3 (Subject Luminance Calculation Unit)]
In this processing step S203, the subject brightness is calculated based on the brightness signal Y [i], the exposure value of the photographing apparatus 1 and the sensitivity of the image sensor 112. Assuming that the subject brightness when the subject is imaged with an appropriate exposure value is Bv, the sensitivity of the image sensor 112 is Sv, and the exposure value of the photographing device 1 is Ev, these relationships are expressed by the following Equation 2.
Figure 2017147535
Bv, Sv, and Ev are all APEX (Additive System of Photographic Exposure) values. Further, since the exposure value Ev is expressed by the sum of the aperture value Av of the aperture 108 and the shutter speed Tv of the shutter 110, the equation 2 can be transformed into the following equation 3.
Figure 2017147535

Av、Tv、Svは、駆動回路104及び撮像素子駆動回路114から得られる既知の値であるため、被写体輝度Bvは数式3により算出可能である。しかし、一般的に被写体はさまざまな明るさで撮影されており、数式1で算出された輝度信号Y[i]の値に応じて、被写体輝度Bvを補正する必要がある。例えば、適正露出の定義として、一般社団法人カメラ映像機器工業会により2004年7月に制定された『CIPA DC-004-2004 デジタルカメラの感度規定』が知られている。この感度規定では、8ビット系で輝度信号Y=118を適正露出(標準出力感度)として定めている。これに従い、8ビット系でY=118となるときの輝度信号Y[i]をYbと置くと、各分割領域の輝度信号の適正値からの差分Xv[i]は、次の数式4で表される。

Figure 2017147535
この輝度信号の差分Xv[i]を考慮すると、輝度信号Y[i]によって補正された各分割領域の被写体輝度Bv[i]は、次の数式5のように表される。
Figure 2017147535
なお、被写体輝度Bvの算出方法は、上記方法に限定されない。例えば、被写体輝度Bvの算出方法は、規格、撮影装置1の仕様、被写体の種類に応じて変更してもよい。また、被写体輝度Bvの算出精度を向上するために、被写体像の周辺部に発生する撮像レンズ106によるビネッティング(ケラレ)が補正された上で被写体輝度Bvが算出されてもよい。 Since Av, Tv, and Sv are known values obtained from the drive circuit 104 and the image sensor drive circuit 114, the subject brightness Bv can be calculated by Equation 3. However, generally, the subject is photographed at various brightness levels, and it is necessary to correct the subject brightness Bv according to the value of the brightness signal Y [i] calculated by Equation 1. For example, “CIPA DC-004-2004 Digital Camera Sensitivity Rules” established in July 2004 by the Camera and Imaging Products Association of Japan is known as the definition of appropriate exposure. In this sensitivity specification, the luminance signal Y = 118 is determined as appropriate exposure (standard output sensitivity) in an 8-bit system. Accordingly, if the luminance signal Y [i] when Y = 118 in the 8-bit system is set as Yb, the difference Xv [i] from the appropriate value of the luminance signal in each divided region is expressed by the following Equation 4. Is done.
Figure 2017147535
Considering this luminance signal difference Xv [i], the subject luminance Bv [i] of each divided region corrected by the luminance signal Y [i] is expressed as in the following Equation 5.
Figure 2017147535
Note that the method of calculating the subject brightness Bv is not limited to the above method. For example, the calculation method of the subject luminance Bv may be changed according to the standard, the specification of the photographing apparatus 1, and the type of the subject. Further, in order to improve the calculation accuracy of the subject brightness Bv, the subject brightness Bv may be calculated after correcting the vignetting (vignetting) caused by the imaging lens 106 generated in the peripheral portion of the subject image.

[図3のS204(色信号生成処理)]
本処理ステップS204では、各分割領域の色信号及び輝度信号に基づいて、各分割領域の色温度を表す色信号Cx[i]、色偏差を表す色信号Cy[i]が算出される。Cx[i]、Cy[i]は、例えば、次の数式6によって算出される。

Figure 2017147535
ここで、係数tx1、tx2、ty1、ty2は定数であり、後述する光源推定処理S205において使用される色空間に応じて適宜設定される。また、各色信号Cx[i]、Cy[i]は、色信号R[i]、G[i]、B[i]に所定の係数をかけて足し合わせることによって算出されてもよい。 [S204 in FIG. 3 (color signal generation processing)]
In this processing step S204, a color signal Cx [i] representing the color temperature of each divided area and a color signal Cy [i] representing the color deviation are calculated based on the color signal and luminance signal of each divided area. Cx [i] and Cy [i] are calculated by, for example, Expression 6 below.
Figure 2017147535
Here, the coefficients t x1 , t x2 , t y1 , and t y2 are constants and are appropriately set according to the color space used in the light source estimation process S205 described later. Each color signal Cx [i], Cy [i] may be calculated by adding a predetermined coefficient to the color signals R [i], G [i], B [i].

[図3のS205(光源推定処理)]
本処理ステップS205では、被写体輝度Bv[i]と、色信号Cx[i]、Cy[i]に基づいて、被写体を照明する照明光の色が推定される。詳しくは、本処理ステップS205では、各分割領域が、互いに直交するCx軸、Cy軸、Bv軸で定義される色空間内の座標(Cx[i],Cy[i],Bv[i])にプロットされる。次いで、プロットされた各分割領域が、色空間内に定義された複数の光源判定領域の何れに含まれているかが判定される。
[S205 in FIG. 3 (Light Source Estimation Processing)]
In this processing step S205, the color of the illumination light that illuminates the subject is estimated based on the subject brightness Bv [i] and the color signals Cx [i], Cy [i]. Specifically, in this processing step S205, each divided area has coordinates (Cx [i], Cy [i], Bv [i]) in the color space defined by the Cx axis, the Cy axis, and the Bv axis that are orthogonal to each other. Is plotted in Next, it is determined which of the plurality of light source determination areas defined in the color space is included in each plotted divided area.

図4は、色空間をBv軸方向に沿って見たときのCx-Cy平面を示している。横軸は色温度を表すCx軸であり、縦軸は色偏差を表すCy軸である。色空間は、Cx軸の負方向から正方向に向かうにつれて赤色から青色に変化し、Cy軸の負方向から正方向に向かうにつれてグリーンからマゼンタに変化する。図4において、破線で示される曲線は、黒体放射軌跡である。色空間内には複数の光源判定領域301〜307が3次元的に定義されている。各光源判定領域は、無彩色の被写体を照明する照明光の色に対応している。分割領域が、各光源判定領域の何れかの領域内にプロットされている場合、当該分割領域の被写体像は対応する色の照明光によって照明された無彩色の被写体像であると見做される。そのため、これらの複数の光源判定領域301〜307によって、被写体像のうち、無彩色の領域を抽出すると共に、照明光の光源を推定することができる。   FIG. 4 shows a Cx-Cy plane when the color space is viewed along the Bv axis direction. The horizontal axis is the Cx axis representing the color temperature, and the vertical axis is the Cy axis representing the color deviation. The color space changes from red to blue as it goes from the negative direction of the Cx axis to the positive direction, and changes from green to magenta as it goes from the negative direction of the Cy axis to the positive direction. In FIG. 4, a curve indicated by a broken line is a black body radiation locus. A plurality of light source determination areas 301 to 307 are three-dimensionally defined in the color space. Each light source determination area corresponds to the color of illumination light that illuminates an achromatic subject. When the divided area is plotted in any one of the light source determination areas, the subject image in the divided area is regarded as an achromatic subject image illuminated by the corresponding color illumination light. . Therefore, it is possible to extract an achromatic region from the subject image and to estimate the light source of the illumination light by using the plurality of light source determination regions 301 to 307.

各光源判定領域301〜307のうち、領域301は白熱灯の色又は電球色、領域302は温白色、領域303は太陽光の色又は白色、領域304は曇天時の色又は昼白色、領域305は日陰の色又は昼光色を示している。領域306は、比較的赤味を帯びた(色温度の低い)蛍光灯の色を示し、領域307は、比較的青味を帯びた(色温度の高い)蛍光灯の色を示す。   Of the light source determination areas 301 to 307, the area 301 is an incandescent lamp color or light bulb color, the area 302 is warm white, the area 303 is sunlight color or white, the area 304 is cloudy color or day white, the area 305 Indicates shaded color or daylight color. A region 306 indicates a relatively reddish (low color temperature) fluorescent lamp color, and a region 307 indicates a relatively bluish (high color temperature) fluorescent lamp color.

本処理ステップS205では、各分割領域が光源判定領域301〜307のうち、何れの領域にプロットされているかが判定される。次いで、プロットされた各分割領域の分布に基づいて、照明光の光源が推定される。   In this processing step S205, it is determined in which of the light source determination areas 301 to 307 each divided area is plotted. Next, the light source of the illumination light is estimated based on the plotted distribution of each divided region.

[図3のS206(係数決定処理)]
本処理ステップS206では、推定された光源に基づいて、通常ホワイトバランス係数GRw、GGw、GBwが決定される。これらの通常ホワイトバランス係数は、後述するホワイトバランス調整処理S104で使用される係数である。通常ホワイトバランス係数の決定方法は周知であるため、ここでの詳細な説明は省略する。仮に、ホワイトバランス調整処理S104が、通常ホワイトバランス係数のみを用いて行われる場合、各画素の撮像信号をR、G、B、ホワイトバランス調整後の撮像信号をR´、G´、B´と置くと、調整後の撮像信号R´、G´、B´は次の数式7で表される。

Figure 2017147535
[S206 in FIG. 3 (coefficient determination processing)]
In this processing step S206, normal white balance coefficients G Rw , G Gw , and G Bw are determined based on the estimated light source. These normal white balance coefficients are coefficients used in white balance adjustment processing S104 described later. Since the method for determining the white balance coefficient is generally well known, detailed description thereof is omitted here. If the white balance adjustment process S104 is performed using only the normal white balance coefficient, R P , G P , B P for the imaging signal of each pixel, and R P ′, G P for the imaging signal after white balance adjustment. When placed as ′ and B P ′, the adjusted imaging signals R P ′, G P ′, and B P ′ are expressed by Equation 7 below.
Figure 2017147535

本処理ステップS206で通常ホワイトバランス係数GRw、GGw、GBwが決定されると、通常ホワイトバランス係数算出処理S101が終了し、次の肌色ホワイトバランス係数算出処理S102が実行される。 When the normal white balance coefficients G Rw , G Gw , and G Bw are determined in this processing step S206, the normal white balance coefficient calculation process S101 ends, and the next skin color white balance coefficient calculation process S102 is executed.

[図5(肌色ホワイトバランス係数算出処理)]
図5は、肌色ホワイトバランス係数算出処理S102のフローチャートを示す。
[FIG. 5 (Skin Color White Balance Coefficient Calculation Processing)]
FIG. 5 shows a flowchart of the flesh color white balance coefficient calculation process S102.

[図5のS301(顔検出処理)]
本処理ステップS301では、撮像素子駆動回路114から入力された撮像信号に基づいて、被写体像内の顔検出処理が行われる。顔検出処理のアルゴリズムは周知であるため、ここでの詳細な説明は省略する。また、顔検出処理が施される撮像信号は、撮影画像データとして保存される本露光の撮像信号でもよく、本露光の直前に生成された撮像信号でもよい。
[S301 in FIG. 5 (Face Detection Processing)]
In this processing step S301, face detection processing in the subject image is performed based on the imaging signal input from the imaging element driving circuit 114. Since the algorithm of the face detection process is well known, detailed description thereof is omitted here. Further, the imaging signal subjected to the face detection process may be an imaging signal for main exposure stored as captured image data, or may be an imaging signal generated immediately before main exposure.

通常、撮影装置1は、本露光を行う前に、露出や構図を決定するために被写体を繰り返し撮像し続けている。例えば、デジタル一眼レフカメラでは、ファインダー撮影ではファインダー内に設置された専用のセンサにより被写体を撮像しており、ライブビュー撮影では本露光と同じ撮像素子により被写体を撮像している。この被写体の撮像処理は、本露光が実行される直前まで行われるため、本露光が行われる時刻とその直前の撮像処理が行われる時刻との時間差が十分に小さい場合、この時間差の間の被写体の移動や変化は小さい。従って、本露光の直前に生成された撮像信号を用いて顔検出処理を行うことにより、本露光時と実質的に同じ顔検出結果を得ることができる。また、この場合、本露光後の顔検出処理が不要となるため、本露光にかかる処理負荷や処理時間を抑えることができる。   Usually, the image capturing apparatus 1 continuously captures an image of a subject to determine exposure and composition before performing main exposure. For example, in a digital single-lens reflex camera, a subject is imaged by a dedicated sensor installed in the viewfinder in viewfinder shooting, and a subject is imaged by the same image sensor as in main exposure in live view shooting. Since the subject imaging process is performed until immediately before the main exposure is performed, if the time difference between the time at which the main exposure is performed and the time at which the immediately preceding imaging process is performed is sufficiently small, the subject between the time differences The movement or change is small. Therefore, by performing the face detection process using the imaging signal generated immediately before the main exposure, substantially the same face detection result as in the main exposure can be obtained. Further, in this case, the face detection process after the main exposure is not necessary, so that the processing load and processing time for the main exposure can be suppressed.

[図5のS302(領域対応付け処理)]
本処理ステップS302では、顔検出処理により被写体像内の顔が検出された領域(顔領域)を、画像分割処理S201によって区分けされた分割領域へ対応付ける。詳しくは、本処理ステップS302では、顔領域を含む分割領域に対し、顔領域が含まれていることを示すデータ(ラベル)が追加される。
[S302 in FIG. 5 (region association processing)]
In this process step S302, the area (face area) in which the face in the subject image is detected by the face detection process is associated with the divided area divided by the image division process S201. Specifically, in this processing step S302, data (label) indicating that the face area is included is added to the divided area including the face area.

図6は、人物の顔を含む被写体像の一例を示す。被写体像600は、画像分割処理S201によって複数の(m個の)分割領域に区分けされている。この被写体像600に対し顔検出処理S301及び領域対応付け処理S302が施されると、例えば、図6の実線の太線で囲われた領域610が顔領域であると判定される。この場合、領域610に含まれる分割領域にラベルが追加される。   FIG. 6 shows an example of a subject image including a human face. The subject image 600 is divided into a plurality of (m) divided regions by the image dividing process S201. When face detection processing S301 and region association processing S302 are performed on the subject image 600, for example, it is determined that the region 610 surrounded by the bold solid line in FIG. 6 is a face region. In this case, a label is added to the divided area included in area 610.

[図5のS303(肌色判定処理)]
本処理ステップS303では、領域対応付け処理S302によってラベルが追加された各分割領域が、肌色か否かが判定される。詳しくは、本処理ステップS303では、ラベルが追加された各分割領域の被写体輝度Bv[i]及び色信号Cx[i]、Cy[i]が、色空間内に定義された複数の肌色判定領域の何れに含まれているかが判定される。
[S303 in FIG. 5 (skin color determination processing)]
In this processing step S303, it is determined whether or not each divided region to which a label has been added by the region association processing S302 is a skin color. Specifically, in this processing step S303, the subject luminance Bv [i] and the color signals Cx [i], Cy [i] of each divided area to which the label is added are a plurality of skin color determination areas defined in the color space. It is determined which of these is included.

図7は、色空間をBv軸方向に沿って見たときのCx-Cy平面を示している。横軸は色温度を表すCx軸であり、縦軸は色偏差を表すCy軸である。色空間内には複数の肌色判定領域401〜404が3次元的に定義されている。各肌色判定領域は、肌色の被写体を照明する照明光の色毎に定義されている。   FIG. 7 shows a Cx-Cy plane when the color space is viewed along the Bv axis direction. The horizontal axis is the Cx axis representing the color temperature, and the vertical axis is the Cy axis representing the color deviation. In the color space, a plurality of skin color determination areas 401 to 404 are three-dimensionally defined. Each skin color determination region is defined for each color of illumination light that illuminates a skin color subject.

各肌色判定領域401〜404のうち、領域401は白熱灯、電球色、温白色の何れかの色の光源によって照明された肌色に対応している。領域402は太陽光又は白色光源によって照明された肌色に対応している。領域403は曇天時の肌色、被写体が日陰にある場合の肌色、昼白色又は昼光色の光源で照明された肌色の何れかに対応している。領域404は、蛍光灯等の演色性の悪い光源の光によって照明された肌色に対応している。   Of the skin color determination regions 401 to 404, the region 401 corresponds to a skin color illuminated by a light source of any one of an incandescent lamp, a light bulb color, and warm white. A region 402 corresponds to a skin color illuminated by sunlight or a white light source. An area 403 corresponds to one of a skin color when cloudy, a skin color when the subject is in the shade, and a skin color illuminated with a daylight white or daylight light source. A region 404 corresponds to a skin color illuminated by light from a light source having poor color rendering properties such as a fluorescent lamp.

ラベルが追加された分割領域が、各肌色領域の何れかの領域内にプロットされている場合、当該分割領域の被写体像は対応する光源によって照明された肌色の被写体像であると見做される。一方、ラベルが追加された分割領域が何れの肌色判定領域にも含まれていない場合、当該分割領域のラベルは削除される。この処理により、顔検出処理S301の誤検出によって顔領域と判定された分割領域のラベルが削除される。   When the divided area to which the label is added is plotted in any one of the skin color areas, the subject image of the divided area is regarded as the skin color subject image illuminated by the corresponding light source. . On the other hand, when the divided area to which the label is added is not included in any skin color determination area, the label of the divided area is deleted. With this process, the label of the divided area determined as the face area by the erroneous detection in the face detection process S301 is deleted.

例えば、図6に示す被写体像において、分割領域610Aは、人物の頬の被写体像である。この分割領域610Aは、例えば、図7に示す色空間において、肌色判定領域402内にプロットされる。また、分割領域610Bは、領域対応付け処理S302によってラベルが追加されているが、人物の顔が含まれていない。この分割領域610B内の色が肌色以外の色であった場合、この分割領域610Bは、例えば、図7において、肌色判定領域が外にプロットされる。この場合、肌色判定処理S303により、分割領域610Bのラベルは削除される。   For example, in the subject image shown in FIG. 6, the divided area 610A is a subject image of a person's cheek. This divided area 610A is plotted in the skin color determination area 402 in the color space shown in FIG. Further, although the label is added to the divided area 610B by the area association process S302, the face of the person is not included. When the color in the divided area 610B is a color other than the skin color, for example, the skin color determination area is plotted outside the divided area 610B in FIG. In this case, the label of the divided area 610B is deleted by the skin color determination process S303.

[図5のS304(肌色探索処理)]
本処理ステップS304では、ラベルが追加されている分割領域の周辺の分割領域から、肌色の被写体像に対応する分割領域が探索される。例えば、ラベルが追加され、顔領域が含まれていると判定された分割領域の周辺には、首、肩、腕等の人物の肌を含む被写体像が存在する可能性がある。本処理ステップS304では、ラベルが追加されている分割領域を囲んでいる、ラベルが追加されていない各分割領域の被写体輝度Bv[i]及び色信号Cx[i]、Cy[i]が、色空間内に定義された複数の肌色判定領域401〜404の何れかに含まれているか否かを判定する。肌色判定領域401〜404の何れかに含まれていると判定された分割領域には、ラベルが追加される。これにより、ラベルが追加された分割領域の数が増加し、肌色ホワイトバランス係数の算出精度を向上することができる。
[S304 in FIG. 5 (skin color search processing)]
In this processing step S304, a divided area corresponding to the skin color subject image is searched from the divided areas around the divided area to which the label is added. For example, there is a possibility that a subject image including the skin of a person such as a neck, a shoulder, and an arm exists around a divided region where a label is added and it is determined that a face region is included. In this processing step S304, the subject luminance Bv [i] and the color signals Cx [i] and Cy [i] of each divided area that does not have a label surrounding the divided area to which the label has been added are displayed in color. It is determined whether it is included in any of a plurality of skin color determination areas 401 to 404 defined in the space. Labels are added to the divided areas determined to be included in any of the skin color determination areas 401 to 404. As a result, the number of divided regions to which labels are added increases, and the flesh color white balance coefficient calculation accuracy can be improved.

肌色探索処理S304では、例えば、図6に示す被写体像において、破線の太線で囲われた領域620内の分割領域が、肌色判定領域401〜404に含まれているかの判定が行われる。この領域620内の分割領域のうち、例えば、分割領域620Aは、人物の腕の被写体像であり、複数の肌色判定領域401〜404の何れかに含まれる。そのため、分割領域620Aにはラベルが追加される。   In the skin color search process S304, for example, in the subject image shown in FIG. 6, it is determined whether or not the divided areas in the area 620 surrounded by the broken thick line are included in the skin color determination areas 401 to 404. Of the divided areas in the area 620, for example, the divided area 620A is a subject image of a person's arm and is included in any of the plurality of skin color determination areas 401 to 404. Therefore, a label is added to the divided area 620A.

[図5のS305(独立成分抽出処理)]
本処理ステップS305では、ラベルが追加された分割領域の色信号R[i]、G[i]、B[i]に対し、独立成分の抽出処理が施される。
[S305 in FIG. 5 (independent component extraction processing)]
In this processing step S305, independent component extraction processing is performed on the color signals R [i], G [i], and B [i] of the divided areas to which the labels are added.

人間の皮膚の層構造は、表皮側から、メラニンを主な色素として含有する表皮層と、ヘモグロビンを主な色素として含有する真皮層と、皮下組織とにモデル化できる。また、人間の肌の色は、主にメラニンとヘモグロビンの色素成分に依存していることが分かっている。これらの色素の濃度によって肌色の見え方は異なるが、人間のメラニンとヘモグロビンの色素自体の特性は一般的には個人差は無く、かつ夫々の色素成分は独立に扱うことができる。各分割領域のメラニンに対応する独立成分をM[i]、ヘモグロビンに対応する独立成分をH[i]と置くと、各独立成分は、次の数式8により計算される。

Figure 2017147535
ここで、係数K(K00〜K12)は定数であり、撮影装置1毎に予め設定されて撮影装置1内の記憶領域に記憶されている。 The layer structure of human skin can be modeled from the epidermis side into an epidermal layer containing melanin as a main pigment, a dermis layer containing hemoglobin as a main pigment, and a subcutaneous tissue. It has also been found that the color of human skin mainly depends on the pigment components of melanin and hemoglobin. Although the appearance of the skin color differs depending on the concentration of these pigments, the properties of human melanin and hemoglobin pigments themselves generally have no individual differences, and each pigment component can be handled independently. When an independent component corresponding to melanin in each divided region is M [i] and an independent component corresponding to hemoglobin is H [i], each independent component is calculated by the following Equation 8.
Figure 2017147535
Here, the coefficient K (K 00 to K 12 ) is a constant, and is preset for each photographing apparatus 1 and stored in a storage area in the photographing apparatus 1.

[図5のS306(異常値除去処理)]
本処理ステップS306では、ラベルが追加されている分割領域のうち、肌色ではないと判断される分割領域のラベルが除去される。詳しくは、独立成分M[i]、H[i]のそれぞれに対して上限値及び下限値が設定される。独立成分の値が上限値を越えている分割領域又は下限値を下回っている分割領域は肌色の被写体像を含んでいないと判定され、ラベルが除去される。
[S306 in FIG. 5 (abnormal value removal processing)]
In this processing step S306, the labels of the divided areas determined not to be flesh color are removed from the divided areas to which labels are added. Specifically, an upper limit value and a lower limit value are set for each of the independent components M [i] and H [i]. It is determined that the divided region where the value of the independent component exceeds the upper limit value or the divided region where the value of the independent component is lower than the lower limit value does not include the skin color subject image, and the label is removed.

図8は、ラベルが追加されている分割領域をメラニン色素成分とヘモグロビン色素成分を軸とする平面(M−H平面)にプロットしたものである。図8の横軸はメラニンに対応する独立成分M[i]の大きさを示し、縦軸はヘモグロビンに対応する独立成分H[i]の大きさを示す。ラベルが追加されている分割領域は、何れも肌色と判定された被写体に対応するため、図8では、各分割領域の独立成分は、その平均値(avgM、avgH)付近に集中してプロットされている。しかし、各分割領域は複数の画素を含む領域であるため、各分割領域には、例えば、図6に示される目が含まれる分割領域610C、唇が含まれる分割領域610Dなど、肌色以外の被写体像が含まれている場合がある。このように、肌色以外の被写体を含む分割領域は、図8に示すように、独立成分の平均値から離れた領域にプロットされる。   FIG. 8 is a plot of the divided regions to which labels have been added on a plane (MH plane) with the melanin pigment component and the hemoglobin pigment component as axes. The horizontal axis of FIG. 8 shows the magnitude of the independent component M [i] corresponding to melanin, and the vertical axis shows the magnitude of the independent component H [i] corresponding to hemoglobin. Since the divided areas to which the labels are added correspond to the subject determined to be flesh-colored, in FIG. 8, the independent components of each divided area are concentrated and plotted near their average values (avgM, avgH). ing. However, since each of the divided areas is an area including a plurality of pixels, each of the divided areas includes a subject other than the skin color, such as a divided area 610C including the eyes and a divided area 610D including the lips shown in FIG. May contain an image. As described above, the divided areas including the subject other than the skin color are plotted in an area away from the average value of the independent components as shown in FIG.

異常値除去処理S306では、各独立成分M[i]、H[i]に対し、閾値thM、thHが設定される。閾値thMは、独立成分M[i]の平均値avgMからの差分を表す。また、閾値thHは、独立成分H[i]の平均値avgHからの差分を表す。独立成分M[i]又はH[i]の少なくとも一方が、独立成分の平均値から閾値よりも離れている分割領域は異常(肌色ではない)と判定され、ラベルが除去される。これにより、目、唇、髪等、肌色以外の被写体を含む分割領域が肌色ホワイトバランス係数の決定に使用されることが防止される。   In the abnormal value removal process S306, thresholds thM and thH are set for the independent components M [i] and H [i]. The threshold thM represents a difference from the average value avgM of the independent component M [i]. The threshold thH represents a difference from the average value avgH of the independent component H [i]. A divided region in which at least one of the independent components M [i] and H [i] is farther than the threshold value from the average value of the independent components is determined to be abnormal (not skin color), and the label is removed. As a result, it is possible to prevent a divided region including subjects other than the skin color such as eyes, lips, and hair from being used for determining the skin color white balance coefficient.

なお、異常値除去処理S306では、独立成分の平均値(avgM、avgH)を基準値として、独立成分がこの基準値から離れた所定値以上離れている分割領域が異常と判定されるが、本実施形態はこれに限定されない。例えば、基準値は、複数の分割領域の独立成分を代表する値であればよく、独立成分の最頻値や中央値であってもよい。   In the abnormal value removal processing S306, the average value (avgM, avgH) of the independent components is used as a reference value, and a divided region where the independent component is separated from the reference value by a predetermined value or more is determined to be abnormal. The embodiment is not limited to this. For example, the reference value may be a value that represents an independent component of a plurality of divided regions, and may be a mode value or a median value of the independent component.

[図5のS307(係数決定処理)]
本処理ステップS307では、肌色ホワイトバランス係数GRf、GGf、GBfが決定される。詳しくは、本処理ステップS307では、まず、ラベルが追加された分割領域の独立成分M[i]、H[i]の分布を特徴づける統計量が算出される。次いで、当該統計量に基づいて肌色の特徴量が算出され、この特徴量を用いて肌色ホワイトバランス係数GRf、GGf、GBfが決定される。この肌色ホワイトバランス係数GRf、GGf、GBfを使用してホワイトバランス調整処理を行うことにより、人物の肌色に個人差がある場合においても、撮影画像を適正に調整することができる。
[S307 in FIG. 5 (coefficient determination processing)]
In this process step S307, the skin color white balance coefficients G Rf , G Gf , and G Bf are determined. Specifically, in this processing step S307, first, a statistic characterizing the distribution of the independent components M [i] and H [i] of the divided region to which the label is added is calculated. Next, a skin color feature amount is calculated based on the statistical amount, and the skin color white balance coefficients G Rf , G Gf , and G Bf are determined using the feature amount. By performing the white balance adjustment process using the skin color white balance coefficients G Rf , G Gf , and G Bf , the photographed image can be appropriately adjusted even when there are individual differences in the person's skin color.

上述のように、人物の肌の色は、メラニンとヘモグロビンの色素成分に依存している。そのため、2つの独立成分M[i]、H[i]の値が小さいほど、その被写体像の色に対する色素成分の影響は小さい。また、独立成分M[i]、H[i]の値が小さい被写体像は、相対的に被写体を照明する光の影響を大きく受ける。従って、ホワイトバランス調整処理に使用する係数を決定する際に、肌色と判定された分割領域のうち、独立成分の値M[i]、H[i]が小さい分割領域の寄与を大きくすることにより、人物の肌色に個人差がある場合においても、光源の色に合わせた適正なホワイトバランス調整を行うことができる。   As described above, the skin color of a person depends on the pigment components of melanin and hemoglobin. Therefore, the smaller the values of the two independent components M [i] and H [i], the smaller the influence of the pigment component on the color of the subject image. A subject image having small values of the independent components M [i] and H [i] is relatively greatly affected by light that illuminates the subject. Therefore, when determining the coefficient used for the white balance adjustment process, among the divided areas determined to be skin color, by increasing the contribution of the divided areas where the independent component values M [i] and H [i] are small. Even when there are individual differences in the skin color of a person, it is possible to perform an appropriate white balance adjustment in accordance with the color of the light source.

図9は、異常値除去処理S306後にラベルが追加されている分割領域をM−H平面にプロットしたものである。図9の横軸はメラニンに対応する独立成分M[i]の大きさを示し、縦軸はヘモグロビンに対応する独立成分H[i]の大きさを示す。また、図9には、独立成分M[i]の発生頻度を示すグラフ9Aと、独立成分H[i]の発生頻度を示すグラフ9Bが示されている。グラフ9Aの横軸は独立成分M[i]の値m[j]を示し、縦軸は各値m[j]の発生頻度frq_mを示す。ここで、jは正の整数である。グラフ9Aにおいて、独立成分M[i]の値m[j]は所定の間隔を空けて丸め込まれており、P個の値を取り得る。グラフ9Bの横軸は独立成分H[i]の値h[k]を示し、縦軸は各値h[k]の発生頻度frq_hを示す。ここで、kは正の整数である。グラフ9Bにおいて、独立成分H[i]の値h[k]は所定の間隔を空けて丸め込まれており、Q個の値を取り得る。グラフ9A、9Bに示すように、各独立成分は、平均値付近がピークとなる分布を有している。   FIG. 9 is a plot of the divided areas to which labels have been added after the abnormal value removal process S306 on the MH plane. The horizontal axis in FIG. 9 indicates the size of the independent component M [i] corresponding to melanin, and the vertical axis indicates the size of the independent component H [i] corresponding to hemoglobin. FIG. 9 shows a graph 9A showing the frequency of occurrence of the independent component M [i] and a graph 9B showing the frequency of occurrence of the independent component H [i]. The horizontal axis of the graph 9A indicates the value m [j] of the independent component M [i], and the vertical axis indicates the occurrence frequency frq_m of each value m [j]. Here, j is a positive integer. In the graph 9A, the value m [j] of the independent component M [i] is rounded at a predetermined interval, and can take P values. The horizontal axis of the graph 9B indicates the value h [k] of the independent component H [i], and the vertical axis indicates the occurrence frequency frq_h of each value h [k]. Here, k is a positive integer. In the graph 9B, the value h [k] of the independent component H [i] is rounded at a predetermined interval, and can take Q values. As shown in graphs 9A and 9B, each independent component has a distribution in which the vicinity of the average value has a peak.

係数決定処理S307では、各独立成分M[i]、H[i]の分布を特徴づける統計量に基づいて、独立成分毎に肌色の特徴量biasM、biasHが算出される。特徴量biasM、biasHは、基準となる特徴量biasM0、biasH0からのずれを表す量であり、独立成分の値の低い分割領域の寄与が大きくなるように決定される。特徴量biasM、biasHは、例えば、次の数式9によって算出される。

Figure 2017147535
ここで、avgMは、ラベルが追加された複数の分割領域の独立成分M[i]の平均値である。devMは、ラベルが追加された複数の分割領域の独立成分M[i]の分散である。skwMは、ラベルが追加された複数の分割領域の独立成分M[i]の歪度である。avgHは、ラベルが追加された複数の分割領域の独立成分H[i]の平均値である。devHは、ラベルが追加された複数の分割領域の独立成分H[i]の分散である。skwHは、ラベルが追加された複数の分割領域の独立成分H[i]の歪度である。a1〜a3、及び、b1〜b3は係数であり、予め設定された上で、撮影装置1内の記憶領域に記憶されている。 In the coefficient determination process S307, the skin color feature amounts biasM and biasH are calculated for each independent component based on the statistic characterizing the distribution of the independent components M [i] and H [i]. The feature amounts biasM and biasH are amounts representing deviations from the reference feature amounts biasM 0 and biasH 0 , and are determined so that the contribution of the divided region having a low independent component value becomes large. The feature amounts biasM and biasH are calculated by the following formula 9, for example.
Figure 2017147535
Here, avgM is an average value of the independent components M [i] of a plurality of divided regions to which labels are added. devM is the variance of the independent component M [i] of the plurality of divided regions to which labels are added. skwM is the skewness of the independent component M [i] of a plurality of divided regions to which labels are added. avgH is an average value of the independent components H [i] of a plurality of divided regions to which labels are added. devH is the variance of the independent component H [i] of the plurality of divided regions to which labels are added. skwH is the skewness of the independent component H [i] of a plurality of divided regions to which labels are added. a1 to a3 and b1 to b3 are coefficients, which are set in advance and stored in a storage area in the photographing apparatus 1.

数式9に示すように、特徴量は、独立成分の値の平均値、及び、独立成分の分布の拡がりを示す分散を含んでいる。そのため、ラベルが追加された全ての分割領域を特徴量biasM、biasHの計算に反映させることができる。また、例えば、人物の肌ではないにも拘わらず、肌の色に近い被写体像が存在する場合、異常値除去部36ではこの被写体像を含む分割領域のラベルを除去できない可能性がある。しかし、分散devM、devHを使用して特徴量biasM、biasHを算出することにより、特徴量biasM、biasHへの比較的数(頻度)の少ない人物の肌以外の被写体像の影響を抑えることができる。   As shown in Expression 9, the feature amount includes an average value of the values of the independent components and a variance indicating the spread of the distribution of the independent components. Therefore, all the divided areas to which labels are added can be reflected in the calculation of the feature amounts biasM and biasH. Further, for example, when there is a subject image close to the color of the skin even though it is not a person's skin, the abnormal value removal unit 36 may not be able to remove the label of the divided region including the subject image. However, by calculating the feature amounts biasM and biasH using the variances devM and devH, the influence of subject images other than the skin of a relatively small number (frequency) of the feature amounts biasM and biasH can be suppressed. .

また、数式9に示すように、特徴量biasM、biasHはそれぞれ、分布の非対称性を示す歪度skwM、skwHを含んでいる。歪度skwM、skwHは、分布のピークが独立成分の値の小さい方にシフトし、値の大きい方へ裾が伸びている場合に正の値を取る。反対に、歪度skwM、skwHは、分布のピークが独立成分の値の大きい方にシフトし、値の小さい方へ裾が伸びている場合に負の値を取る。そのため、歪度skwM、skwHが正の値を取っている場合、独立成分は比較的小さい値に集中しており、光源の色に対して高い相関を有する。従って、係数a1〜a3、b1〜b3を適切に設定することにより、特徴量biasM、biasHに対する、独立成分の値が平均値よりも小さい分割領域の寄与を大きくすることができる。これにより、光源の色に対する相関が高く、人の肌の色の個人差の影響を抑えた特徴量biasM、biasHを算出することができる。   Further, as shown in Expression 9, the feature quantities biasM and biasH include skewness skewwM and skwH indicating the asymmetry of the distribution, respectively. The skewness skwM and skwH take positive values when the distribution peak shifts to the smaller independent component value and the skirt extends toward the larger value. On the other hand, the skewness skwM and skwH take negative values when the distribution peak shifts toward the larger independent component value and the tail extends toward the smaller value. Therefore, when the skewness skwM and skwH have positive values, the independent components are concentrated on a relatively small value and have a high correlation with the color of the light source. Therefore, by appropriately setting the coefficients a1 to a3 and b1 to b3, it is possible to increase the contribution of the divided regions whose independent component values are smaller than the average value to the feature amounts biasM and biasH. Thereby, it is possible to calculate the feature amounts biasM and biasH that have a high correlation with the color of the light source and suppress the influence of individual differences in human skin color.

なお、特徴量biasM、biasHの算出方法は数式9に限定されない。例えば、特徴量biasM、biasHは、独立成分の加重平均によって算出されてもよい。この場合、特徴量biasM、biasHは、次の数式10によって算出される。

Figure 2017147535
ここで、wgt_m[j]、wgt_h[k]はそれぞれ、frq_m[j]、frq_h[k]に掛けられる係数であり、予め設定された上で撮影装置1内の記憶領域に記憶されている。 Note that the method of calculating the feature amounts biasM and biasH is not limited to Equation 9. For example, the feature amounts biasM and biasH may be calculated by a weighted average of independent components. In this case, the feature amounts biasM and biasH are calculated by the following Expression 10.
Figure 2017147535
Here, wgt_m [j] and wgt_h [k] are coefficients multiplied by frq_m [j] and frq_h [k], respectively, which are set in advance and stored in a storage area in the photographing apparatus 1.

数式10では、特徴量biasM、biasHは、独立成分の発生頻度を、独立成分M[j]、H[k]の値に応じて重み付けを行って足し合わせることにより算出される。そのため、特徴量biasM、biasHの計算にラベルが追加された全ての分割領域を反映させることができる。また、値の小さい独立成分に対する係数wgt_m[j]、wgt_h[k]を大きくすることにより、光源の色との相関の高く、人の肌の色の個人差の影響を抑えた特徴量biasM、biasHを算出することができる。   In Equation 10, the feature quantities biasM and biasH are calculated by weighting the occurrence frequency of the independent components according to the values of the independent components M [j] and H [k]. Therefore, it is possible to reflect all the divided areas to which labels have been added in the calculation of the feature amounts biasM and biasH. Further, by increasing the coefficients wgt_m [j] and wgt_h [k] for the independent component having a small value, the feature amount biasM having a high correlation with the color of the light source and suppressing the influence of individual differences in the color of the human skin. biasH can be calculated.

図9には、数式9又は数式10によって算出された特徴量が座標(biasM, biasH)にプロットされている。また、図9には、基準となる特徴量が座標(biasM0, biasH0)にプロットされている。基準となる特徴量biasM0, biasH0は、基準光源によって照明された肌色の被写体の独立成分であり、予め決定された上で撮影装置1の記憶領域に記憶されている。なお、基準となる特徴量biasM0、biasH0は、固定ではなく、変更可能であってもよい。例えば、基準となる特徴量biasM0, biasH0は、ラベルが追加された分割領域が、図7に示す複数の肌色判定領域401〜404のうち、何れに多く含まれているかに応じて変更されてもよい。 In FIG. 9, the feature amounts calculated by Equation 9 or Equation 10 are plotted on the coordinates (biasM, biasH). Further, in FIG. 9, the reference feature quantity is plotted on the coordinates (biasM 0 , biasH 0 ). The reference feature amounts biasM 0 and biasH 0 are independent components of the skin-colored object illuminated by the reference light source, and are determined in advance and stored in the storage area of the photographing apparatus 1. Note that the reference feature amounts biasM 0 and biasH 0 are not fixed and may be changed. For example, the reference feature amounts biasM 0 and biasH 0 are changed depending on which of the plurality of skin color determination regions 401 to 404 shown in FIG. May be.

係数決定処理S307では、特徴量biasM、biasHが算出されると、これに基づいて肌色ホワイトバランス係数GRf、GGf、GBfが算出される。詳しくは、係数決定部37は、まず、次の数式11により、独立成分の特徴量の差分(biasM-biasM0、biasH-biasH0)をRGB空間に変換する。

Figure 2017147535
これにより、撮影された被写体像と基準となる肌色の被写体像との差分を表す色信号rstR、rstG、rstBが求められる。次に、数式12により、肌色ホワイトバランス係数GRf、GGf、GBfが計算される。
Figure 2017147535
In the coefficient determination process S307, when the feature amounts biasM and biasH are calculated, skin color white balance coefficients G Rf , G Gf , and G Bf are calculated based on the calculated feature quantities biasM and biasH. Specifically, the coefficient determination unit 37 first converts the difference between the feature amounts of the independent components (biasM−biasM 0 , biasH−biasH 0 ) into the RGB space using the following formula 11.
Figure 2017147535
As a result, color signals rstR, rstG, and rstB representing the difference between the photographed subject image and the reference skin color subject image are obtained. Next, the skin color white balance coefficients G Rf , G Gf , and G Bf are calculated by Expression 12.
Figure 2017147535

係数決定処理S307によって肌色ホワイトバランス係数GRf、GGf、GBfが決定されると、肌色ホワイトバランス係数算出処理S102が終了し、次のホワイトバランス係数合成処理S103が実行される。 When the skin color white balance coefficients G Rf , G Gf , and G Bf are determined by the coefficient determination process S307, the skin color white balance coefficient calculation process S102 ends, and the next white balance coefficient synthesis process S103 is executed.

[図2のS103(ホワイトバランス係数合成処理)]
本処理ステップS103では、通常ホワイトバランス係数算出処理S101で算出された通常ホワイトバランス係数GRw、GGw、GBw、及び、肌色ホワイトバランス係数算出処理S102で算出された肌色ホワイトバランス係数GRf、GGf、GBfに基づいて、本露光に使用する合成ホワイトバランス係数G、G、Gが算出される。合成ホワイトバランス係数G、G、Gは、次の数式13によって算出される。

Figure 2017147535
数式13は、通常ホワイトバランス係数GRw、GGw、GBwを、肌色ホワイトバランス係数GRf、GGf、GBfによって補正するものである。肌色ホワイトバランス係数GRf、GGf、GBfによる補正の度合い(重み)は、定数αによって決まる。定数αは、固定値であってもよく、通常ホワイトバランス係数GRw、GGw、GBw、及び、肌色ホワイトバランス係数GRf、GGf、GBfの信頼度に応じて変更可能であってもよい。 [S103 in FIG. 2 (White Balance Coefficient Synthesis Process)]
In this processing step S103, the normal white balance coefficients G Rw , G Gw , G Bw calculated in the normal white balance coefficient calculation process S101, and the flesh color white balance coefficient G Rf calculated in the flesh color white balance coefficient calculation process S102, G Gf, based on G Bf, synthetic white balance coefficient for use in the present exposure G R, G G, is G B is calculated. The combined white balance coefficients G R , G G , and G B are calculated by the following Expression 13.
Figure 2017147535
Equation 13 corrects the normal white balance coefficients G Rw , G Gw , and G Bw with the skin color white balance coefficients G Rf , G Gf , and G Bf . The degree of correction (weight) by the skin color white balance coefficients G Rf , G Gf , and G Bf is determined by the constant α. The constant α may be a fixed value, and can be changed according to the reliability of the normal white balance coefficients G Rw , G Gw , G Bw , and the flesh color white balance coefficients G Rf , G Gf , G Bf. Also good.

例えば、光源推定処理S205において、分割領域が図4の特定の白色領域に集中して分布している場合、光源の推定精度が高いと考えられる。この場合、通常ホワイトバランス係数GRw、GGw、GBwの信頼度が高く、肌色ホワイトバランス係数による過度な補正は不要と見做されて、定数αが小さな値に設定される。 For example, in the light source estimation process S205, when the divided areas are concentrated and distributed in the specific white area in FIG. 4, it is considered that the light source estimation accuracy is high. In this case, the reliability of the normal white balance coefficients G Rw , G Gw , and G Bw is high, and it is considered that excessive correction with the skin color white balance coefficient is unnecessary, and the constant α is set to a small value.

また、被写体像全体に対し、人物の顔が占める割合が小さい場合、肌色であることを示すラベルが追加された分割領域の数が少なくなり、独立成分の分散が大きくなる。この場合は、肌色ホワイトバランス係数の信頼度が低いと見做されて、定数αが小さな値に設定される。   In addition, when the ratio of the person's face to the entire subject image is small, the number of divided areas to which a label indicating the skin color is added decreases, and the dispersion of independent components increases. In this case, it is considered that the reliability of the flesh color white balance coefficient is low, and the constant α is set to a small value.

更に、光源推定処理S205において、分割領域が図4における複数の白色領域にまたがって分布しており、白色領域間でプロット数に大きな差がない場合は、光源の推定精度が低いと考えられる。この場合、通常ホワイトバランス係数GRw、GGw、GBwの信頼度は低く、肌色ホワイトバランス係数GRf、GGf、GBfによる補正が必要と見做されて、定数αが大きな値に設定される。 Furthermore, in the light source estimation process S205, when the divided areas are distributed over the plurality of white areas in FIG. 4 and there is no significant difference in the number of plots between the white areas, the light source estimation accuracy is considered to be low. In this case, the reliability of the normal white balance coefficients G Rw , G Gw , and G Bw is low, and it is considered that correction by the skin color white balance coefficients G Rf , G Gf , and G Bf is necessary, and the constant α is set to a large value. Is done.

また、合成ホワイトバランス係数の算出方法は、数式13に限定されない。例えば、合成ホワイトバランス係数は、白色ホワイトバランス係数と肌色ホワイトバランス係数を所定の割合で足し合わせたものであってもよい。   Further, the method for calculating the composite white balance coefficient is not limited to Equation 13. For example, the combined white balance coefficient may be a sum of a white white balance coefficient and a skin color white balance coefficient in a predetermined ratio.

[図2のS104(ホワイトバランス調整処理)]
本処理ステップS104では、次の数式14により、撮像信号R、G、Bに対するホワイトバランス調整処理が行われる。

Figure 2017147535
ホワイトバランス調整処理S104によって調整された撮像信号R´、G´、B´は、所定の画像処理が施され、LCD124へのスルー画の表示や、撮影データの生成に使用される。 [S104 in FIG. 2 (White Balance Adjustment Processing)]
In this processing step S104, white balance adjustment processing is performed on the imaging signals R P , G P , and B P according to the following formula 14.
Figure 2017147535
The imaging signals R P ′, G P ′, and B P ′ adjusted by the white balance adjustment processing S104 are subjected to predetermined image processing, and are used for displaying a through image on the LCD 124 and generating shooting data.

このように、本実施形態によれば、被写体像の顔領域の色情報(色評価値)に基づく撮像信号R、G、Bから独立成分が抽出される。独立成分は、人間の肌の色に寄与するメラニンの色素成分M[i]とヘモグロビンの色素成分H[i]を含む。これらの独立成分M[i]、H[i]の分布を特徴づける統計量(独立成分の分散、歪度、加重平均等)に基づいて顔領域の特徴量biasM、biasHが算出され、この特徴量biasM、biasHに基づいて肌色ホワイトバランス係数GRf、GGf、GBfが決定される。肌色ホワイトバランス係数GRf、GGf、GBfを使用して撮像信号に対するホワイトバランス調整処理を行うことにより、撮影画像における人物の肌色を好適に再現することができる。 Thus, according to the present embodiment, independent components are extracted from the imaging signals R P , G P , and B P based on the color information (color evaluation value) of the face area of the subject image. The independent components include a melanin pigment component M [i] and a hemoglobin pigment component H [i] that contribute to the color of human skin. Based on the statistics (distribution of independent components, skewness, weighted average, etc.) that characterize the distribution of these independent components M [i] and H [i], facial region feature amounts biasM and biasH are calculated. Skin color white balance coefficients G Rf , G Gf , and G Bf are determined based on the amounts biasM and biasH. By performing the white balance adjustment process for the image pickup signal using the skin color white balance coefficients G Rf , G Gf , and G Bf , it is possible to suitably reproduce the human skin color in the captured image.

また、本実施形態によれば、例えば、肌色ホワイトバランス係数の算出に使用する被写体像の領域の一部に、人物の肌以外の被写体像が含まれている場合においても、独立成分の統計量を使用して特徴量biasM、biasHを算出することによって人物の肌以外の被写体像が肌色ホワイトバランス係数に与える影響を抑え、適正なホワイトバランス調整を行うことができる。また、本実施形態によれば、独立成分M[i]、H[i]を、その値の大きさに応じてソーティング(並び替え)を行う必要がないため、画像処理エンジン116の処理負荷を抑えつつ、適正なホワイトバランス調整を行うことができる。   In addition, according to the present embodiment, for example, even when a subject image other than human skin is included in a part of the region of the subject image used for calculation of the skin color white balance coefficient, the statistics of the independent component By calculating the feature amounts biasM and biasH using, the influence of the subject image other than the person's skin on the skin color white balance coefficient can be suppressed, and appropriate white balance adjustment can be performed. Further, according to the present embodiment, the independent components M [i] and H [i] do not need to be sorted (rearranged) in accordance with the size of the values, so that the processing load on the image processing engine 116 is reduced. Appropriate white balance adjustment can be performed while suppressing.

以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。   The above is the description of the exemplary embodiments of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the embodiment of the present application also includes an embodiment that is exemplarily specified in the specification or a combination of obvious embodiments and the like as appropriate.

例えば、図5に示す係数決定処理S307において、特徴量biasM、biasHの算出式は数式10に限定されない。特徴量biasM、biasHの算出方法は、ラベルが追加された分割領域の数に応じて変更されてもよい。   For example, in the coefficient determination process S307 illustrated in FIG. 5, the calculation formulas for the feature amounts biasM and biasH are not limited to Formula 10. The calculation method of the feature amounts biasM and biasH may be changed according to the number of divided regions to which labels are added.

図10は、ラベルが追加された分割領域の数が少ない場合の、各分割領域の独立成分をプロットしたものである。図10の横軸はメラニンに対応する独立成分M[i]の大きさを示し、縦軸はヘモグロビンに対応する独立成分H[i]の大きさを示す。また、図10には、独立成分M[i]の発生頻度を示すグラフ10Aと、独立成分H[i]の発生頻度を示すグラフ10Bが示されている。グラフ10Aの横軸は独立成分M[i]の値m[j]を示し、縦軸はその発生頻度frq_mを示す。グラフ10Bの横軸は独立成分H[i]の値h[k]を示し、縦軸はその発生頻度frq_hを示す。   FIG. 10 is a plot of the independent components of each divided region when the number of divided regions to which labels are added is small. The horizontal axis of FIG. 10 indicates the size of the independent component M [i] corresponding to melanin, and the vertical axis indicates the size of the independent component H [i] corresponding to hemoglobin. FIG. 10 also shows a graph 10A showing the frequency of occurrence of the independent component M [i] and a graph 10B showing the frequency of occurrence of the independent component H [i]. The horizontal axis of the graph 10A indicates the value m [j] of the independent component M [i], and the vertical axis indicates the occurrence frequency frq_m. The horizontal axis of the graph 10B indicates the value h [k] of the independent component H [i], and the vertical axis indicates the occurrence frequency frq_h.

図10のグラフ10A、10に示すように、分割領域が少ない場合の独立成分の分布は、図9のグラフ9A、9Bと比較して狭く、その発生頻度が少ない。また、グラフ10Aに示すように、独立成分の分布内において、一度も発生しない値m[l]が発生する場合がある。この場合、独立成分の分散(divM、divH)や歪度(skwM、skwH)の信頼度が低く、適正な特徴量biasM、biasHが得られない可能性がある。   As shown in graphs 10A and 10 in FIG. 10, the distribution of independent components when the number of divided regions is small is narrower than the graphs 9A and 9B in FIG. Also, as shown in the graph 10A, a value m [l] that never occurs may occur in the distribution of independent components. In this case, the reliability of independent component dispersion (divM, divH) and skewness (skwM, skwH) is low, and there is a possibility that appropriate feature amounts biasM, biasH cannot be obtained.

そのため、ラベルが追加された分割領域の数が少ない場合は、例えば、特徴量biasM、biasHをそれぞれ、独立成分の値の平均値avgM、avgHとすることにより、適正な値から大きく外れないようにしてもよい。この場合、基準となる特徴量biasM0、biasH0の値も、特徴量biasM、biasHの算出方法に応じて変更する。 Therefore, when the number of divided regions to which labels are added is small, for example, the feature values biasM and biasH are set to the average values avgM and avgH of the independent component values, respectively, so that they do not greatly deviate from appropriate values. May be. In this case, the values of the reference feature amounts biasM 0 and biasH 0 are also changed according to the calculation method of the feature amounts biasM and biasH.

特徴量biasM、biasHを平均値avgM、avgHとすると、特徴量への値の小さい独立成分の寄与が小さくなり、光源の色と特徴量の相関が低くなる。しかし、信頼度の低い分散や歪度によって特徴量が適正な値から大きく外れてしまうことを防止することができる。なお、特徴量biasM、biasHは、独立成分の値の中央値や最頻値としてもよい。   If the feature amounts biasM and biasH are average values avgM and avgH, the contribution of the independent component having a small value to the feature amount becomes small, and the correlation between the color of the light source and the feature amount becomes low. However, it is possible to prevent the feature amount from deviating from an appropriate value due to low reliability of dispersion or distortion. The feature amounts biasM and biasH may be the median value or the mode value of the independent component values.

1 撮影装置
100 システムコントローラ
102 操作部
104 駆動回路
106 撮影レンズ
108 絞り
110 シャッタ
112 撮像素子
114 撮像素子駆動回路
116 画像処理エンジン
118 バッファメモリ
120 カード用インタフェース
122 LCD制御回路
124 LCD
126 ROM
200 メモリカード
DESCRIPTION OF SYMBOLS 1 Image pick-up apparatus 100 System controller 102 Operation part 104 Drive circuit 106 Shooting lens 108 Aperture 110 Shutter 112 Image sensor 114 Image sensor drive circuit 116 Image processing engine 118 Buffer memory 120 Card interface 122 LCD control circuit 124 LCD
126 ROM
200 memory card

Claims (10)

被写体からの光束に基づいて生成された撮像信号を記憶する撮像信号記憶部と、
前記撮像信号に基づく被写体像中の肌領域を検出する肌検出部と、
前記被写体像のうち前記肌領域の色評価値から、独立成分を抽出する独立成分抽出部と、
前記独立成分の分布を特徴づける統計量を算出する統計量算出部と、
前記統計量に基づいて前記肌領域の特徴量を算出する特徴量算出部と、
前記特徴量を用いて、前記撮像信号のホワイトバランス調整に用いる第1の係数を算出する第1の係数算出部と、
を備える、
ホワイトバランス調整装置。
An imaging signal storage unit that stores an imaging signal generated based on the luminous flux from the subject;
A skin detection unit for detecting a skin region in the subject image based on the imaging signal;
An independent component extraction unit that extracts an independent component from the color evaluation value of the skin region of the subject image;
A statistic calculator that calculates a statistic characterizing the distribution of the independent components;
A feature amount calculator that calculates a feature amount of the skin region based on the statistics,
A first coefficient calculation unit that calculates a first coefficient used for white balance adjustment of the imaging signal using the feature amount;
Comprising
White balance adjustment device.
前記特徴量算出部は、
前記特徴量に対する基準値を設定し、該基準値と該特徴量との差分を検出し、
前記統計量の信頼度に応じて前記特徴量及び前記基準値の算出方法を変更し、
前記第1の係数算出部は、
前記特徴量算出部によって検出された前記差分に基づいて前記第1の係数を算出する、
請求項1に記載のホワイトバランス調整装置。
The feature amount calculation unit includes:
Set a reference value for the feature value, detect a difference between the reference value and the feature value,
Change the calculation method of the feature value and the reference value according to the reliability of the statistic,
The first coefficient calculation unit includes:
Calculating the first coefficient based on the difference detected by the feature amount calculation unit;
The white balance adjustment device according to claim 1.
前記統計量は、複数の前記独立成分の分布の分散、複数の該独立成分の分布の歪度、複数の前記独立成分の加重平均のうち、少なくともいずれか一つを含む、
請求項1又は請求項2に記載のホワイトバランス調整装置。
The statistic includes at least one of distribution of a plurality of independent component distributions, skewness of a plurality of independent component distributions, and a weighted average of the plurality of independent components.
The white balance adjustment apparatus according to claim 1 or 2.
前記統計量算出部は、
複数の前記独立成分の値の代表値を算出し、
複数の前記独立成分から、値が前記代表値から所定値以上離れている独立成分を除外して前記統計量を算出する、
請求項1から請求項3の何れか一項に記載のホワイトバランス調整装置。
The statistic calculator is
Calculating a representative value of a plurality of independent component values;
The statistic is calculated by excluding an independent component whose value is more than a predetermined value from the representative value from a plurality of the independent components,
The white balance adjustment apparatus according to any one of claims 1 to 3.
前記独立成分は、メラニン色素成分とヘモグロビン色素成分を含む、
請求項1から請求項4の何れか一項に記載のホワイトバランス調整装置。
The independent component includes a melanin pigment component and a hemoglobin pigment component,
The white balance adjustment apparatus according to any one of claims 1 to 4.
前記撮像信号の色評価値に基づいて、所定のアルゴリズムにより前記撮像信号のホワイトバランス調整に用いる第2の係数を算出する第2の係数算出部と、
前記第1の係数と第2の係数に基づいて、前記撮像信号のホワイトバランス調整に用いる第3の係数を算出する係数合成部と、
を更に備える、
請求項1から請求項5の何れか一項に記載のホワイトバランス調整装置。
A second coefficient calculation unit that calculates a second coefficient used for white balance adjustment of the imaging signal based on a color evaluation value of the imaging signal by a predetermined algorithm;
A coefficient synthesizer that calculates a third coefficient used for white balance adjustment of the imaging signal based on the first coefficient and the second coefficient;
Further comprising
The white balance adjusting device according to any one of claims 1 to 5.
前記撮像信号に基づく被写体像中の無彩色近傍の領域を抽出する無彩色検出部を更に備え、
前記第2の係数算出部は、前記無彩色近傍の領域の色評価値に基づいて前記第2の係数を算出する、
請求項6に記載のホワイトバランス調整装置。
An achromatic color detecting unit for extracting a region near the achromatic color in the subject image based on the imaging signal;
The second coefficient calculating unit calculates the second coefficient based on a color evaluation value of a region near the achromatic color;
The white balance adjusting device according to claim 6.
被写体からの光束に基づいて生成された撮像信号を記憶する撮像信号記憶ステップと、
前記撮像信号に基づく被写体像中の肌領域を検出する肌検出ステップと、
前記被写体像のうち前記肌領域の色評価値から、独立成分を抽出する独立成分抽出ステップと、
前記独立成分の分布を特徴づける統計量を算出する統計量算出ステップと、
前記統計量に基づいて前記肌領域の特徴量を算出する特徴量算出ステップと、
前記特徴量を用いて、前記撮像信号のホワイトバランス調整に用いる第1の係数を算出する第1の係数算出ステップと、
を含む、
ホワイトバランス調整方法。
An imaging signal storing step for storing an imaging signal generated based on a luminous flux from a subject;
A skin detection step of detecting a skin region in the subject image based on the imaging signal;
An independent component extraction step of extracting an independent component from the color evaluation value of the skin region of the subject image;
A statistic calculating step for calculating a statistic characterizing the distribution of the independent components;
A feature amount calculating step of calculating a feature amount of the skin region based on the statistics,
A first coefficient calculating step for calculating a first coefficient used for white balance adjustment of the imaging signal using the feature amount;
including,
White balance adjustment method.
被写体からの光束に基づいて生成された撮像信号を記憶する撮像信号記憶ステップと、
前記撮像信号に基づく被写体像中の肌領域を検出する肌検出ステップと、
前記被写体像のうち前記肌領域の色評価値から、独立成分を抽出する独立成分抽出ステップと、
前記独立成分の分布を特徴づける統計量を算出する統計量算出ステップと、
前記統計量に基づいて前記肌領域の特徴量を算出する特徴量算出ステップと、
前記特徴量を用いて、前記撮像信号のホワイトバランス調整に用いる第1の係数を算出する第1の係数算出ステップと、
を含む方法をコンピュータに実行させるためのホワイトバランス調整プログラム。
An imaging signal storing step for storing an imaging signal generated based on a luminous flux from a subject;
A skin detection step of detecting a skin region in the subject image based on the imaging signal;
An independent component extraction step of extracting an independent component from the color evaluation value of the skin region of the subject image;
A statistic calculating step for calculating a statistic characterizing the distribution of the independent components;
A feature amount calculating step of calculating a feature amount of the skin region based on the statistics,
A first coefficient calculating step for calculating a first coefficient used for white balance adjustment of the imaging signal using the feature amount;
A white balance adjustment program for causing a computer to execute a method including:
被写体からの光束に基づく撮像信号を生成する撮像部と、
前記撮像信号に基づく被写体像中の肌領域を検出する肌検出部と、
前記被写体像のうち前記肌領域の色評価値から、独立成分を抽出する独立成分抽出部と、
前記独立成分の分布を特徴づける統計量を算出する統計量算出部と、
前記統計量に基づいて前記肌領域の特徴量を算出する特徴量算出部と、
前記特徴量を用いて、前記撮像信号のホワイトバランス調整に用いる第1の係数を算出する第1の係数算出部と、
を備える、
撮影装置。
An imaging unit that generates an imaging signal based on a luminous flux from a subject;
A skin detection unit for detecting a skin region in the subject image based on the imaging signal;
An independent component extraction unit that extracts an independent component from the color evaluation value of the skin region of the subject image;
A statistic calculator that calculates a statistic characterizing the distribution of the independent components;
A feature amount calculator that calculates a feature amount of the skin region based on the statistics,
A first coefficient calculation unit that calculates a first coefficient used for white balance adjustment of the imaging signal using the feature amount;
Comprising
Shooting device.
JP2016026760A 2016-02-16 2016-02-16 White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device Pending JP2017147535A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016026760A JP2017147535A (en) 2016-02-16 2016-02-16 White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016026760A JP2017147535A (en) 2016-02-16 2016-02-16 White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device

Publications (1)

Publication Number Publication Date
JP2017147535A true JP2017147535A (en) 2017-08-24

Family

ID=59681601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016026760A Pending JP2017147535A (en) 2016-02-16 2016-02-16 White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device

Country Status (1)

Country Link
JP (1) JP2017147535A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110012277A (en) * 2019-04-09 2019-07-12 成都品果科技有限公司 A kind of auto white balance method and device for portrait image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009010814A (en) * 2007-06-29 2009-01-15 Fujifilm Corp Image processing device and method, and program, and imaging apparatus and method, and program
JP2011211317A (en) * 2010-03-29 2011-10-20 Olympus Corp Light source detector
JP2012168181A (en) * 2005-08-18 2012-09-06 Qualcomm Inc Systems, methods, and apparatus for image processing for color classification and for skin color detection
JP2015144420A (en) * 2013-12-24 2015-08-06 株式会社リコー Image processing apparatus, image processing system, image processing method, and storage medium
JP2015198438A (en) * 2014-04-03 2015-11-09 キヤノン株式会社 image processing apparatus, image processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168181A (en) * 2005-08-18 2012-09-06 Qualcomm Inc Systems, methods, and apparatus for image processing for color classification and for skin color detection
JP2009010814A (en) * 2007-06-29 2009-01-15 Fujifilm Corp Image processing device and method, and program, and imaging apparatus and method, and program
JP2011211317A (en) * 2010-03-29 2011-10-20 Olympus Corp Light source detector
JP2015144420A (en) * 2013-12-24 2015-08-06 株式会社リコー Image processing apparatus, image processing system, image processing method, and storage medium
JP2015198438A (en) * 2014-04-03 2015-11-09 キヤノン株式会社 image processing apparatus, image processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110012277A (en) * 2019-04-09 2019-07-12 成都品果科技有限公司 A kind of auto white balance method and device for portrait image

Similar Documents

Publication Publication Date Title
JP4217698B2 (en) Imaging apparatus and image processing method
US7084907B2 (en) Image-capturing device
US8488019B2 (en) Image-capturing device, image-capturing method and storage medium storing image-capturing program for generating a wide dynamic range image
JP4678060B2 (en) Imaging apparatus and image processing program
US8493458B2 (en) Image capture apparatus and image capturing method
US20120281110A1 (en) Image processing apparatus and image processing method
JP7129520B2 (en) Image processing device, image processing method, and program
US20210360214A1 (en) Image processing apparatus, image processing method, and storage medium
JP2018205883A (en) Image processing system and image processing method and program
JP2010072619A (en) Exposure operation device and camera
JP6904788B2 (en) Image processing equipment, image processing methods, and programs
US10977777B2 (en) Image processing apparatus, method for controlling the same, and recording medium
US7864860B2 (en) Image pickup apparatus and motion vector deciding method
JP4029206B2 (en) Imaging device
JP4726251B2 (en) Imaging apparatus and image processing method
US8102446B2 (en) Image capturing system and image processing method for applying grayscale conversion to a video signal, and computer-readable recording medium having recorded thereon an image processing program for applying grayscale conversion to a video signal
JP2017147535A (en) White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device
JP5772064B2 (en) Imaging apparatus and image generation program
JP2015119436A (en) Imaging apparatus
JP4885079B2 (en) Digital camera, photographing method and photographing program
JP2018106763A (en) Imaging apparatus
EP4258676A1 (en) Automatic exposure method and electronic device
JP2012160852A (en) Image composition device, imaging device, image composition method, and image composition program
US8121473B2 (en) Imaging apparatus
JP5929019B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160217

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200601