JP2008052428A - Image processing method, image processor, image processing program and imaging device - Google Patents

Image processing method, image processor, image processing program and imaging device Download PDF

Info

Publication number
JP2008052428A
JP2008052428A JP2006226593A JP2006226593A JP2008052428A JP 2008052428 A JP2008052428 A JP 2008052428A JP 2006226593 A JP2006226593 A JP 2006226593A JP 2006226593 A JP2006226593 A JP 2006226593A JP 2008052428 A JP2008052428 A JP 2008052428A
Authority
JP
Japan
Prior art keywords
image processing
image
processing method
flash
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006226593A
Other languages
Japanese (ja)
Inventor
Erika Kanematsu
えりか 兼松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006226593A priority Critical patent/JP2008052428A/en
Publication of JP2008052428A publication Critical patent/JP2008052428A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method appropriately adjusting a white balance even when there are a plurality of illumination light sources. <P>SOLUTION: In the image processing method, an image is acquired, the acquired image is divided into a plurality of regions, and a white balance processing is performed for every divided region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像に対して適切にホワイトバランス処理を行う画像処理方法、画像処理装置、画像処理プログラム、撮像装置に関する。   The present invention relates to an image processing method, an image processing apparatus, an image processing program, and an imaging apparatus that appropriately perform white balance processing on an image.

撮影光源は、日中の屋外であれば太陽の高度に依存してその色温度が変化し、日向と日陰でも色温度が異なる。屋内では蛍光灯や白熱灯など様々な人工照明があり、フラッシュ撮影した場合にはフラッシュ照明と外光の混合光が撮影光源となる。このような様々な撮影光源下で人間の眼は色順応し、分光的に平坦な反射物をほぼ無彩色と感じる。これに合わせて入力装置であるカメラも、RGBのゲインを調整していわゆるホワイトバランスを取っている。通常、撮影光源は未知であるため、撮影照明の種類(色温度)を画像から推定したり、もしくはユーザーが指定したりして、その照明種類に合わせてホワイトバランスを取る。   If the photographic light source is outdoors during the day, its color temperature changes depending on the altitude of the sun, and the color temperature also differs between the sun and the shade. There are various types of artificial lighting such as fluorescent lamps and incandescent lamps indoors. When shooting with flash, mixed light of flash lighting and external light is used as a shooting light source. Under such various photographic light sources, the human eye adapts to color and feels that the spectrally flat reflector is almost achromatic. In accordance with this, the camera as an input device also adjusts the RGB gain to achieve a so-called white balance. Usually, since the photographing light source is unknown, the type (color temperature) of photographing illumination is estimated from the image or designated by the user, and white balance is obtained according to the illumination type.

一方、特許文献1には、フラッシュ撮影した場合、フラッシュ撮影した画像とフラッシュを発光せずに撮影した画像の両方を取得し、画像をブロックごとに分割した上で、2枚の画像の輝度比を比較し、輝度の比が基準レベルより高いブロックをストロボ光に基づいてホワイトバランス調整を行い、基準レベルより低いブロックについては外光に基づきホワイトバランス調整を行う構成が開示されている。   On the other hand, in Patent Document 1, when flash photography is performed, both the image photographed using flash and the image photographed without flash are acquired, and the image is divided into blocks, and then the luminance ratio of the two images is obtained. A configuration is disclosed in which white balance adjustment is performed based on strobe light for blocks whose luminance ratio is higher than a reference level, and white balance adjustment is performed based on external light for blocks lower than the reference level.

特開平8−51632号公報JP-A-8-51632

しかし、2枚の連続した画像を撮影した場合、撮影者自身の手ぶれや被写体の動きによって、画像にぶれが生じる可能性がある。また外光の中で点滅している光源が存在していたり、蛍光灯の様に外光がある周波数でちらついている様な場合には、連射した画像の輝度を比較しても、その輝度の差がストロボ発光による輝度の変化か、それ以外の影響かの判断が難しい。また輝度の差が基準レベルより高い場合はストロボ光でホワイトバランス調整を行う構成となっているが、外光とストロボ光の混合光に調整したホワイトバランス調整を行わないので、色が不自然に調整されてしまう。   However, when two consecutive images are taken, there is a possibility that the image may be shaken due to the camera shake of the photographer himself or the movement of the subject. If there is a flashing light source in the external light, or if the external light is flickering at a certain frequency, such as a fluorescent lamp, the brightness of the fired images is compared. It is difficult to determine whether the difference in brightness is a change in brightness due to flash emission or other effects. If the brightness difference is higher than the reference level, the white balance is adjusted with the strobe light, but the white balance adjustment is not adjusted to the mixed light of the external light and the strobe light, so the colors are unnatural. It will be adjusted.

請求項1の発明は、画像処理方法に適用され、ひとつの画像を取得し、取得したひとつの画像を複数の領域に分割し、分割した領域毎に照明の色に関する情報を設定し、分割した領域毎に、対応する照明の色に関する情報に応じて色補正を行うことを特徴とするものである。
請求項2の発明は、請求項1に記載の画像処理方法において、取得した画像を、モニタに表示された画像上でのユーザーによる指定により複数の領域に分割することを特徴とするものである。
請求項3の発明は、請求項1に記載の画像処理方法において、取得した画像を、被写体までの距離情報を用いて複数の領域に分割することを特徴とするものである。
請求項4の発明は、請求項1に記載の画像処理方法において、取得した画像において人物の顔を認識し、取得した画像を、認識した人物の顔の領域とそれ以外の領域とに分割することを特徴とするものである。
請求項5の発明は、請求項1に記載の画像処理方法において、取得した画像を、主要被写体と背景とに分割することを特徴とするものである。
請求項6の発明は、請求項1に記載の画像処理方法において、取得した画像を、輝度情報に基づき、日向の領域と日陰の領域とに分割することを特徴とするものである。
請求項7の発明は、請求項1に記載の画像処理方法において、取得した画像を、肌色の部分と肌色以外の部分とに分割することを特徴とするものである。
請求項8の発明は、請求項1から7のいずれかに記載の画像処理方法において、分割した複数の領域のそれぞれの照明光源を推定することで、前記照明の色に関する情報を設定することを特徴とするものである。
請求項9の発明は、請求項1から7のいずれかに記載の画像処理方法において、分割した複数の領域のそれぞれについて、ユーザから指定することで、前記照明の色に関する情報を設定することを特徴とするものである。
請求項10の発明は、請求項8に記載の画像処理方法において、前記照明光源の推定には、前記分割した領域ごとの色情報、撮影情報を用いて行うことを特徴とするものである。
請求項11の発明は、請求項3に記載の画像処理方法において、フラッシュ撮影を行ったか否かの撮影情報を取得し、フラッシュ撮影を行っている場合、分割された複数の領域のうち、被写体までの距離情報が所定値以下の領域の照明光源をフラッシュであると推定し、照明光源がフラッシュであると推定された領域について、フラッシュに適したホワイトバランス処理を行うことを特徴とするものである。
請求項12の発明は、請求項4または7に記載の画像処理方法において、フラッシュ撮影を行ったか否かの撮影情報を取得し、フラッシュ撮影を行っている場合、人物の顔の領域または肌色の部分の領域の照明光源をフラッシュであると推定し、照明光源がフラッシュであると推定された領域について、フラッシュに適したホワイトバランス処理を行うことを特徴とするものである。
請求項13の発明は、画像処理プログラムに適用され、請求項1から12のいずれかに記載の画像処理方法をコンピュータに実行させる画像処理プログラムとするものである。
請求項14の発明は、画像処理装置に適用され、請求項13に記載の画像処理プログラムを搭載する画像処理装置とするものである。
請求項15の発明は、撮像装置に適用され、請求項13に記載の画像処理プログラムを搭載する撮像装置とするものである。
The invention of claim 1 is applied to an image processing method, acquires one image, divides the acquired image into a plurality of areas, sets information on the color of illumination for each of the divided areas, and divides the image. For each region, color correction is performed in accordance with information related to the color of the corresponding illumination.
The invention according to claim 2 is the image processing method according to claim 1, wherein the acquired image is divided into a plurality of regions by designation by the user on the image displayed on the monitor. .
According to a third aspect of the present invention, in the image processing method according to the first aspect, the acquired image is divided into a plurality of regions using distance information to the subject.
According to a fourth aspect of the present invention, in the image processing method according to the first aspect, a human face is recognized in the acquired image, and the acquired image is divided into a recognized human face region and other regions. It is characterized by this.
According to a fifth aspect of the present invention, in the image processing method according to the first aspect, the acquired image is divided into a main subject and a background.
According to a sixth aspect of the present invention, in the image processing method according to the first aspect, the acquired image is divided into a sunny area and a shaded area based on the luminance information.
The invention according to claim 7 is the image processing method according to claim 1, wherein the acquired image is divided into a skin color part and a part other than the skin color.
According to an eighth aspect of the present invention, in the image processing method according to any one of the first to seventh aspects, the information regarding the color of the illumination is set by estimating each illumination light source of the plurality of divided regions. It is a feature.
According to a ninth aspect of the present invention, in the image processing method according to any one of the first to seventh aspects, the information regarding the color of the illumination is set by designating each of the plurality of divided areas by a user. It is a feature.
According to a tenth aspect of the present invention, in the image processing method according to the eighth aspect, the illumination light source is estimated using color information and photographing information for each of the divided areas.
The invention according to claim 11 is the image processing method according to claim 3, wherein shooting information as to whether or not flash photography has been performed is acquired, and if flash photography is being performed, the subject is selected from a plurality of divided areas. The illumination light source in the area whose distance information is less than or equal to a predetermined value is estimated to be a flash, and the white balance processing suitable for the flash is performed on the area where the illumination light source is estimated to be a flash. is there.
According to a twelfth aspect of the present invention, in the image processing method according to the fourth or seventh aspect, in the case of acquiring shooting information as to whether or not flash shooting has been performed and performing flash shooting, The illumination light source of the partial area is estimated to be a flash, and white balance processing suitable for the flash is performed on the area where the illumination light source is estimated to be a flash.
The invention of claim 13 is applied to an image processing program, and is an image processing program for causing a computer to execute the image processing method according to any one of claims 1 to 12.
The invention of claim 14 is applied to an image processing apparatus, and is an image processing apparatus equipped with the image processing program of claim 13.
The invention of claim 15 is applied to an image pickup apparatus, and is an image pickup apparatus having the image processing program according to claim 13 mounted thereon.

本発明は以上のように構成しているので、画像全体で色補正が適切に調整され、色再現がよくなる。   Since the present invention is configured as described above, color correction is appropriately adjusted in the entire image, and color reproduction is improved.

−第1の実施の形態−
図1は、本発明の一実施の形態である画像処理装置を示す図である。画像処理装置は、パーソナルコンピュータ1で実現される。パーソナルコンピュータ1は、デジタルカメラ2、CD−ROMなどの記録媒体3、他のコンピュータ4などと接続され、各種の画像データの提供を受ける。パーソナルコンピュータ1は、提供された画像データに対して、以下に説明する画像処理を行う。コンピュータ4は、インターネットやその他の電気通信回線5を経由して接続される。
-First embodiment-
FIG. 1 is a diagram showing an image processing apparatus according to an embodiment of the present invention. The image processing apparatus is realized by the personal computer 1. The personal computer 1 is connected to a digital camera 2, a recording medium 3 such as a CD-ROM, another computer 4, etc., and receives various image data. The personal computer 1 performs image processing described below on the provided image data. The computer 4 is connected via the Internet and other telecommunication lines 5.

パーソナルコンピュータ1が画像処理のために実行するプログラムは、図1の構成と同様に、CD−ROMなどの記録媒体や、インターネットやその他の電気通信回線を経由した他のコンピュータから提供され、パーソナルコンピュータ1内にインストールされる。パーソナルコンピュータ1は、CPU(不図示)およびその周辺回路(不図示)から構成され、CPUがインストールされたプログラムを実行する。   A program executed by the personal computer 1 for image processing is provided from a recording medium such as a CD-ROM or another computer via the Internet or other electric communication line, as in the configuration of FIG. 1 is installed. The personal computer 1 includes a CPU (not shown) and its peripheral circuits (not shown), and executes a program in which the CPU is installed.

本実施の形態のパーソナルコンピュータ1は、撮影された画像に対して、複数の色温度の照明下であっても、適切にホワイトバランスを取る画像処理を行う。具体的には、撮影された画像の画像データに対して画像処理を行うが、以下の説明では、画像に対して画像処理を行うという表現も使用する。   The personal computer 1 according to the present embodiment performs image processing for appropriately white balance the captured image even under illumination with a plurality of color temperatures. Specifically, image processing is performed on image data of a captured image, but in the following description, the expression that image processing is performed on an image is also used.

夕焼けを背景に人物をフラッシュ(ストロボ)撮影した画像のホワイトバランス補正を例に説明する。フラッシュの当っている人物の撮影照明は主に使用したフラッシュであり、フラッシュによる撮影照明の色温度は約5400Kである。しかし、この色温度で画像全体のホワイトバランスを取ると、フラッシュの当たった箇所のホワイトバランスは適切に補正され無彩色は無彩色に、肌色も肌色に再現されるが、背景の夕焼けは赤白く補正され夕焼けの赤さが再現されない。   An example will be described in which white balance correction is performed on an image obtained by flashing a person against a sunset. The shooting illumination of the person who is hit by the flash is the flash used mainly, and the color temperature of the shooting illumination by the flash is about 5400K. However, if the white balance of the entire image is obtained at this color temperature, the white balance of the flashed area is corrected appropriately, the achromatic color is achromatic, and the skin color is reproduced as skin color, but the background sunset is reddish white. The red color of the sunset is not reproduced.

一方、夕焼けの赤が見た時の印象に合うようにホワイトバランスを調整する場合には、色温度をわざと高め(8000K)などに設定すると、全体的に赤く夕焼けに染まった景色を再現できる。しかし、この場合人物まで不自然に赤く染まってしまう。   On the other hand, if you want to adjust the white balance to match the impression of red when you see the sunset, you can intentionally set the color temperature to a high value (8000K), etc., to reproduce the scenery that is colored red and sunset. However, even in this case, the person is dyed unnaturally red.

本実施の形態では、このような複数の照明下の被写体が混在している場合、まず画像の領域を分割する。分割の仕方は、ユーザーが、パーソナルコンピュータ1のモニタに表示された画像を見ながら、人物と背景に分ける様にしてマウス等の入力デバイスを使用して領域分割する。その後、ユーザーは、分割した夫々の領域に色温度や撮影照明の種類を指定し、照明の色に関する情報を設定する。その後、ユーザーが色補正実行ボタンなどをマウスでクリックすると、パーソナルコンピュータ1は、各領域ごとに、指定された色温度や撮影照明の種類に合ったホワイトバランス等の色補正を行う処理を行う。   In the present embodiment, when such a plurality of objects under illumination are mixed, the image area is first divided. As for the division method, the user divides the area using an input device such as a mouse so as to divide the image into a person and a background while viewing the image displayed on the monitor of the personal computer 1. Thereafter, the user designates the color temperature and the type of photographing illumination for each of the divided areas, and sets information regarding the color of the illumination. Thereafter, when the user clicks a color correction execution button or the like with the mouse, the personal computer 1 performs a process of performing color correction such as white balance suitable for the designated color temperature and the type of photographing illumination for each area.

上記の例では、人物と背景の領域に分割すればよい。分割された人物の領域に付いてはフラッシュの色温度を指定するか、撮影照明がフラッシュであることを指定すれば、フラッシュ照明に適したホワイトバランス等の色補正が行われる。背景については、夕焼けの赤さを残す様に夕焼けの色温度より高めの色温度を指定すれば、夕焼けの赤さが残るホワイトバランスが取られる。   In the above example, the image may be divided into a person area and a background area. If the color temperature of the flash is designated for the divided person area or the photographing illumination is designated as a flash, color correction such as white balance suitable for the flash illumination is performed. As for the background, if a color temperature higher than the sunset color temperature is specified so as to leave the redness of the sunset, a white balance in which the red of the sunset remains is obtained.

図2は、本実施の形態のパーソナルコンピュータ1が実行する画像処理プログラムのフローチャートを示す図である。   FIG. 2 is a diagram illustrating a flowchart of an image processing program executed by the personal computer 1 according to the present embodiment.

ステップS1では、デジタルカメラなどで撮影(撮像)した画像(画像データ)を取得する。ステップS2では、取得した画像をパーソナルコンピュータ1のモニタに表示する。   In step S1, an image (image data) taken (captured) with a digital camera or the like is acquired. In step S2, the acquired image is displayed on the monitor of the personal computer 1.

ステップS3では、ユーザーの入力操作に応じて画像を分割する。例えば、ユーザーのマウスの操作によりカーソルを移動させ、そのカーソルの移動の軌跡や画像の外周で閉じられた領域が指定できるようにする。上記で説明した人物と背景の画像の例では、ユーザーが人物の輪郭をカーソルでなぞるようにすれば、その人物が人物の領域として指定できる。背景は、指定されなかった領域をまとめて背景の領域として指定できる。   In step S3, the image is divided according to the user's input operation. For example, the cursor is moved by the user's mouse operation so that the locus of movement of the cursor and the area closed on the outer periphery of the image can be designated. In the example of the person and background image described above, if the user traces the outline of the person with the cursor, the person can be designated as the person area. The background can be designated as a background area by collecting the areas not designated.

また、表示された画像全体を予め複数の格子状の領域に分割し、分割された格子状の領域をマウスなどで適宜選択して1つのまとまった領域として指定できるようにしてもよい。   Alternatively, the entire displayed image may be divided in advance into a plurality of grid areas, and the divided grid areas may be appropriately selected with a mouse or the like so as to be designated as a single area.

ステップS4では、分割領域ごとにホワイトバランス等の色補正を行うための照明の色に関する情報を設定する。本実施の形態では照明の色温度を設定する。ユーザーが、モニタ上で分割領域ごとに色温度を指定することにより行う。色温度の指定は、色温度の具体的な数値を指定させるようにしてもよいし、照明の種類を指定させるようにしてもよい。照明の種類は、例えば、太陽光(日向)、太陽光(日陰)、太陽光(曇天)、フラッシュ、白熱灯、蛍光灯などの中から選択させる。太陽光を太陽の高度などによって分類してもよいし、夕焼けや、朝焼けや、日中などで分類してもよいし、時間帯などで分類してもよい。蛍光灯もさらに蛍光灯の種類で細かく分類してもよい。また、その他の照明を追加してもよい。   In step S4, information about the color of the illumination for performing color correction such as white balance is set for each divided region. In this embodiment, the color temperature of illumination is set. The user designates a color temperature for each divided area on the monitor. The color temperature may be specified by specifying a specific numerical value of the color temperature or by specifying the type of illumination. The type of illumination is selected from, for example, sunlight (sunshine), sunlight (shade), sunlight (cloudy), flash, incandescent lamp, fluorescent lamp, and the like. Sunlight may be classified according to the altitude of the sun, etc., or it may be classified according to sunset, sunrise, daytime, etc., or may be classified according to time of day. Fluorescent lamps may also be further classified according to the type of fluorescent lamp. Moreover, you may add another illumination.

ステップS5では、分割された各領域ごとに、設定された照明の色に関する情報に基づくホワイトバランス処理を行う。領域ごとに設定された色温度が異なれば、領域ごとに異なるホワイトバランス処理が行われることになる。   In step S5, white balance processing is performed for each of the divided areas based on information on the set illumination color. If the color temperature set for each region is different, different white balance processing is performed for each region.

上記では、各領域の照明の色に関する情報はユーザーが指定するようにした。もし、夕焼けの背景に夕焼けの色温度を指定すれば、夕焼けのような赤い光であっても、白は適切に白と見えるようにホワイトバランスが取られる。従って、夕焼けの赤さを残したい場合には、その領域に夕焼けの色温度より高めの色温度を指定する工夫が必要であった。   In the above description, the user specifies information regarding the illumination color of each area. If the color temperature of the sunset is specified for the sunset background, white balance is taken so that the white appears appropriately white even with red light such as sunset. Therefore, when it is desired to retain the redness of the sunset, it is necessary to devise designating a color temperature higher than the color temperature of the sunset in that region.

このような場合に、照明の種類に、夕焼け1、夕焼け2のように複数の照明の種類を指定できるようにしてもよい。そして、夕焼け1が指定されれば、夕焼けのような赤い光であっても、白は適切に白と見えるようにホワイトバランスを取る処理を行い、夕焼け2が指定されれば、夕焼けの赤さを残すようなホワイトバランスを取る処理を行うようにしてもよい。室内の白熱灯も同様である。   In such a case, a plurality of illumination types such as sunset 1 and sunset 2 may be designated as illumination types. If sunset 1 is specified, white balance is processed so that white appears appropriately white even if the light is red like sunset. If sunset 2 is specified, the redness of the sunset is set. It is also possible to perform white balance processing that leaves The same applies to incandescent lamps in the room.

また、ホワイトバランスの様に出力RGB値のゲインを設定する方法以外に、色順応変換を用いて色補正を行ってもよい。色順応変換では、領域毎に照明の色に関する情報を入力し、さらに出力デバイスの白色点を入力して、領域毎に色補正を行う。この方法で対象の照明にどれだけ順応しているかを示す色順応度Dを考慮するようにしてもよい。   In addition to the method of setting the gain of the output RGB value like white balance, color correction may be performed using chromatic adaptation conversion. In the chromatic adaptation conversion, information regarding the color of the illumination is input for each region, and the white point of the output device is further input to perform color correction for each region. You may make it consider the chromatic adaptation degree D which shows how much it adapts to object illumination with this method.

この色順応度は次のような式で表すことができる。
D=F[1-(1/3.6)exp((-LA-42)/92)]
なお、Fは周囲の明るさを示すパラメータ、LAは順応輝度であり、通常、照明輝度の20%を使用する。
This chromatic adaptation can be expressed by the following equation.
D = F [1- (1 / 3.6) exp ((-LA-42) / 92)]
Note that F is a parameter indicating ambient brightness, LA is adaptation luminance, and normally 20% of illumination luminance is used.

上記の夕焼けを背景に人物をフラッシュ撮影した画像例では、主要被写体である人物を切り出した領域に対しては、撮影照明をフラッシュとし、D=1.0として完全順応とする。夕焼けに照らされた背景領域に対しては、撮影照明を夕焼けとし、D<1.0として完全順応させない。このようにすれば、人物に対してはフラッシュ照明において適切に色順応変換が取られ、背景に対しては夕焼けの赤が残る色順応変換が取られる。   In the image example in which a person is flash-photographed against the background of the sunset described above, the shooting illumination is set to flash for the area where the person who is the main subject is cut out, and D = 1.0, which is completely adapted. For the background area illuminated by the sunset, the shooting illumination is sunset and D <1.0 is not fully adapted. In this way, the chromatic adaptation conversion is appropriately performed for the person in the flash illumination, and the chromatic adaptation conversion for the background in which red of the sunset is left is performed.

(1)以上のようにして、本実施の形態では、画像内のどの被写体に付いてもホワイトバランス等の色補正を適切に行うことができ、画像全体で良好な色再現が実現できる。
(2)ユーザーが任意に分割領域を指定でき、色温度や照明の種類も任意に指定できるので、ユーザーの好みに合わしたホワイトバランス等の色補正を行うことができる。
(1) As described above, in this embodiment, color correction such as white balance can be appropriately performed for any subject in an image, and good color reproduction can be realized in the entire image.
(2) Since the user can arbitrarily specify the divided area and can also arbitrarily specify the color temperature and the type of illumination, color correction such as white balance can be performed according to the user's preference.

−第2の実施の形態−
図3は、本発明の一実施の形態である撮像装置であるデジタルカメラ100の構成を示す図である。デジタルカメラ100は、撮影レンズ102、CCDなどからなる撮像素子103、CPUおよび周辺回路からなる制御装置104、メモリ105、レンズ駆動部106、フラッシュユニット107などから構成される。
-Second Embodiment-
FIG. 3 is a diagram showing a configuration of a digital camera 100 that is an imaging apparatus according to an embodiment of the present invention. The digital camera 100 includes a photographing lens 102, an image pickup device 103 including a CCD, a control device 104 including a CPU and peripheral circuits, a memory 105, a lens driving unit 106, a flash unit 107, and the like.

撮像素子103は、被写体101を撮影レンズ102を介して撮影(撮像)し、撮影した画像データを制御装置104へ出力する。制御装置104は、撮像素子103で撮影された画像データに対して以下で説明する画像処理を行い、画像処理後の画像データを適宜メモリ105に格納する。また、制御装置104は、レンズ駆動部106を介して撮影レンズ102を駆動し、被写体までの測距データを取得する。さらに、制御装置104は、フラッシュユニット107を駆動してフラッシュ撮影を行う。なお、制御装置104が実行する画像処理プログラムは、不図示のROMに格納されている。   The image sensor 103 captures (captures) the subject 101 via the photographing lens 102 and outputs the captured image data to the control device 104. The control device 104 performs image processing described below on the image data captured by the image sensor 103 and stores the image data after the image processing in the memory 105 as appropriate. Further, the control device 104 drives the photographing lens 102 via the lens driving unit 106 and acquires distance measurement data up to the subject. Further, the control device 104 drives the flash unit 107 to perform flash photography. Note that the image processing program executed by the control device 104 is stored in a ROM (not shown).

本実施の形態のデジタルカメラ100では、撮像素子103により撮影(撮像)された画像に対して、複数の色温度の照明下であっても、適切にホワイトバランスを取る画像処理が行われる。具体的には、撮影された画像の画像データに対して画像処理を行うが、以下の説明では、撮影された画像に対して画像処理を行うという表現も使用する。   In the digital camera 100 of the present embodiment, image processing for appropriately white balance is performed on an image photographed (captured) by the image sensor 103 even under illumination with a plurality of color temperatures. Specifically, image processing is performed on image data of a captured image, but in the following description, the expression that image processing is performed on a captured image is also used.

本実施の形態について、室内でフラッシュ撮影した場合を例に説明する。白熱灯照明下の室内でフラッシュ撮影した場合、フラッシュの色温度で支配的にホワイトバランスが調整されると、フラッシュの当った被写体(人物等)は完全にホワイトバランスが補正されるが、背景の画像はホワイトバランスがずれており冷たい色調の画像になる。   This embodiment will be described by taking an example of flash photography indoors. When the flash is shot indoors under incandescent lighting, if the white balance is adjusted predominantly according to the color temperature of the flash, the white balance of the subject (such as a person) hit with the flash is completely corrected. The image is white-balanced and has a cold tone.

一方、フラッシュを使わずに撮影した場合は、室内の白熱灯の色温度で支配的にホワイトバランスが補正されるが、暖かみの残る写真に仕上がる。後者の暖かみのある写真の方が好まれ、暗くてぶれやすいと言う欠点が有るにも関わらずフラッシュを使用せずに撮影したり、ノイズを犠牲にしてISO感度を上げてフラッシュを使用しなかったりするユーザーもいる。   On the other hand, when shooting without using a flash, the white balance is corrected predominantly by the color temperature of the incandescent lamp in the room, but the photo is finished with warmth. I prefer the latter warm photos, and shoot without using the flash despite the disadvantage of being dark and blurry, or not using the flash at the expense of noise and increasing the ISO sensitivity Some users do.

本実施の形態では、この様な構図の写真において、フラッシュユニット107によるフラッシュの届かない背景部分は背景領域だけで推定した色温度に対してホワイトバランスを取る。そして、フラッシュの届く近距離被写体領域に対しては、フラッシュの色温度でホワイトバランスを取る。これにより、フラッシュユニット107によりフラッシュを使用して撮影した画像についても適切なホワイトバランスを取ることができる。   In the present embodiment, in a photo having such a composition, the background portion where the flash unit 107 does not reach the flash takes a white balance with respect to the color temperature estimated only from the background area. For a short-distance subject area where the flash reaches, a white balance is obtained at the color temperature of the flash. As a result, an appropriate white balance can be obtained even for an image captured by the flash unit 107 using the flash.

図4は、室内でフラッシュ撮影した場合の構図を示す図である。図5は、撮影画像を5×5に分割した様子を示す図である。   FIG. 4 is a diagram showing a composition when flash photography is performed indoors. FIG. 5 is a diagram showing a captured image divided into 5 × 5.

本実施の形態では、図5に示す5×5に分割した各領域で被写体までの距離を測距する。測距は、デジタルカメラの測距機能を用いる。例えば、オートフォーカスで用いるコントラスト法を用いる。具体的には、制御装置104はレンズ駆動部106を制御し、撮影レンズ102の合焦レンズを至近側から無限縁側まで所定の分解能で駆動する。そして、撮影レンズ102の合焦レンズを至近側から無限縁側まで駆動する間、画像の5×5に分割した各領域で焦点評価値を取得する。   In the present embodiment, the distance to the subject is measured in each of the 5 × 5 areas shown in FIG. The distance measurement uses the distance measurement function of the digital camera. For example, a contrast method used in autofocus is used. Specifically, the control device 104 controls the lens driving unit 106 to drive the focusing lens of the photographing lens 102 from the closest side to the infinite edge side with a predetermined resolution. Then, while driving the focusing lens of the photographing lens 102 from the closest side to the infinite edge side, focus evaluation values are acquired in each region divided into 5 × 5 of the image.

焦点評価値がピークになる点が被写体にピントがあったことになり、そのときの撮影レンズ102の合焦レンズの駆動位置により被写体までの距離を計算で求めることができる。なお、デジタルカメラにおける被写体までの測距方法は公知な内容であるので、詳細な説明は省略する。また、その他の各種の測距方法を使用することもできる。   The point at which the focus evaluation value reaches the peak is that the subject is in focus, and the distance to the subject can be calculated by the driving position of the focusing lens of the photographing lens 102 at that time. Since the distance measuring method to the subject in the digital camera has a publicly known content, a detailed description is omitted. Various other ranging methods can also be used.

撮影画像が、図4の様に、白熱灯で照らされた室内を背景に、近距離にいる人物をフラッシュ撮影した場合、フラッシュ使用の情報があれば、各領域に於いてフラッシュが届く範囲の領域とそれ以外の領域に分割することができる。   As shown in Fig. 4, when a person at a short distance is flashed against a background illuminated by an incandescent lamp as shown in Fig. 4, if there is information on the use of the flash, the flash can reach each area. The area can be divided into other areas.

図4の人物がいる領域(図5において、符号14,19,24の領域)は、前述した測距情報により被写体までの距離が例えば1mと短かったとする。この場合、フラッシュが点灯された旨の情報とフラッシュの性能情報があれば、この被写体の撮影照明の色に関する情報としてフラッシュであると判定できる。   It is assumed that the area where the person in FIG. 4 is located (areas indicated by reference numerals 14, 19, and 24 in FIG. 5) is as short as 1 m, for example, based on the distance measurement information described above. In this case, if there is information indicating that the flash is turned on and flash performance information, it can be determined that the flash is used as information regarding the color of the photographic illumination of the subject.

一方、その他の領域は、測距情報よりフラッシュが届かない程被写体までの距離が遠かったとする。この場合の撮影照明は、図5の符号14,19,24以外の領域に対応する図4の画像を解析して推定され、白熱灯と設定される。符号14,19,24以外の領域については、設定した撮影照明に合わせてホワイトバランスを調整し、白熱灯の温かい色合いが残る様にホワイトバランスが調整される。符号14,19,24の領域については、撮影照明をフラッシュとしてホワイトバランスが調整される。   On the other hand, in other areas, it is assumed that the distance to the subject is far enough that the flash does not reach from the distance measurement information. The photographing illumination in this case is estimated by analyzing the image of FIG. 4 corresponding to the area other than the reference numerals 14, 19, and 24 in FIG. 5, and set as an incandescent lamp. For the regions other than the reference numerals 14, 19, and 24, the white balance is adjusted according to the set photographing illumination, and the white balance is adjusted so that the warm shade of the incandescent lamp remains. In the areas indicated by reference numerals 14, 19, and 24, the white balance is adjusted using the photographing illumination as a flash.

このようにして、白熱灯の温かい色合いを残しながら、主要被写体に対しては適切な色補正がなされる。   In this way, appropriate color correction is performed on the main subject while leaving the warm color of the incandescent lamp.

図6は、本実施の形態のデジタルカメラ100の制御装置104が実行する画像処理プログラムのフローチャートを示す図である。   FIG. 6 is a diagram illustrating a flowchart of an image processing program executed by the control device 104 of the digital camera 100 according to the present embodiment.

ステップS11では、制御装置104は上記に説明したように5×5の各領域の測距データを取得する。なお、測距データの取得は、デジタルカメラ100のオートフォーカス処理と共同して行ってもよい。ステップS12では、撮像素子103により撮影(撮像)された画像(画像データ)を取得する。ステップS13では、フラッシュユニット107によるフラッシュを使用した旨の撮影情報を取得する。   In step S11, the control device 104 acquires distance measurement data of each 5 × 5 area as described above. The distance measurement data may be acquired in cooperation with the autofocus process of the digital camera 100. In step S12, an image (image data) captured (captured) by the image sensor 103 is acquired. In step S13, photographing information indicating that the flash unit 107 has used the flash is acquired.

ステップS14では、ステップS11で取得した測距データに基づき、ステップS12で取得した画像を分割する。本実施の形態では、フラッシュ撮影が行われたことを前提とし、フラッシュが届く範囲の領域と届かない範囲の領域に分割する。具体的には、各領域の測距値がフラッシュが届く基準値以上か未満かによって、領域を分割する。図4、図5の例では、被写体までの距離が1mと測距された符号14,19,24の領域と、それ以外の領域とに分割される。   In step S14, the image acquired in step S12 is divided based on the distance measurement data acquired in step S11. In this embodiment, on the premise that flash photography has been performed, the image is divided into an area where the flash can reach and an area where the flash cannot reach. Specifically, the area is divided depending on whether the distance measurement value of each area is greater than or less than a reference value at which the flash reaches. In the example of FIGS. 4 and 5, the area is divided into areas 14, 19, and 24 where the distance to the subject is 1 m, and other areas.

ステップS15では、フラッシュが届かない範囲の領域の画像から、その照明の色に関する情報を取得する。上記の例では、画像処理により照明の色が白熱灯のものと同等であることが公知の方法で推定され設定される。フラッシュが届く範囲の領域については、照明の色がフラッシュとして設定する。フラッシュの色温度は、フラッシュユニット107内のメモリに予め格納されており、そのデータを読み取ることにより取得する。ステップS16では、分割された各領域ごとに、推定された色温度に基づくホワイトバランス処理を行う。   In step S15, information about the color of the illumination is acquired from an image in an area where the flash does not reach. In the above example, it is estimated and set by a known method that the color of the illumination is equivalent to that of an incandescent lamp by image processing. For the area where the flash reaches, the illumination color is set as flash. The color temperature of the flash is stored in advance in a memory in the flash unit 107, and is obtained by reading the data. In step S16, white balance processing based on the estimated color temperature is performed for each divided area.

このように、画像を、フラッシュが届く範囲の領域と届かない範囲の領域とに分割し、それぞれの領域の照明の色に関する情報に応じた色補正がなされる。これにより、上記のような構図の画像では、背景において白熱灯の温かい色合いを残しながら、主要被写体に対してはフラッシュの光源色に応じた適切な色補正がなされる。   In this way, the image is divided into areas where the flash can reach and areas where the flash does not reach, and color correction is performed according to the information regarding the illumination color of each area. As a result, in the image having the composition as described above, appropriate color correction corresponding to the light source color of the flash is performed on the main subject while leaving the warm shade of the incandescent lamp in the background.

なお、上記フラッシュの届く範囲の符号14,19,24の領域について、フラッシュの光源色に応じた色補正を行った後、背景領域の光源色で照明された場合の色再現になる様に色変換を施すようにしてもよい。この変換はフォン・クリスの式のような白色点変換と同様の式を使うとよい。このようにすることにより、符号14,19,24の領域については、撮影照明はフラッシュであるが、実際撮影者が見ていた照明は周囲同様の色温度であるので、フラッシュで照明された色から周囲と同じ色温度で照明された場合の色に再現されるように調整することができる。   For areas 14, 19, and 24 within the reach of the flash, color correction is performed according to the light source color of the flash, and then color reproduction is performed when illuminated with the light source color of the background area. You may make it perform conversion. For this conversion, an expression similar to the white point conversion such as the von Chris expression may be used. In this way, for the areas 14, 19, and 24, the shooting illumination is a flash, but since the illumination that the photographer was actually looking at has the same color temperature as the surroundings, the color illuminated by the flash It can be adjusted so that the color is reproduced when illuminated at the same color temperature as the surroundings.

また、第2の実施の形態の変形例を図9を用いて説明する。この変形例は、フラッシュと外光の混合照明色温度を推定し、領域がフラッシュ照明領域と外光の照明による背景照明領域との境界部分に該当する場合、当該領域がフラッシュ照明領域からどの程度離れた距離の被写体なのか、または背景照明領域からどの程度離れた距離にある被写体なのかに応じて、ホワイトバランスを調整する方法を示す。     A modification of the second embodiment will be described with reference to FIG. This variation estimates the mixed illumination color temperature of the flash and external light, and if the area corresponds to the boundary between the flash illumination area and the background illumination area by external light illumination, how much the area is from the flash illumination area A method for adjusting the white balance according to whether the subject is a distant subject or how far away from the background illumination area is will be described.

図9は、上記実施の形態のデジタルカメラ100の制御装置104が実行する画像処理プログラムの変形例のフローチャートを示す図である。ステップS41にてフラッシュの使用の有無を検出する。フラッシュを使用している場合は、ステップS42にて、撮像素子をN×M領域に分割する。   FIG. 9 is a diagram illustrating a flowchart of a modification of the image processing program executed by the control device 104 of the digital camera 100 according to the above embodiment. In step S41, it is detected whether the flash is used. If a flash is used, the image sensor is divided into N × M areas in step S42.

次にステップS43にて、各領域での代表画素における距離測定を行い、そのデータを保持し、撮影を行い、画像データを生成する。次に、ステップS44にて、生成された画像データをステップS42の領域分割と対応するように分割し、各領域でフラッシュが届く範囲かどうかを判定する。そこで、フラッシュが届かない領域と判定された場合はステップS45で背景照明領域と判定する。一方、フラッシュが届く領域と判定された場合はステップS46でフラッシュ照明領域と判定する。これを全領域にわたって判定する(ステップS47)。   Next, in step S43, distance measurement is performed on representative pixels in each region, the data is held, shooting is performed, and image data is generated. Next, in step S44, the generated image data is divided so as to correspond to the area division in step S42, and it is determined whether or not the flash reaches a range in each area. Therefore, if it is determined that the area does not reach the flash, the background illumination area is determined in step S45. On the other hand, if it is determined that the area reaches the flash, it is determined as a flash illumination area in step S46. This is determined over the entire area (step S47).

すべての領域で、背景照明領域とフラッシュ照明領域に分類わけされたら、ステップS48で、フラッシュ照明領域全体を解析し、フラッシュ混合照明色温度Tfとして推定する。もしくは、照明の色に関する情報としてフラッシュの色の情報を参照し、フラッシュの色温度を基に設定してもよいが、次に行うステップS49で求められる背景照明色温度Tbのデータを基に、わずかに、フラッシュの色温度に対し、背景照明色温度Tbに近い値になるように設定してもよい。ステップS49では、背景照明領域全体を解析し背景照明色温度Tbを推定する。   When all the areas are classified into the background illumination area and the flash illumination area, the entire flash illumination area is analyzed and estimated as the flash mixed illumination color temperature Tf in step S48. Alternatively, it may be set based on the color temperature of the flash with reference to the color information of the flash as information about the color of the illumination, but based on the data of the background illumination color temperature Tb obtained in the next step S49, The flash color temperature may be set to a value close to the background illumination color temperature Tb. In step S49, the entire background illumination area is analyzed to estimate the background illumination color temperature Tb.

次に、ステップS50において、各領域について、ステップS44で設定されたフラッシュ照明領域か否かの判定を行う。背景照明領域に判定された領域について、ステップS51で、フラッシュ照明領域との境界部分にあるかの判断を行う。ここで、境界領域で無い場合は、ステップS53において、背景照明色温度Tbでホワイトバランス調整を行う。一方、境界領域である場合は、ステップS54で、この領域に写っている被写体がフラッシュ照明領域の被写体に対してどの程度距離が離れているか、及び隣接する背景照明領域に写っている被写体からどの程度離れているを判定し、Tf,Tbの中間の色温度を設定する。この色温度でもって、ホワイトバランス調整を行う。   Next, in step S50, it is determined whether each area is the flash illumination area set in step S44. In step S51, it is determined whether the area determined as the background illumination area is at the boundary with the flash illumination area. If it is not the boundary region, white balance adjustment is performed at the background illumination color temperature Tb in step S53. On the other hand, if it is a boundary area, in step S54, how far the subject in this area is from the subject in the flash illumination area and from the subject in the adjacent background illumination area. It is determined that the distance is approximately, and a color temperature intermediate between Tf and Tb is set. The white balance is adjusted with this color temperature.

同様に、ステップS50において、領域がステップS44で行われたフラッシュ照明領域と判定された場合、ステップS52で背景照明領域との境界領域になるか否かを判定する。境界にないと判定されれば、ステップS55において、Tfでホワイトバランス補正をされる。境界領域にある場合は、前述のとおりステップS54の処理がなされ、ホワイトバランス調整がされる。これをすべての領域に対して行ったかステップS56で判定して、終了する。   Similarly, when it is determined in step S50 that the area is the flash illumination area performed in step S44, it is determined in step S52 whether or not the area is a boundary area with the background illumination area. If it is determined not to be at the boundary, white balance is corrected at Tf in step S55. If it is in the boundary region, the process of step S54 is performed as described above, and the white balance is adjusted. It is determined in step S56 whether this has been done for all areas, and the process ends.

一方、ステップS41において、フラッシュ使用がないと判断されるとステップS57に進む。ステップS57では、画像全体で照明色温度が推定されホワイトバランス調整がなされる。   On the other hand, if it is determined in step S41 that the flash is not used, the process proceeds to step S57. In step S57, the illumination color temperature is estimated for the entire image, and white balance adjustment is performed.

なお、領域分割はブロックで分割するのではなく、エッジ抽出を行った結果を用いて任意の形状に分割してもよい。任意の形状に分割した後、夫々の分割領域が、フラッシュの届く距離にある領域(領域1)かフラッシュの届かない距離にある領域(領域2)かに分類しても良い。   Note that the region division is not divided into blocks, but may be divided into arbitrary shapes using the result of edge extraction. After dividing into an arbitrary shape, each divided area may be classified into an area at a distance where the flash reaches (area 1) or an area where the flash does not reach (area 2).

また上記の例では領域を届くか届かないかの2つに分類しているが、かなり近い(=フラッシュの影響が強い)領域と、全く届かない領域とその中間(フラッシュと背景光源が混合)の様に2つより細かく分類し、夫々の領域毎に色温度を推定してホワイトバランス調整を行ってもよい。   In the above example, the area is classified into two areas: the area that reaches or does not reach, but the area that is quite close (= strong influence of the flash) and the area that does not reach at all and the middle (the flash and background light source are mixed) As described above, the white balance may be adjusted by classifying more finely than two and estimating the color temperature for each area.

ブロックによりホワイトバランス調整値を2種類切り替えただけでは、異なるホワイトバランス条件の境界でブロック歪みを生じる。従って、フラッシュと室内照明の混合照明でホワイトバランスを行う領域(図4の14,19,24)と背景色でホワイトバランスを行う領域(図4の14,19,24以外)の接する領域(図4の8,9,10,13,14,15,18,19,20,23,24,25)の境界部(例えば100画素程度ずつ)を境界領域として、図10に示すように領域1で設定した色温度と領域2で設定した色温度の中間に補間した色温度に設定する。   If only two types of white balance adjustment values are switched by blocks, block distortion occurs at the boundary of different white balance conditions. Therefore, the area where the white balance (14, 19, 24 in FIG. 4) is performed with the mixed lighting of the flash and the indoor lighting and the area where the white balance is performed with the background color (except for 14, 19, 24 in FIG. 4) (see FIG. 4). 4 in 8, 9, 10, 13, 14, 15, 18, 19, 20, 23, 24, 25) (for example, about 100 pixels each) as a boundary area, as shown in FIG. Set to a color temperature interpolated between the set color temperature and the color temperature set in area 2.

図10では簡単の為1次元で表示しているが、領域は実際には2次元に広がっているので、2次元領域内で色温度がスムーズにつながる様に補間して色温度を推定する。   In FIG. 10, the display is one-dimensional for the sake of simplicity, but since the region is actually two-dimensional, the color temperature is estimated by interpolation so that the color temperature is smoothly connected in the two-dimensional region.

また境界のみで色温度を補間するのではなく、ブロック毎に照明の色温度を決定したら、その色温度は各ブロックの代表画素(例えば中心画素)に於ける色温度とし、画像全体で2次元の色温度分布関数T(x,y)を作成し、その式で各画素のホワイトバランスの調整を行っても良い。   Also, instead of interpolating the color temperature only at the boundary, if the color temperature of the illumination is determined for each block, the color temperature is the color temperature at the representative pixel (for example, the central pixel) of each block, and the entire image is two-dimensional. The color temperature distribution function T (x, y) may be created, and the white balance of each pixel may be adjusted using the equation.

上記の例では、照明の特徴量として色温度を用いて説明していたが、複数照明の特徴量として照明の白色点のxy色度座標(x,y)やカメラRGB値で表す特徴量を用いてもよい。色温度だけでは照明の特徴量を1次元でしか表せないが、xy色度座標やカメラRGB値で表す特徴量にすれば、黒体輻射に従わない混合照明や蛍光灯などもより正確に表すことができる。照明の種類を示す特徴量が2つ以上のパラメータを用いるのであれば、夫々のパラメータについて前述の境界領域の補間(図10)や色温度分布関数T(x,y)の様な近似式を作成する。例えば白のRGB比(G/R,G/B)を特徴量とする場合は、前述の境界領域の補間(図10)や色温度分布関数T(x,y)の様な近似式をG/R, G/B夫々について行い、各画素のWB調整に用いれば良い。   In the above example, the color temperature is used as the feature value of the illumination. However, the feature amount represented by the xy chromaticity coordinates (x, y) of the white point of the illumination or the camera RGB value is used as the feature value of the plurality of illuminations. It may be used. The color temperature alone can represent the feature quantity of illumination only in one dimension. However, if the feature quantity is represented by xy chromaticity coordinates and camera RGB values, it can more accurately represent mixed illumination and fluorescent lamps that do not follow black body radiation. be able to. If the feature quantity indicating the type of illumination uses two or more parameters, the approximate expression such as the interpolation of the boundary region (Fig. 10) and the color temperature distribution function T (x, y) described above is used for each parameter. create. For example, when the white RGB ratio (G / R, G / B) is used as the feature value, an approximate expression such as the above-described interpolation of the boundary region (FIG. 10) or the color temperature distribution function T (x, y) is used. This is performed for each of / R and G / B and used for WB adjustment of each pixel.

(1)以上により、フラッシュを使用して明るい手振れの生じない画像を得ながら、画像全体として白熱灯の温かい色合いを残すこともでき、良好な色再現が可能となる。
(2)上記の変形例で示したように白色点変換をすれば、画像全体として、白熱灯の温かい色合いをさらに良好に残すことができるようになる。
(3)被写体までの測距データを、オートフォーカスと同じ手法で取得するので、ホワイトバランスの処理を異ならせたい画像の分割を自動的に適切に行うことができる。
(1) As described above, a warm image of an incandescent lamp can be left as an entire image while obtaining a bright image free of camera shake using a flash, and a good color reproduction is possible.
(2) If the white point conversion is performed as shown in the above-described modification, the warm color of the incandescent lamp can be further improved as the entire image.
(3) Since the distance measurement data up to the subject is acquired by the same method as that of autofocus, it is possible to automatically and appropriately perform image division for which white balance processing is to be made different.

−第3の実施の形態−
第3の実施の形態では、顔認識技術を用いて、顔と判断された領域(主要被写体)とそれ以外の領域に分割して色補正を行う例を説明する。顔と判断される領域が検出され、フラッシュが点灯されたことが検出されると、顔と判断された領域の照明はフラッシュであると推定することができる。本実施の形態では、このような推定に基づき、顔と判断された領域とそれ以外の領域について照明光源の違いによる異なるホワイトバランス処理を行う。
-Third embodiment-
In the third embodiment, an example will be described in which color correction is performed by dividing a region (main subject) determined to be a face and other regions using face recognition technology. When an area determined to be a face is detected and it is detected that the flash is turned on, it can be estimated that the illumination of the area determined to be a face is a flash. In the present embodiment, based on such estimation, different white balance processing is performed for a region determined to be a face and other regions depending on the difference in illumination light source.

第3の実施の形態は、第1の実施の形態と同様に、パーソナルコンピュータ1で実現される。従って、第3の実施の形態の画像処理装置の構成は、第1の実施の形態の図1を参照することとする。図7は、本実施の形態のパーソナルコンピュータ1が実行する画像処理プログラムのフローチャートを示す図である。   The third embodiment is realized by the personal computer 1 as in the first embodiment. Therefore, the configuration of the image processing apparatus according to the third embodiment is referred to FIG. 1 of the first embodiment. FIG. 7 is a diagram illustrating a flowchart of an image processing program executed by the personal computer 1 according to the present embodiment.

ステップS21では、デジタルカメラなどで撮影(撮像)した画像(画像データ)を取得する。ステップS22では、フラッシュを使用した旨の撮影情報を取得する。撮影情報は、画像データに添付されているものとする。ステップS23では、取得した画像から人物の顔を認識する。人物の顔の認識は公知な顔認識技術を用いる。例えば、人物の顔の輪郭を画像処理で検出したり、肌色を検出して人物の顔であると認識したりする。   In step S21, an image (image data) taken (captured) with a digital camera or the like is acquired. In step S22, shooting information indicating that the flash has been used is acquired. It is assumed that the shooting information is attached to the image data. In step S23, a human face is recognized from the acquired image. A known face recognition technique is used for recognizing a person's face. For example, the outline of a person's face is detected by image processing, or the skin color is detected to recognize the person's face.

ステップS24では、認識した人物の顔の領域に基づき、顔の領域とそれ以外の領域とに分割する。ステップS25では、人物の顔として分割された領域について、フラッシュの色温度をその領域の照明温度としてホワイトバランスの調整を行う。ステップS26では、顔領域以外の領域について、輝度平均が18%グレーになるようにホワイトバランスの調整をする。   In step S24, based on the recognized face area of the person, the face area is divided into other areas. In step S25, the white balance is adjusted for the area divided as the human face, using the flash color temperature as the illumination temperature of the area. In step S26, the white balance is adjusted so that the average luminance of the region other than the face region is 18% gray.

本実施の形態では、通常、被写界に人物を入れてフラッシュ撮影をする場合、フラッシュ光は人物まで届くような撮影を行うであろうということを前提としている。なお、人物を肌色で検出した場合、主要被写体である人物の顔の色が検出できている。この場合、ホワイトバランスの処理を行うとき、検出した色も考慮してその色に応じた適切なホワイトバランスの調整を行うようにしてもよい。   In the present embodiment, it is normally assumed that when a person is put in the object scene and flash photography is performed, the flash light will be photographed to reach the person. When a person is detected by skin color, the face color of the person who is the main subject can be detected. In this case, when white balance processing is performed, the detected white color may be taken into consideration, and appropriate white balance adjustment may be performed according to the color.

(1)以上のようにして、本実施の形態では、顔と認識された領域は、フラッシュが届いている範囲として、フラッシュの色温度で正確にホワイトバランスの調整がなされ、それ以外の領域は簡易な手法でホワイトバランスの調整がなされる。これにより、適切なホワイトバランスの処理がなされる。
(2)人物を中心に適切なホワイトバランスの調整がなされるので、注目度の高い被写体が確実に適切にホワイトバランスの調整がなされる。
(1) As described above, in the present embodiment, the area recognized as a face is set as the range where the flash reaches, and the white balance is accurately adjusted at the color temperature of the flash. White balance is adjusted by a simple method. Thereby, appropriate white balance processing is performed.
(2) Since the appropriate white balance is adjusted around the person, the subject with a high degree of attention is surely properly adjusted in the white balance.

次に、上記第3の実施の形態の変形例を説明する。領域の分割方法は、各領域内の平均輝度から推定しても良い。輝度のヒストグラムを取ると、フラッシュが当った領域は全体的に平均輝度が高く、フラッシュが当らなかった背景領域は光量不足の為平均輝度が低く、領域内の平均輝度から照明光源の違いを推定することが可能である。また日向と日陰が画像内に混在している場合も、平均輝度が高い領域は日向、平均輝度が低い領域は日陰として、領域を分割することが可能である。各画素の輝度だけで判定すると、被写体の反射率が元々低い場合と、照明輝度が低い場合の判定が難しいので、輝度で判定する場合には領域分割を大きめに行い、その領域内の平均輝度で判定する方が望ましい。   Next, a modification of the third embodiment will be described. The region dividing method may be estimated from the average luminance in each region. Taking a histogram of brightness, the average brightness is high overall in the area hit by the flash, and the average brightness is low in the background area not hit by the flash due to insufficient light. The difference in illumination light source is estimated from the average brightness in the area. Is possible. Even when the sun and shade are mixed in the image, it is possible to divide the area so that the area with high average luminance is the sun and the area with low average luminance is the shade. If only the luminance of each pixel is determined, it is difficult to determine when the reflectance of the subject is originally low or when the illumination luminance is low. Therefore, when determining by luminance, the area is divided into large areas, and the average luminance within that area is determined. It is preferable to make a judgment with

図11は、第3の実施の形態のパーソナルコンピュータ1が実行する画像処理プログラムの変形例のフローチャートを示す図である。ステップS61にて画像データから画像の輝度分布ヒストグラムを作成する。ステップS62にて、輝度分布ヒストグラムから谷の有無を判定する。谷が無ければ、ステップS78において、画像全体に単一の照明色温度を設定し、ホワイトバランス調整を行って終了する。   FIG. 11 is a diagram illustrating a flowchart of a modification example of the image processing program executed by the personal computer 1 according to the third embodiment. In step S61, an image luminance distribution histogram is created from the image data. In step S62, the presence or absence of valleys is determined from the luminance distribution histogram. If there is no valley, in step S78, a single illumination color temperature is set for the entire image, white balance adjustment is performed, and the process ends.

一方、図12はヒストグラムの一例を示す図である。図12のように谷があれば、ステップS63にてその輝度値Y0をメモリーする。次にステップS64にて、N×Mの領域に分割し、S65で各領域の平均輝度Ymを算出する。ステップS65Aで、平均輝度YmがY0より大きいか否かを判定し、大きい場合は、ステップS67にてフラッシュ照明領域や日向領域として照明1の領域とする。一方、小さい場合はステップS66で背景や日陰領域として照明2の領域とする。ステップS68において、全領域にわたって判定が完了したか否かを判定し、完了していない場合はステップS65に戻って処理を繰り返す。   On the other hand, FIG. 12 is a diagram showing an example of a histogram. If there is a valley as shown in FIG. 12, the luminance value Y0 is stored in step S63. Next, in step S64, the area is divided into N × M areas, and the average luminance Ym of each area is calculated in S65. In step S65A, it is determined whether or not the average luminance Ym is larger than Y0. If the average luminance Ym is larger, in step S67, the area of illumination 1 is set as the flash illumination area or the sunny area. On the other hand, if it is smaller, the area of illumination 2 is set as the background or shade area in step S66. In step S68, it is determined whether or not the determination has been completed over the entire area. If the determination has not been completed, the process returns to step S65 to repeat the process.

すべての領域で、照明1の領域と照明2の領域に分類わけされたら、ステップS69で照明1の領域と判定された領域全体を解析し、照明1の色に関する情報を取得して、照明1の色温度T1として推定する。次にステップS70で、照明2の領域と判定された領域全体を解析し、照明2の色温度T2として推定する。   When all the areas are classified into the illumination 1 area and the illumination 2 area, the entire area determined to be the illumination 1 area in step S69 is analyzed, information on the color of the illumination 1 is obtained, and the illumination 1 is obtained. Is estimated as the color temperature T1. Next, in step S70, the entire area determined as the area of the illumination 2 is analyzed, and the color temperature T2 of the illumination 2 is estimated.

次に、各領域について、ステップS65で設定された照明1の領域か否かの判定に基づき、照明2の領域に判定された領域について、ステップS72で照明1の領域との境界部分にあるかの判断を行う。ここで、境界領域で無い場合は、ステップS74において、色温度T2でホワイトバランス調整を行う。一方、境界領域である場合は、ステップS75で、この領域に写っている被写体が照明2領域の被写体に対してどの程度距離が離れているか、及び隣接する照明1領域に写っている被写体からどの程度離れているを判定し、T1,T2の中間の色温度を設定する。この色温度でもって、ホワイトバランス調整を行う。なお、距離情報は、第2の実施の形態のようにあらかじめ取得しておき、記憶された情報を用いる。   Next, based on the determination as to whether or not each region is the illumination 1 region set in step S65, whether or not the region determined as the illumination 2 region is in a boundary portion with the illumination 1 region in step S72. Make a decision. If it is not the boundary region, white balance adjustment is performed at the color temperature T2 in step S74. On the other hand, in the case of the boundary region, in step S75, how far the subject shown in this region is from the subject in the illumination 2 region and from the subject shown in the adjacent illumination 1 region. Judge the distance is some distance, and set the color temperature between T1 and T2. The white balance is adjusted with this color temperature. The distance information is acquired in advance as in the second embodiment and stored information is used.

同様に、ステップS65Aで行われた照明領域との判定に基づき、ステップS71で照明1の領域と判定された領域について、ステップS73で境界領域になるか否かを判定する。境界にないと判定されれば、ステップS76において、T1でホワイトバランス補正をされる。境界領域にある場合は、前述のとおりステップS75の処理がなされ、ホワイトバランス調整がされる。これをすべての領域に対して行ったかステップS77で判定して、終了する。   Similarly, based on the determination of the illumination area performed in step S65A, it is determined whether or not the area determined as the illumination 1 area in step S71 is a boundary area in step S73. If it is determined that it is not at the boundary, white balance is corrected at T1 in step S76. If it is in the boundary region, the process of step S75 is performed as described above, and the white balance is adjusted. It is determined in step S77 whether this has been done for all areas, and the process ends.

−第4の実施の形態−
第4の実施の形態では、画像の中の輝度の高い部分を日向領域とし、輝度の低い部分を日陰領域として色補正を行う例を説明する。第4の実施の形態は、屋外での撮影が前提となるので、撮影モードを取得し、屋外に関係するモードであることを検出して行う。
-Fourth embodiment-
In the fourth embodiment, an example will be described in which color correction is performed with a high luminance portion in an image as a sunny region and a low luminance portion as a shade region. Since the fourth embodiment is premised on outdoor shooting, the shooting mode is acquired, and it is detected that the mode is related to the outdoors.

第4の実施の形態は、第1の実施の形態と同様に、パーソナルコンピュータ1で実現される。従って、第4の実施の形態の画像処理装置の構成は、第1の実施の形態の図1を参照することとする。図8は、本実施の形態のパーソナルコンピュータ1が実行する画像処理プログラムのフローチャートを示す図である。   The fourth embodiment is realized by the personal computer 1 as in the first embodiment. Therefore, the configuration of the image processing apparatus according to the fourth embodiment is referred to FIG. 1 of the first embodiment. FIG. 8 is a diagram illustrating a flowchart of an image processing program executed by the personal computer 1 according to the present embodiment.

ステップS31では、デジタルカメラなどで撮影(撮像)した画像(画像データ)を取得する。ステップS32では、撮影したときの撮影モードなどの撮影情報を取得する。ステップS33では、取得した画像から輝度情報を抽出する。画像データがRGB表色系であれば、輝度値として、R、G、Bのそれぞれの値を所定の計算式で加算した値を使用したり、Gの値を使用したりする。   In step S31, an image (image data) taken (captured) with a digital camera or the like is acquired. In step S32, shooting information such as a shooting mode at the time of shooting is acquired. In step S33, luminance information is extracted from the acquired image. If the image data is an RGB color system, a value obtained by adding the R, G, and B values with a predetermined calculation formula or a G value is used as the luminance value.

ステップS34では、輝度値が日向基準値以上であればその領域を日向の領域と推定し、輝度値が日陰基準値以下であればその領域を日陰の領域と推定する。日向基準値および日陰基準値は、計算あるいは実験等により予め決定されている。もちろん、日向基準値は日陰基準値より高い値が設定されている。このような基準値に基づき、輝度が高ければそれを日向と推定し、輝度が低ければそれを日陰と推定する。このような推定により、画像を、日向の領域と日陰の領域に分割する。この場合、ステップS32で取得した撮影モードで、屋外モードであることが確認されていることを前提とする。   In step S34, if the luminance value is equal to or greater than the sunshine reference value, the region is estimated as a sunshine region, and if the luminance value is equal to or less than the shade reference value, the region is estimated as a shaded region. The hinata reference value and the shade reference value are determined in advance by calculation or experiment. Of course, the sunny reference value is set higher than the shade reference value. Based on such a reference value, if the luminance is high, it is estimated as the sun, and if the luminance is low, it is estimated as the shade. With this estimation, the image is divided into a sunny area and a shaded area. In this case, it is assumed that the shooting mode acquired in step S32 is confirmed to be the outdoor mode.

ステップS35では、分割された領域について、日向の領域については日向の太陽光の色温度に基づきホワイトバランスの調整を行い、日陰の領域については日陰の太陽光の色温度に基づきホワイトバランスの調整を行う。   In step S35, with respect to the divided areas, the white balance is adjusted based on the color temperature of sunlight in the sunny area, and the white balance is adjusted based on the color temperature of sunlight in the shaded area. Do.

(1)このようにして、画像の中に日向の領域と日陰の領域がある場合は、それぞれの太陽光の色温度に適したホワイトバランスの調整がなされる。その結果、画像全体として適切な自然な色再現がなされる。
(2)日向の領域と日陰の領域とが自動的に確定するので、日向向けのホワイトバランスと日陰向けのホワイトバランスが、ユーザーの手を煩わすことなく適切に行われる。
(1) In this way, when there are a sunlit area and a shaded area in the image, white balance adjustment suitable for each color temperature of sunlight is performed. As a result, appropriate natural color reproduction is performed for the entire image.
(2) Since the sunny area and the shaded area are automatically determined, the white balance for the shade and the white balance for the shade are appropriately performed without bothering the user.

−変形例−
(1)上記第1の実施の形態、第3の実施の形態、第4の実施の形態では、パーソナルコンピュータ1で画像処理を行う例を説明したが、第2の実施の形態と同様に、デジタルカメラ100でその画像処理を行うようにしてもよい。また、第2の実施の形態のデジタルカメラ100で行う画像処理を、第1の実施の形態、第3の実施の形態、第4の実施の形態と同様に、パーソナルコンピュータ1でその画像処理を行うようにしてもよい。
(2)第2の実施の形態では、符号14,19,24以外の領域に対応する画像データを解析して白熱灯と推定する例を説明した。しかし、撮影モードにより推定することも可能である。例えば、撮影モードが室内撮影であれば、白熱灯と推定してもよい。室内撮影でも、白熱灯や蛍光灯の別が指定できれば、それぞれ指定された照明を照明光源として推定すればよい。
(3)上記第1の実施の形態では、ユーザーが人物と夕焼けの背景の領域を分割する例を説明した。第1の実施の形態では、ユーザーは任意の画像に対して、任意に分割を指定することができる。従って、上記第4の実施の形態のような日向と日陰を、第1の実施の形態のようにユーザーがマニュアルで指定するようにしてもよい。
(4)上記第1の実施の形態では、分割領域ごとにユーザーが色温度や照明の種類を指定する例を説明した。しかし、分割領域ごとに画像処理によりその領域の照明光源の色温度を推定するようにしてもよい。また、逆に、他の実施の形態において画像処理によりその領域の照明光源の色温度を推定する場合、それに代えてユーザーが色温度や照明の種類を指定できるようにしてもよい。
-Modification-
(1) In the first embodiment, the third embodiment, and the fourth embodiment, the example in which image processing is performed by the personal computer 1 has been described. However, as in the second embodiment, The digital camera 100 may perform the image processing. Further, the image processing performed by the digital camera 100 of the second embodiment is performed by the personal computer 1 as in the first embodiment, the third embodiment, and the fourth embodiment. You may make it perform.
(2) In the second embodiment, an example has been described in which image data corresponding to regions other than the reference numerals 14, 19, and 24 is analyzed and estimated as an incandescent lamp. However, it is also possible to estimate by the shooting mode. For example, if the shooting mode is indoor shooting, it may be estimated as an incandescent lamp. Even in indoor shooting, if the incandescent lamp or the fluorescent lamp can be specified, the specified illumination may be estimated as the illumination light source.
(3) In the first embodiment, the example in which the user divides the person and the sunset background area has been described. In the first embodiment, the user can arbitrarily designate division for any image. Therefore, the user may manually specify the sun and shade as in the fourth embodiment as in the first embodiment.
(4) In the first embodiment, the example in which the user designates the color temperature and the type of illumination for each divided region has been described. However, the color temperature of the illumination light source in each divided area may be estimated by image processing. Conversely, in another embodiment, when the color temperature of the illumination light source in the area is estimated by image processing, the user may be able to specify the color temperature and the type of illumination instead.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

第1の実施の形態である画像処理装置を示す図である。It is a figure which shows the image processing apparatus which is 1st Embodiment. 第1の実施の形態のパーソナルコンピュータ1が実行する画像処理プログラムのフローチャートを示す図である。It is a figure which shows the flowchart of the image processing program which the personal computer 1 of 1st Embodiment performs. 第2の実施の形態である撮像装置であるデジタルカメラ100の構成を示す図である。It is a figure which shows the structure of the digital camera 100 which is an imaging device which is 2nd Embodiment. 室内でフラッシュ撮影した場合の構図を示す図である。It is a figure which shows a composition at the time of flash photography indoors. 撮影画像を5×5に分割した様子を示す図である。It is a figure which shows a mode that the picked-up image was divided | segmented into 5x5. 第2の実施の形態のデジタルカメラ100の制御装置104が実行する画像処理プログラムのフローチャートを示す図である。It is a figure which shows the flowchart of the image processing program which the control apparatus 104 of the digital camera 100 of 2nd Embodiment performs. 第3の実施の形態のパーソナルコンピュータ1が実行する画像処理プログラムのフローチャートを示す図である。It is a figure which shows the flowchart of the image processing program which the personal computer 1 of 3rd Embodiment performs. 第4の実施の形態のパーソナルコンピュータ1が実行する画像処理プログラムのフローチャートを示す図である。It is a figure which shows the flowchart of the image processing program which the personal computer 1 of 4th Embodiment performs. 第2の実施の形態のデジタルカメラ100の制御装置104が実行する画像処理プログラムの変形例のフローチャートを示す図である。It is a figure which shows the flowchart of the modification of the image processing program which the control apparatus 104 of the digital camera 100 of 2nd Embodiment performs. 境界領域として、領域1で設定した色温度と領域2で設定した色温度の中間に補間した色温度に設定する様子を説明する図である。It is a figure explaining a mode that it sets to the color temperature interpolated between the color temperature set in the area | region 1 and the color temperature set in the area | region 2 as a boundary area. 第3の実施の形態のパーソナルコンピュータ1が実行する画像処理プログラムの変形例のフローチャートを示す図である。It is a figure which shows the flowchart of the modification of the image processing program which the personal computer 1 of 3rd Embodiment performs. ヒストグラムの一例を示す図である。It is a figure which shows an example of a histogram.

符号の説明Explanation of symbols

1 パーソナルコンピュータ
2 デジタルカメラ
3 記録媒体
4 コンピュータ
5 電気通信回線
100 デジタルカメラ
101 被写体
102 撮影レンズ
103 撮像素子
104 制御装置
105 メモリ
106 レンズ駆動部
107 フラッシュユニット
DESCRIPTION OF SYMBOLS 1 Personal computer 2 Digital camera 3 Recording medium 4 Computer 5 Electric communication line 100 Digital camera 101 Subject 102 Shooting lens 103 Image pick-up element 104 Control apparatus 105 Memory 106 Lens drive part 107 Flash unit

Claims (15)

画像処理方法であって、
ひとつの画像を取得し、
前記取得したひとつの画像を複数の領域に分割し、
前記分割した領域毎に照明の色に関する情報を設定し、
前記分割した領域毎に、対応する前記照明の色に関する情報に応じて色補正を行うことを特徴とする画像処理方法。
An image processing method comprising:
Get one image,
The acquired one image is divided into a plurality of regions,
Set information on the color of the lighting for each of the divided areas,
An image processing method, wherein color correction is performed for each of the divided areas in accordance with information about the color of the corresponding illumination.
請求項1に記載の画像処理方法において、
前記取得した画像を、モニタに表示された画像上でのユーザーによる指定により複数の領域に分割することを特徴とする画像処理方法。
The image processing method according to claim 1,
An image processing method, wherein the acquired image is divided into a plurality of areas according to designation by a user on an image displayed on a monitor.
請求項1に記載の画像処理方法において、
前記取得した画像を、被写体までの距離情報を用いて複数の領域に分割することを特徴とする画像処理方法。
The image processing method according to claim 1,
An image processing method, wherein the acquired image is divided into a plurality of regions using distance information to a subject.
請求項1に記載の画像処理方法において、
前記取得した画像において人物の顔を認識し、
前記取得した画像を、前記認識した人物の顔の領域とそれ以外の領域とに分割することを特徴とする画像処理方法。
The image processing method according to claim 1,
Recognizing a human face in the acquired image;
An image processing method, wherein the acquired image is divided into a region of the recognized person's face and other regions.
請求項1に記載の画像処理方法において、
前記取得した画像を、主要被写体と背景とに分割することを特徴とする画像処理方法。
The image processing method according to claim 1,
An image processing method, wherein the acquired image is divided into a main subject and a background.
請求項1に記載の画像処理方法において、
前記取得した画像を、輝度情報に基づき、日向の領域と日陰の領域とに分割することを特徴とする画像処理方法。
The image processing method according to claim 1,
An image processing method, wherein the acquired image is divided into a sunny area and a shaded area based on luminance information.
請求項1に記載の画像処理方法において、
前記取得した画像を、肌色の部分と肌色以外の部分とに分割することを特徴とする画像処理方法。
The image processing method according to claim 1,
An image processing method, wherein the acquired image is divided into a skin color part and a part other than the skin color.
請求項1から7のいずれかに記載の画像処理方法において、
前記分割した複数の領域のそれぞれの照明光源を推定することで、前記照明の色に関する情報を設定することを特徴とする画像処理方法。
In the image processing method in any one of Claim 1 to 7,
An image processing method comprising: setting information related to the color of the illumination by estimating each illumination light source of the plurality of divided areas.
請求項1から7のいずれかに記載の画像処理方法において、
前記分割した複数の領域のそれぞれについて、ユーザから指定することで、前記照明の色に関する情報を設定することを特徴とする画像処理方法。
In the image processing method in any one of Claim 1 to 7,
An image processing method comprising: setting information related to the color of the illumination by designating each of the plurality of divided areas from a user.
請求項8に記載の画像処理方法において、
前記照明光源の推定には、前記分割した領域ごとの色情報、撮影情報を用いて行うことを特徴とする画像処理方法。
The image processing method according to claim 8.
The image processing method characterized in that the illumination light source is estimated using color information and photographing information for each of the divided areas.
請求項3に記載の画像処理方法において、
フラッシュ撮影を行ったか否かの撮影情報を取得し、
前記フラッシュ撮影を行っている場合、前記分割された複数の領域のうち、被写体までの距離情報が所定値以下の領域の照明光源をフラッシュであると推定し、
前記照明光源がフラッシュであると推定された領域について、フラッシュに適したホワイトバランス処理を行うことを特徴とする画像処理方法。
The image processing method according to claim 3.
Get shooting information on whether or not flash shooting was done,
When performing the flash photography, it is estimated that the illumination light source of the area in which the distance information to the subject is a predetermined value or less among the plurality of divided areas is a flash,
A white balance process suitable for a flash is performed on an area where the illumination light source is estimated to be a flash.
請求項4または7に記載の画像処理方法において、
フラッシュ撮影を行ったか否かの撮影情報を取得し、
前記フラッシュ撮影を行っている場合、前記人物の顔の領域または前記肌色の部分の領域の照明光源をフラッシュであると推定し、
前記照明光源がフラッシュであると推定された領域について、フラッシュに適したホワイトバランス処理を行うことを特徴とする画像処理方法。
The image processing method according to claim 4 or 7,
Get shooting information on whether or not flash shooting was done,
When performing the flash photography, it is estimated that the illumination light source of the face area of the person or the skin color part area is a flash,
A white balance process suitable for a flash is performed on an area where the illumination light source is estimated to be a flash.
請求項1から12のいずれかに記載の画像処理方法をコンピュータに実行させる画像処理プログラム。   An image processing program for causing a computer to execute the image processing method according to claim 1. 請求項13に記載の画像処理プログラムを搭載する画像処理装置。   An image processing apparatus having the image processing program according to claim 13 mounted thereon. 請求項13に記載の画像処理プログラムを搭載する撮像装置。   An imaging apparatus equipped with the image processing program according to claim 13.
JP2006226593A 2006-08-23 2006-08-23 Image processing method, image processor, image processing program and imaging device Pending JP2008052428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006226593A JP2008052428A (en) 2006-08-23 2006-08-23 Image processing method, image processor, image processing program and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006226593A JP2008052428A (en) 2006-08-23 2006-08-23 Image processing method, image processor, image processing program and imaging device

Publications (1)

Publication Number Publication Date
JP2008052428A true JP2008052428A (en) 2008-03-06

Family

ID=39236435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006226593A Pending JP2008052428A (en) 2006-08-23 2006-08-23 Image processing method, image processor, image processing program and imaging device

Country Status (1)

Country Link
JP (1) JP2008052428A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2169944A1 (en) 2008-09-30 2010-03-31 Casio Computer Co., Ltd. Image correction apparatus and image correction method
JP2010130468A (en) * 2008-11-28 2010-06-10 Olympus Corp White balance adjusting device, white balance adjusting method, white balance adjusting program and imaging apparatus
US20100208099A1 (en) * 2009-02-16 2010-08-19 Kenichiroh Nomura Imaging device and imaging method
WO2010095488A1 (en) * 2009-02-20 2010-08-26 Ricoh Company, Limited Image processing apparatus, image pickup apparatus, image processing method, and computer program
US8120670B2 (en) 2008-07-17 2012-02-21 Samsung Electro-Mechanics Co., Ltd. Apparatus and method for controlling gain of color signal
US20120070082A1 (en) * 2010-09-20 2012-03-22 Canon Kabushiki Kaisha Color correction for digital images
US20120070080A1 (en) * 2010-09-20 2012-03-22 Canon Kabushiki Kaisha Color correction for digital images
JP2013187596A (en) * 2012-03-06 2013-09-19 Casio Comput Co Ltd Imaging apparatus, image processing method, and program
JP2014027597A (en) * 2012-07-30 2014-02-06 Toyota Central R&D Labs Inc Image processor, object identification device, and program
WO2017122396A1 (en) * 2016-01-15 2017-07-20 ソニー株式会社 Control device, control method and program
US10742850B2 (en) 2017-04-17 2020-08-11 Canon Kabushiki Kaisha Image processing apparatus and control method thereof for white balance adjustment
JP2021136662A (en) * 2020-02-28 2021-09-13 キヤノン株式会社 Image processing apparatus and image processing method
JP2021144641A (en) * 2020-03-13 2021-09-24 株式会社リコー Image processing device and image processing method
WO2021235884A1 (en) * 2020-05-21 2021-11-25 삼성전자 주식회사 Electronic device and method for generating image by performing awb

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219573A (en) * 2008-05-20 2010-09-30 Ricoh Co Ltd Image processing apparatus, image capturing apparatus, image processing method, and computer program
US8120670B2 (en) 2008-07-17 2012-02-21 Samsung Electro-Mechanics Co., Ltd. Apparatus and method for controlling gain of color signal
US8106962B2 (en) 2008-09-30 2012-01-31 Casio Computer Co., Ltd. Image correction apparatus, image correction method and storage medium for image correction program
EP2169944A1 (en) 2008-09-30 2010-03-31 Casio Computer Co., Ltd. Image correction apparatus and image correction method
JP2010130468A (en) * 2008-11-28 2010-06-10 Olympus Corp White balance adjusting device, white balance adjusting method, white balance adjusting program and imaging apparatus
US8446487B2 (en) 2008-11-28 2013-05-21 Olympus Corporation White balance adjustment apparatus, white balance adjustment method, recording medium storing white balance adjustment program and imaging apparatus
US8830348B2 (en) * 2009-02-16 2014-09-09 Ricoh Company, Ltd. Imaging device and imaging method
US20100208099A1 (en) * 2009-02-16 2010-08-19 Kenichiroh Nomura Imaging device and imaging method
EP2399397A1 (en) * 2009-02-20 2011-12-28 Ricoh Company, Ltd. Image processing apparatus, image pickup apparatus, image processing method, and computer program
CN102326393A (en) * 2009-02-20 2012-01-18 株式会社理光 Image processing apparatus, image pickup apparatus, image processing method, and computer program
WO2010095488A1 (en) * 2009-02-20 2010-08-26 Ricoh Company, Limited Image processing apparatus, image pickup apparatus, image processing method, and computer program
US8792016B2 (en) 2009-02-20 2014-07-29 Ricoh Company, Limited Image processing apparatus, image pickup apparatus, image processing method, and computer program
EP2399397A4 (en) * 2009-02-20 2014-07-30 Ricoh Co Ltd Image processing apparatus, image pickup apparatus, image processing method, and computer program
US20120070082A1 (en) * 2010-09-20 2012-03-22 Canon Kabushiki Kaisha Color correction for digital images
US20120070080A1 (en) * 2010-09-20 2012-03-22 Canon Kabushiki Kaisha Color correction for digital images
US8908964B2 (en) * 2010-09-20 2014-12-09 Canon Kabushiki Kaisha Color correction for digital images
JP2013187596A (en) * 2012-03-06 2013-09-19 Casio Comput Co Ltd Imaging apparatus, image processing method, and program
JP2014027597A (en) * 2012-07-30 2014-02-06 Toyota Central R&D Labs Inc Image processor, object identification device, and program
WO2017122396A1 (en) * 2016-01-15 2017-07-20 ソニー株式会社 Control device, control method and program
US10742850B2 (en) 2017-04-17 2020-08-11 Canon Kabushiki Kaisha Image processing apparatus and control method thereof for white balance adjustment
JP2021136662A (en) * 2020-02-28 2021-09-13 キヤノン株式会社 Image processing apparatus and image processing method
JP7515271B2 (en) 2020-02-28 2024-07-12 キヤノン株式会社 Image processing device and image processing method
JP2021144641A (en) * 2020-03-13 2021-09-24 株式会社リコー Image processing device and image processing method
WO2021235884A1 (en) * 2020-05-21 2021-11-25 삼성전자 주식회사 Electronic device and method for generating image by performing awb
US12069382B2 (en) 2020-05-21 2024-08-20 Samsung Electronics Co., Ltd. Electronic device and method for generating images by performing auto white balance

Similar Documents

Publication Publication Date Title
JP2008052428A (en) Image processing method, image processor, image processing program and imaging device
US8237809B2 (en) Imaging camera processing unit and method
US8224036B2 (en) Image editing apparatus, method for controlling image editing apparatus, and recording medium storing image editing program
JP6259185B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
KR101243335B1 (en) Image processing apparatus, method, program and image pickup apparatus
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5629564B2 (en) Image processing apparatus and control method thereof
JP6685188B2 (en) Imaging device, image processing device, control method thereof, and program
US8698918B2 (en) Automatic white balancing for photography
CN110022469A (en) Image processing method, device, storage medium and electronic equipment
TW201112754A (en) Image processing apparatus, image processing method, and storage medium thereof
JP2003179810A (en) System and method for simulating fill flash in photography
JP5693271B2 (en) Image processing apparatus and method
US9288428B2 (en) Shooting apparatus and method for controlling shooting apparatus
CN103108122B (en) Image synthesizer and image recording process
JP2008042617A (en) Digital camera
JP2011146957A (en) Imaging apparatus, control method thereof, and program
JP2006081037A (en) Image pickup device
JP2012235377A (en) Image processing apparatus, image processing method, and program
JP2001054014A (en) Electronic camera
JP2010011153A (en) Imaging apparatus, imaging method and program
JP4359662B2 (en) Color image exposure compensation method
JP2003309854A (en) Digital camera
JP5752993B2 (en) Image processing apparatus and image processing program
JP2013051516A (en) Imaging device and determination method, and program