JP5146015B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP5146015B2
JP5146015B2 JP2008053377A JP2008053377A JP5146015B2 JP 5146015 B2 JP5146015 B2 JP 5146015B2 JP 2008053377 A JP2008053377 A JP 2008053377A JP 2008053377 A JP2008053377 A JP 2008053377A JP 5146015 B2 JP5146015 B2 JP 5146015B2
Authority
JP
Japan
Prior art keywords
white balance
white
correction coefficient
area
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008053377A
Other languages
Japanese (ja)
Other versions
JP2009212787A (en
Inventor
健一郎 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008053377A priority Critical patent/JP5146015B2/en
Publication of JP2009212787A publication Critical patent/JP2009212787A/en
Application granted granted Critical
Publication of JP5146015B2 publication Critical patent/JP5146015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、撮像装置及び撮像方法、並びにコンピュータ読み取り可能な記録媒体に関し、特に、良好なホワイトバランス補正が可能なホワイトバランス制御機能を備えた撮像装置及び撮像方法に関するものである。   The present invention relates to an imaging apparatus, an imaging method, and a computer-readable recording medium, and more particularly to an imaging apparatus and an imaging method having a white balance control function capable of performing good white balance correction.

従来の撮像装置では、画面全体に均一な光源であれば、光源を推定して画面全体に同じホワイトバランスをかけるといった方法が広く用いられている。しかし、画面内に異なる種類の光源の照射エリアが存在する場合、画面全体に同じホワイトバランスをかける方法であると、異なる種類の光源の照射エリアそれぞれに対して適切なホワイトバランスとすることができない。   In conventional imaging devices, if the light source is uniform over the entire screen, a method of estimating the light source and applying the same white balance to the entire screen is widely used. However, when there are irradiation areas of different types of light sources in the screen, it is not possible to achieve an appropriate white balance for each of the irradiation areas of different types of light sources if the same white balance is applied to the entire screen. .

そこで特許文献1では、小領域に分割したエリア毎にホワイトバランスを掛けることで、画面全体に対して色ずれを生じさせないホワイトバランス制御機能が開示されている。
また特許文献2では、隣り合うエリアで異なるホワイトバランスが掛けられたエリア境界での色ずれを解消するために、画素毎にホワイトバランス係数を掛けるホワイトバランス制御機能が開示されている。
さらに特許文献3では、カラー画像を照明成分の輝度値によって複数種類の光源に対応する領域に分割し、領域毎の補正係数を算出するホワイトバランス制御機能が開示されている。
Therefore, Patent Document 1 discloses a white balance control function that does not cause color misregistration with respect to the entire screen by applying white balance to each area divided into small areas.
Further, Patent Document 2 discloses a white balance control function for multiplying a pixel by a white balance coefficient in order to eliminate a color shift at an area boundary where different white balance is applied in adjacent areas.
Further, Patent Document 3 discloses a white balance control function that divides a color image into regions corresponding to a plurality of types of light sources according to luminance values of illumination components, and calculates a correction coefficient for each region.

特開2002−271638号公報JP 2002-271638 A 特開2005−347811号公報JP 2005-347811 A 特開2007−129622号公報JP 2007-129622 A

しかし、上記した特許文献1〜3に記載の発明では、同じ距離に位置する被写体に対して複数の光源が存在する場合、例えば、顔の半分が日向で、半分が日陰だとすると、同一の物体に対して複数のホワイトバランスが掛かることになり、不自然な画像となる。
また、黄色は比較的輝度が高く、一方で青色は輝度が低いため、日向の青色が日陰の黄色よりも輝度が低いといった減少が起こるので、撮影シーンによっては輝度成分のみを基にした領域分割では必ずしも光源に対応したホワイトバランス補正を行うことができないということが課題となっている。
However, in the inventions described in Patent Documents 1 to 3, when there are a plurality of light sources for a subject located at the same distance, for example, assuming that half of the face is sunny and half is shade, On the other hand, a plurality of white balances are applied, resulting in an unnatural image.
In addition, since yellow has a relatively high luminance, while blue has a low luminance, there is a reduction in that the blue in the sun is lower than the shaded yellow, so depending on the shooting scene, area division based only on the luminance component However, the problem is that it is not always possible to perform white balance correction corresponding to the light source.

さらに、光源毎に領域を分割してそれぞれの領域で白抽出を行っても色温度追従範囲を広くする目的で白抽出範囲を広く設けているために、有彩色の影響により領域毎に最適なホワイトバランスをかけることができないといった問題がある。即ち、日向と日陰では色情報の分布が似ており領域毎に白抽出を行っても有彩色の影響を受けた結果、日向領域と日陰領域のホワイトバランスがほとんど同じになってしまう。このため、画面全体に同じホワイトバランスをかける場合と同様、日向(高輝度領域)と日陰(低輝度領域)とが存在するシーンでは、日向に最適なホワイトバランスをかけると日陰領域が青くなり、日陰領域の肌が青白くなる。また逆に、日陰領域に最適なホワイトバランスかけると日向領域が黄色くなり、日陰領域の白い部分と空の評価値がほぼ同じ位置に分布することから空を白くしてしまうといった問題が生じてしまう。
従来、ダイナミックレンジの狭いセンサーを用いた撮像装置では、日陰領域と空(日向領域)が存在する場合、日陰領域に合った露出では、日陰領域に最適なホワイトバランスを空に対して掛けてもそもそも空は白飛びしている為に問題とならなかった。また、空に合った露出では空を白くしないホワイトバランスを日陰領域に対して掛けてもそもそも日陰領域は暗くなり極端に彩度が落ちていた為、問題がなかった。しかし、今後はダイナミックレンジが広いセンサーを用いた撮像装置若しくは画像処理によるダイナミックレンジ拡大の普及が予想されるので、日陰領域に最適なホワイトバランスをかけた場合でも空を白くしない、また日向領域、空に最適なホワイトバランスをかけた場合でも日陰領域の肌を青白くしないようにすることが要求される。
In addition, even if the area is divided for each light source and white extraction is performed in each area, a white extraction range is provided for the purpose of widening the color temperature tracking range. There is a problem that white balance cannot be applied. That is, the distribution of color information is similar between the sun and the shade, and even if white extraction is performed for each area, as a result of being affected by the chromatic color, the white balance between the sun area and the shade area becomes almost the same. For this reason, as in the case where the same white balance is applied to the entire screen, in a scene where the sun (high brightness area) and the shade (low brightness area) exist, the shade area becomes blue when the optimal white balance is applied to the sun, The shaded area becomes pale. Conversely, when the optimal white balance is applied to the shaded area, the sunlit area becomes yellow, and the white part of the shaded area and the sky evaluation value are distributed at almost the same position, which causes the problem of whitening the sky. .
Conventionally, in an imaging apparatus using a sensor with a narrow dynamic range, if there is a shaded area and sky (the sunlit area), the optimal white balance for the shaded area can be applied to the sky with an exposure that matches the shaded area. In the first place, the sky wasn't a problem because it was white. In addition, even when the white balance that does not make the sky white is applied to the shaded area in the exposure that matches the sky, there was no problem because the shaded area was darkened and the saturation was extremely low in the first place. However, in the future, it is expected that the imaging device using a sensor with a wide dynamic range or the expansion of the dynamic range by image processing is expected, so even if the optimum white balance is applied to the shaded area, the sky will not be whitened, the sunny area, Even when the white balance optimal for the sky is applied, it is required not to make the skin in the shaded area pale.

本発明は、以上の従来技術における問題に鑑みてなされたものであり、輝度成分によらず安定した領域分割を行い、更に同じ距離に位置する被写体に対しても良好なホワイトバランス補正を行う撮像装置及び撮像方法、並びにコンピュータ読み取り可能な記録媒体を提供することを目的とする。   The present invention has been made in view of the above-described problems in the prior art, and performs imaging that performs stable region division regardless of the luminance component, and also performs good white balance correction for subjects located at the same distance. An object is to provide an apparatus, an imaging method, and a computer-readable recording medium.

即ち、上記課題を解決するために本発明に係る撮像装置及び撮像方法、並びにコンピュータ読取可能な記録媒体は、具体的には下記(1)〜(15)に記載の技術的特徴を有する。
(1):光学系から入射した光を電気信号に変換して撮像信号として出力する撮像素子と、測距対象との距離情報を取得する距離情報取得手段と、前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得手段とを備える撮像装置において、前記距離情報と色差情報とに基づき、前記撮像信号を複数の領域に分割する領域分割手段と、当該分割された領域毎のホワイトバランス評価値に基づいて領域毎のホワイトバランス補正係数を算出する補正係数算出手段と、当該分割された領域毎に前記ホワイトバランス補正係数を設定するホワイトバランス演算手段とを備えることを特徴とする撮像装置である。
That is, in order to solve the above problems, an imaging apparatus and an imaging method, and a computer-readable recording medium according to the present invention specifically have the technical features described in (1) to (15) below.
(1): an image sensor that converts light incident from the optical system into an electrical signal and outputs it as an image signal, distance information acquisition means for acquiring distance information from a distance measurement target, and a white balance evaluation value from the image signal A white balance evaluation value acquisition unit that extracts a white balance evaluation value, and an area dividing unit that divides the imaging signal into a plurality of areas based on the distance information and color difference information; and a white balance for each of the divided areas An imaging apparatus comprising: correction coefficient calculation means for calculating a white balance correction coefficient for each area based on an evaluation value; and white balance calculation means for setting the white balance correction coefficient for each divided area. It is.

(2):前記領域分割手段は、前記撮像信号の距離情報と、色情報と、輝度情報とから、高輝度領域と低輝度領域とに分割し、前記高輝度領域および前記低輝度領域の夫々に対して、領域毎に白抽出範囲を変えて白抽出を行う白抽出手段を備え、前記補正係数算出手段は、前記白抽出手段によって得られた白抽出結果と、当該分割された領域毎のホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする上記(1)に記載の撮像装置である。 (2): The area dividing unit divides the high-luminance area and the low-luminance area from the distance information, the color information, and the luminance information of the imaging signal, respectively. In contrast, a white extraction unit that performs white extraction by changing a white extraction range for each region, and the correction coefficient calculation unit includes a white extraction result obtained by the white extraction unit, and a result for each of the divided regions. The image pickup apparatus according to (1), wherein a white balance correction coefficient for each region is calculated based on the white balance evaluation value.

(3):前記白抽出手段は、前記高輝度領域において、当該高輝度領域のホワイトバランス評価値と、高輝度領域用白抽出範囲とを基に白抽出を行い、前記低輝度領域において、当該低輝度領域のホワイトバランス評価値と、低輝度領域用白抽出範囲とを基に白抽出を行うことを特徴とする上記(2)に記載の撮像装置である。 (3): The white extraction means performs white extraction based on a white balance evaluation value of the high luminance region and a white extraction range for the high luminance region in the high luminance region, and in the low luminance region, The imaging apparatus according to (2), wherein white extraction is performed based on a white balance evaluation value of a low luminance area and a white extraction range for the low luminance area.

(4):前記撮像信号を複数のブロックに分割するブロック分割手段を備え、当該分割されたブロックは、注目画素と、非注目画素とを有し、前記ホワイトバランス演算手段は、当該分割されたブロック毎の注目画素に、前記ホワイトバランス補正係数を取得する第1補正係数取得手段と、当該分割されたブロック毎の非注目画素に、周辺の注目画素のホワイトバランス補正係数と、当該非注目画素から前記周辺の注目画素までの距離による補間で前記ホワイトバランス補正係数を取得する第2補正係数取得手段と、を有し、前記第1補正係数取得手段と前記第2補正係数取得手段とによって取得したホワイトバラン補正係数を画素毎に設定することを特徴とする上記(1)乃至(3)のいずれか1項に記載の撮像装置である。 (4) : a block dividing unit that divides the imaging signal into a plurality of blocks, the divided block having a target pixel and a non-target pixel, and the white balance calculating unit First correction coefficient acquisition means for acquiring the white balance correction coefficient for a target pixel for each block; a white balance correction coefficient for a peripheral target pixel for each of the divided blocks; and the non-target pixel Second correction coefficient acquisition means for acquiring the white balance correction coefficient by interpolation based on the distance from the surrounding target pixel to the surrounding target pixel, and acquired by the first correction coefficient acquisition means and the second correction coefficient acquisition means The imaging apparatus according to any one of (1) to (3) , wherein the white balun correction coefficient is set for each pixel.

(5):前記注目画素は、当該分割されたブロックの中央に位置する画素であることを特徴とする上記(4)に記載の撮像装置である。 (5) The imaging device according to (4) , wherein the target pixel is a pixel located at a center of the divided block.

(6):光学系から入射した光を電気信号に変換して撮像信号として出力する光電変換工程と、測距対象との距離情報を取得する距離情報取得工程と、前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得工程とを備える撮像方法において、前記距離情報と色差情報とに基づき、前記撮像信号を複数の領域に分割する領域分割工程と、当該分割された領域毎のホワイトバランス評価値に基づいて領域毎のホワイトバランス補正係数を算出する補正係数算出工程と、当該分割された領域毎に前記ホワイトバランス補正係数を設定するホワイトバランス演算工程とを備えることを特徴とする撮像方法である。 (6) : a photoelectric conversion step of converting light incident from the optical system into an electrical signal and outputting it as an imaging signal, a distance information acquisition step of acquiring distance information with respect to a distance measuring object, and white balance evaluation from the imaging signal A white balance evaluation value acquiring step for extracting a value, an area dividing step for dividing the imaging signal into a plurality of regions based on the distance information and color difference information, and a white for each of the divided regions An imaging device comprising: a correction coefficient calculation step for calculating a white balance correction coefficient for each region based on a balance evaluation value; and a white balance calculation step for setting the white balance correction coefficient for each of the divided regions. Is the method.

(7):前記領域分割工程は、前記撮像信号の距離情報と、色情報と、輝度情報とから、高輝度領域と低輝度領域とに分割し、前記高輝度領域および前記低輝度領域の夫々に対して、領域毎に白抽出範囲を変えて白抽出を行う白抽出工程を備え、前記補正係数算出工程は、前記白抽出工程によって得られた白抽出結果と、当該分割された領域毎のホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする上記(6)に記載の撮像方法である。 (7) : The region dividing step divides the high luminance region and the low luminance region from the distance information, the color information, and the luminance information of the imaging signal into a high luminance region and a low luminance region, respectively. In contrast, a white extraction step of performing white extraction by changing a white extraction range for each region, the correction coefficient calculation step includes a white extraction result obtained by the white extraction step, and a result of each of the divided regions. The white balance correction value for each region is calculated based on the white balance evaluation value, and the imaging method according to (6) above.

(8):前記白抽出工程は、前記高輝度領域において、当該高輝度領域のホワイトバランス評価値と、高輝度領域用白抽出範囲とを基に白抽出を行い、前記低輝度領域において、当該低輝度領域のホワイトバランス評価値と、低輝度領域用白抽出範囲とを基に白抽出を行うことを特徴とする上記(7)に記載の撮像方法である。 (8) : In the high luminance region, the white extraction step performs white extraction based on a white balance evaluation value of the high luminance region and a white extraction range for the high luminance region, and in the low luminance region, The imaging method according to (7) , wherein white extraction is performed based on a white balance evaluation value of a low luminance region and a white extraction range for the low luminance region.

(9):前記撮像信号を複数のブロックに分割するブロック分割工程を備え、当該分割されたブロックは、注目画素と、非注目画素とを有し、前記ホワイトバランス演算工程は、当該分割されたブロック毎の注目画素に、前記ホワイトバランス補正係数を取得する第1補正係数取得工程と、当該分割されたブロック毎の非注目画素に、周辺の注目画素のホワイトバランス補正係数と、当該非注目画素から前記周辺の注目画素までの距離による補間で前記ホワイトバランス補正係数を取得する第2補正係数取得工程と、を有し、前記第1補正係数取得工程と前記第2補正係数取得工程とによって取得したホワイトバラン補正係数を画素毎に設定することを特徴とする上記(6)乃至(8)のいずれか1項に記載の撮像方法である。 (9) : a block dividing step of dividing the imaging signal into a plurality of blocks, the divided block having a target pixel and a non-target pixel, and the white balance calculating step A first correction coefficient acquisition step of acquiring the white balance correction coefficient for the target pixel for each block; a white balance correction coefficient for a peripheral target pixel for the non-target pixel for each of the divided blocks; and the non-target pixel A second correction coefficient acquisition step of acquiring the white balance correction coefficient by interpolation based on a distance from the surrounding target pixel to the surrounding target pixel, acquired by the first correction coefficient acquisition step and the second correction coefficient acquisition step The imaging method according to any one of (6) to (8) , wherein the white balun correction coefficient is set for each pixel.

(10):前記注目画素は、当該分割されたブロックの中央に位置する画素であることを特徴とする上記(9)に記載の撮像方法である。 (10) The imaging method according to (9) , wherein the target pixel is a pixel located at a center of the divided block.

(11):光学系から入射した光を電気信号に変換して撮像信号として出力する光電変換処理と、測距対象との距離情報を取得する距離情報取得処理と、前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得処理とをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、前記距離情報と色差情報とに基づき、前記撮像信号を複数の領域に分割する領域分割処理と、当該分割された領域毎のホワイトバランス評価値に基づいて領域毎のホワイトバランス補正係数を算出する補正係数算出処理と、当該分割された領域毎に前記ホワイトバランス補正係数を設定するホワイトバランス演算処理とを備えることを特徴とするコンピュータ読み取り可能な記録媒体である。 (11) : photoelectric conversion processing for converting light incident from the optical system into an electrical signal and outputting it as an imaging signal; distance information acquisition processing for acquiring distance information with respect to a distance measurement target; and white balance evaluation from the imaging signal A computer-readable recording medium recording a program for causing a computer to execute a white balance evaluation value acquisition process for extracting a value, wherein the imaging signal is divided into a plurality of regions based on the distance information and color difference information. Area division processing for dividing, correction coefficient calculation processing for calculating a white balance correction coefficient for each area based on the white balance evaluation value for each of the divided areas, and the white balance correction coefficient for each of the divided areas. A computer-readable recording medium comprising: white balance calculation processing to be set.

(12):前記領域分割処理は、前記撮像信号の距離情報と、色情報と、輝度情報とから、高輝度領域と低輝度領域とに分割し、前記高輝度領域および前記低輝度領域の夫々に対して、領域毎に白抽出範囲を変えて白抽出を行う白抽出処理を備え、前記補正係数算出処理は、前記白抽出処理によって得られた白抽出結果と、当該分割された領域毎のホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする上記(11)に記載のコンピュータ読み取り可能な記録媒体である。 (12) : The area dividing process divides the high luminance area and the low luminance area from the distance information, the color information, and the luminance information of the imaging signal, respectively. In contrast, a white extraction process for performing white extraction by changing a white extraction range for each area is provided, and the correction coefficient calculation process includes a white extraction result obtained by the white extraction process, and a result for each of the divided areas. The computer-readable recording medium according to (11) , wherein a white balance correction coefficient for each region is calculated based on the white balance evaluation value.

(13):前記白抽出処理は、前記高輝度領域において、当該高輝度領域のホワイトバランス評価値と、高輝度領域用白抽出範囲とを基に白抽出を行い、前記低輝度領域において、当該低輝度領域のホワイトバランス評価値と、低輝度領域用白抽出範囲とを基に白抽出を行うことを特徴とする上記(12)に記載のコンピュータ読み取り可能な記録媒体である。 (13) : The white extraction process performs white extraction in the high luminance region based on a white balance evaluation value of the high luminance region and a white extraction range for the high luminance region. The computer-readable recording medium according to (12) , wherein white extraction is performed based on a white balance evaluation value of a low luminance area and a white extraction range for the low luminance area.

(14):前記撮像信号を複数のブロックに分割するブロック分割処理を備え、当該分割されたブロックは、注目画素と、非注目画素とを有し、前記ホワイトバランス演算処理は、当該分割されたブロック毎の注目画素に、前記ホワイトバランス補正係数を取得する第1補正係数取得処理と、当該分割されたブロック毎の非注目画素に、周辺の注目画素のホワイトバランス補正係数と、当該非注目画素から前記周辺の注目画素までの距離による補間で前記ホワイトバランス補正係数を取得する第2補正係数取得処理と、を有し、前記第1補正係数取得処理と前記第2補正係数取得処理とによって取得したホワイトバラン補正係数を画素毎に設定することを特徴とする上記(11)乃至(13)のいずれか1項に記載のコンピュータ読み取り可能な記録媒体である。 (14) : a block division process for dividing the imaging signal into a plurality of blocks, wherein the divided block includes a target pixel and a non-target pixel, and the white balance calculation process is performed by the division A first correction coefficient acquisition process for acquiring the white balance correction coefficient for a target pixel for each block, a white balance correction coefficient for a peripheral target pixel for each of the divided blocks, and the non-target pixel And a second correction coefficient acquisition process for acquiring the white balance correction coefficient by interpolation based on a distance from the surrounding target pixel to the surrounding target pixel, and acquired by the first correction coefficient acquisition process and the second correction coefficient acquisition process. The computer-readable data according to any one of (11) to (13) , wherein the white balun correction coefficient is set for each pixel. It is a capable recording medium.

(15):前記注目画素は、当該分割されたブロックの中央に位置する画素であることを特徴とする上記(14)に記載のコンピュータ読み取り可能な記録媒体である。 (15) The computer-readable recording medium according to (14) , wherein the target pixel is a pixel located at a center of the divided block.

本発明によれば、輝度成分によらず安定した領域分割を行い、更に同じ距離に位置する被写体に対しても良好なホワイトバランス補正を行う撮像装置および撮像方法、並びにコンピュータに実行可能な記録媒体を提供することができる。   According to the present invention, an image pickup apparatus and image pickup method that perform stable region division regardless of luminance components, and further perform good white balance correction for subjects located at the same distance, and a computer-executable recording medium Can be provided.

本発明の撮像装置は、光学系から入射した光を電気信号に変換して撮像信号として出力する撮像素子と、測距対象との距離情報を取得する距離情報取得手段と、前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得手段とを備える撮像装置において、前記距離情報と色差情報とに基づき、前記撮像信号を複数の領域に分割する領域分割手段と、当該分割された領域毎のホワイトバランス評価値に基づいて領域毎のホワイトバランス補正係数を算出する補正係数算出手段と、当該分割された領域毎に前記ホワイトバランス補正係数を設定するホワイトバランス演算手段とを備えることを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup element that converts light incident from an optical system into an electric signal and outputs the signal as an image pickup signal, distance information acquisition means for acquiring distance information from a distance measurement target, and white from the image pickup signal. In an imaging apparatus including a white balance evaluation value acquisition unit that extracts a balance evaluation value, an area dividing unit that divides the imaging signal into a plurality of areas based on the distance information and color difference information, and for each of the divided areas Correction coefficient calculation means for calculating a white balance correction coefficient for each area based on the white balance evaluation value, and white balance calculation means for setting the white balance correction coefficient for each of the divided areas. To do.

次に、図面を用いて本発明に係る撮像装置の基本的な構成についてさらに詳細に説明する。
尚、以下に述べる実施の形態は、本発明の好適な実施の形態であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は以下の説明において特に本発明を限定する旨の記載がない限りこれらの態様に限られるものではない。
Next, the basic configuration of the imaging apparatus according to the present invention will be described in more detail with reference to the drawings.
The embodiments described below are preferred embodiments of the present invention, and thus various technically preferable limitations are given. However, the scope of the present invention is particularly limited in the following description. Unless otherwise stated, the present invention is not limited to these embodiments.

〔第1の実施の形態〕
(デジタルカメラの外観構成)
図1は、本実施形態に係る撮像装置の第1の実施の形態であるデジタルカメラの外観を示す概略図である。
図1に示すように、本実施の形態に係るデジタルカメラの上面側には、レリーズボタン(シャッタボタン)、電源ボタン、撮影・再生切替ダイアルが設けられており、デジタルカメラの正面(前面)側には、撮影レンズ系を有する鏡胴ユニット、ストロボ発光部、光学ファインダが設けられている。
[First Embodiment]
(Appearance structure of digital camera)
FIG. 1 is a schematic diagram illustrating an appearance of a digital camera that is a first embodiment of an imaging apparatus according to the present embodiment.
As shown in FIG. 1, a release button (shutter button), a power button, and a shooting / playback switching dial are provided on the upper surface side of the digital camera according to the present embodiment, and the front (front) side of the digital camera. Includes a lens barrel unit having a photographing lens system, a strobe light emitting unit, and an optical viewfinder.

デジタルカメラの背面側には、液晶モニタ(LCD)、前記光学ファインダの接眼レンズ部、広角側ズーム(W)スイッチ、望遠側ズーム(T)スイッチ、メニュー(MENU)ボタン、確定ボタン(OKボタン)等が設けられている。また、デジタルカメラの側面内部には、撮影した画像データを保存するためのメモリカードを収納するメモリカード収納部が設けられている。   On the back side of the digital camera is a liquid crystal monitor (LCD), the eyepiece of the optical viewfinder, wide-angle zoom (W) switch, telephoto zoom (T) switch, menu (MENU) button, and enter button (OK button) Etc. are provided. In addition, a memory card storage unit for storing a memory card for storing captured image data is provided inside the side surface of the digital camera.

(デジタルカメラのシステム構成)
図2は、本発明に係る撮像装置の第1の実施の形態であるデジタルカメラの構成を示すブロック図である。
図2に示すように、このデジタルカメラ内には、鏡胴ユニットに設置した撮影レンズ系(光学系)を通して入射される被写体画像が受光面上に結像する固体撮像素子としてのCCD、CCDから出力される電気信号(アナログRGB画像信号)をデジタル信号(撮像信号)に処理するアナログフロントエンド部(AFE部)、AFE部から出力されるデジタル信号を処理する信号処理部、データを一時的に格納するSDRAM、制御プログラム等が記憶されたROM、モータドライバ等が設けられている。
(Digital camera system configuration)
FIG. 2 is a block diagram showing a configuration of a digital camera which is the first embodiment of the imaging apparatus according to the present invention.
As shown in FIG. 2, in this digital camera, a CCD, a CCD as a solid-state imaging device, on which a subject image incident through a photographing lens system (optical system) installed in a lens barrel unit is formed on a light receiving surface. An analog front end unit (AFE unit) that processes electrical signals (analog RGB image signals) that are output into digital signals (imaging signals), a signal processing unit that processes digital signals output from the AFE unit, and data temporarily An SDRAM to be stored, a ROM in which a control program is stored, a motor driver, and the like are provided.

鏡胴ユニットは、ズームレンズやフォーカスレンズ等を有する撮影レンズ系、絞りユニット、メカシャッタユニットを備えており、撮影レンズ系、絞りユニット、メカシャッタユニットの各駆動ユニット(不図示)は、モータドライバによって駆動される。モータドライバは、信号処理部の制御部(CPU)からの駆動信号により駆動制御される。   The lens barrel unit includes a photographic lens system having a zoom lens, a focus lens, and the like, an aperture unit, and a mechanical shutter unit. Each drive unit (not shown) of the photographic lens system, the aperture unit, and the mechanical shutter unit is a motor driver. Driven by. The motor driver is driven and controlled by a drive signal from a control unit (CPU) of the signal processing unit.

CCDは、CCDを構成する複数の画素上に色分解フィルタとしてのRGB原色フィルタが配置されており、RGB3原色に対応した電気信号(アナログRGB画像信号)が出力される。   In the CCD, RGB primary color filters as color separation filters are arranged on a plurality of pixels constituting the CCD, and electrical signals (analog RGB image signals) corresponding to the three primary colors of RGB are output.

AFE部は、CCDを駆動するTG(タイミング信号発生部)、CCDから出力される電気信号(アナログRGB画像信号)をサンプリングするCDS(相関2重サンプリング部)、CDSにてサンプリングされた画像信号のゲインを調整するAGC(アナログ利得制御部)、AGCでゲイン調整された画像信号をデジタル信号(RAW−RGBデータ)に変換するA/Dを備えている。   The AFE unit includes a TG (timing signal generation unit) that drives the CCD, a CDS (correlated double sampling unit) that samples an electrical signal (analog RGB image signal) output from the CCD, and an image signal sampled by the CDS. An AGC (analog gain control unit) that adjusts the gain and an A / D that converts the image signal gain-adjusted by the AGC into a digital signal (RAW-RGB data) are provided.

信号処理部は、AFE部のTGへ画面水平同期信号(HD)と画面垂直同期信号(VD)の出力を行い、これらの同期信号に合わせて、AFE部のA/Dから出力されるRAW−RGBデータを取り込むCCDインターフェース(CCDI/F)と、SDRAMを制御するメモリコントローラと、取り込んだRAW−RGBデータを表示や記録が可能なYUV形式の画像データに変換するYUV変換部と、表示や記録される画像データのサイズに合わせて画像サイズを変更するリサイズ処理部と、画像データの表示出力を制御する表示出力制御部と、画像データをJPEG形成などで記録するためのデータ圧縮部と、画像データをメモリカードへ書き込み、又はメモリカードに書き込まれた画像データを読み出すメディアインターフェース(メディアI/F)と、操作部からの操作入力情報に基づき、ROMに記憶された制御プログラムに基づいてデジタルカメラ全体のシステム制御等を行う制御部(CPU)を備えている。   The signal processing unit outputs a screen horizontal synchronizing signal (HD) and a screen vertical synchronizing signal (VD) to the TG of the AFE unit, and the RAW− output from the A / D of the AFE unit according to these synchronizing signals. A CCD interface (CCD I / F) that captures RGB data, a memory controller that controls the SDRAM, a YUV converter that converts the captured RAW-RGB data into YUV format image data that can be displayed and recorded, and display and recording A resizing processing unit that changes the image size according to the size of the image data to be displayed, a display output control unit that controls display output of the image data, a data compression unit for recording image data by JPEG formation, and the like Media interface that writes data to a memory card or reads image data written to a memory card ( And Deer I / F), based on the operation input information from the operation unit, and a control section for entire digital camera system control or the like based on the control program stored in a ROM (CPU).

操作部は、デジタルカメラ(図1参照)の外観表面に設けられているレリーズボタン、電源ボタン、撮影・再生切替ダイアル、広角側ズームスイッチ、望遠側ズームスイッチ、メニューボタン、確定ボタン等であり、撮影者の操作によって所定の動作指示信号が制御部に入力される。   The operation unit includes a release button, a power button, a shooting / playback switching dial, a wide-angle zoom switch, a telephoto zoom switch, a menu button, a confirmation button, and the like provided on the external surface of the digital camera (see FIG. 1). A predetermined operation instruction signal is input to the control unit by a photographer's operation.

SDRAMには、CCDI/Fに取り込まれたRAW−RGBデータが保存されると共に、YUV変換部で変換処理されたYUVデータ(YUV形式の画像データ)が保存され、更に、データ圧縮部で圧縮処理されたJPEG形成などの画像データが保存される。また、OSD(オンスクリーンディスプレイ)とは、LCDディスプレイに表示させるデータであり、YUVデータ若しくはJPEG画像の上に操作系の設定情報を重ねたものとなる。   In the SDRAM, the RAW-RGB data captured by the CCD I / F is stored, and YUV data (YUV format image data) converted by the YUV conversion unit is stored, and further compressed by the data compression unit. The image data such as JPEG formation is stored. The OSD (On Screen Display) is data to be displayed on the LCD display, and is obtained by superimposing operation system setting information on YUV data or JPEG images.

なお、前記YUVデータのYUVは、輝度データ(Y)と、色差(輝度データと青色(B)成分データの差分(U)と、輝度データと赤色(R)成分データの差分(V))の情報で色を表現する形式である。この画像変換をする際に、制御部からISPに対して、WBゲインRg、Bgを設定する。   Note that YUV of the YUV data is luminance data (Y), color difference (difference (U) between luminance data and blue (B) component data, and difference (V) between luminance data and red (R) component data). It is a format that expresses color with information. When performing this image conversion, WB gains Rg and Bg are set from the control unit to the ISP.

ISP(イメージシグナルプロセッサ)とは、ホワイトバランス、ガンマ補正、色補正等を行う信号処理部のメイン部分である。   An ISP (image signal processor) is a main part of a signal processing unit that performs white balance, gamma correction, color correction, and the like.

(デジタルカメラのモニタリング動作、静止画撮影動作)
次に、前記したデジタルカメラのモニタリング動作と静止画撮影動作について説明する。このデジタルカメラは、静止画撮影モード時には、以下に説明するようなモニタリング動作を実行しながら静止画撮影動作が行われる。
(Digital camera monitoring and still image shooting)
Next, the monitoring operation and still image shooting operation of the digital camera will be described. This digital camera performs a still image shooting operation while performing a monitoring operation as described below in the still image shooting mode.

先ず、撮影者が電源ボタンをONし、撮影・再生切替ダイアルを撮影モード(静止画撮影モード)に設定することで、デジタルカメラが記録モードで起動する。電源ボタンがONされて、撮影・再生切替ダイアルが撮影モードに設定されたことを制御部が検知すると、制御部はモータドライバに制御信号を出力して、鏡胴ユニットを撮影可能位置に移動させ、かつ、CCD、AFE部、信号処理部、SDRAM、ROM、液晶モニタ等を起動させる。   First, when the photographer turns on the power button and sets the photographing / playback switching dial to the photographing mode (still image photographing mode), the digital camera is activated in the recording mode. When the control unit detects that the power button is turned on and the shooting / playback switching dial is set to the shooting mode, the control unit outputs a control signal to the motor driver, and moves the lens barrel unit to the shooting enabled position. In addition, the CCD, the AFE unit, the signal processing unit, the SDRAM, the ROM, the liquid crystal monitor, and the like are activated.

そして、鏡胴ユニットの撮影レンズ系を被写体に向けることにより、撮影レンズ系を通して入射される被写体画像がCCDの各画素の受光面上に結像する。そして、CCDから出力される被写体画像に応じた電気信号(アナログRGB画像信号)は、CDS、AGCを介してA/Dに入力され、A/Dにより12ビット(bit)のRAW−RGBデータに変換する。   Then, by directing the photographic lens system of the lens barrel unit toward the subject, a subject image incident through the photographic lens system is formed on the light receiving surface of each pixel of the CCD. An electrical signal (analog RGB image signal) corresponding to the subject image output from the CCD is input to the A / D via the CDS and AGC, and converted into 12-bit (RAW) RGB data by the A / D. Convert.

このRAW−RGBデータは、信号処理部のCCDI/Fに取り込まれてメモリコントローラを介してSDRAMに保存される。そして、SDRAMから読み出されたRAW−RGBデータは、YUV変換部に入力されて表示可能な形式であるYUVデータ(YUV信号)に変換された後に、メモリコントローラを介してSDRAMにYUVデータが保存される。   This RAW-RGB data is taken into the CCD I / F of the signal processing unit and stored in the SDRAM via the memory controller. The RAW-RGB data read from the SDRAM is input to the YUV converter and converted into YUV data (YUV signal) that can be displayed, and then the YUV data is stored in the SDRAM via the memory controller. Is done.

そして、SDRAMからメモリコントローラを介して読み出したYUVデータは、表示出力制御部を介して液晶モニタ(LCDディスプレイ)へ送られ、撮影画像(動画)が表示される。前記した液晶モニタ(LCDディスプレイ)に撮影画像を表示しているモニタリング時においては、CCDI/Fによる画素数の間引き処理により1/30秒の時間で1フレームを読み出している。   Then, the YUV data read from the SDRAM via the memory controller is sent to the liquid crystal monitor (LCD display) via the display output control unit, and a photographed image (moving image) is displayed. At the time of monitoring in which a photographed image is displayed on the above-described liquid crystal monitor (LCD display), one frame is read out in a time of 1/30 second by thinning out the number of pixels by the CCD I / F.

なお、このモニタリング動作時は、電子ファインダとして機能する液晶モニタ(LCDディスプレイ)に撮影画像(動画)が表示されているだけで、まだレリーズボタンが押圧(半押も含む)操作されていない状態である。   During this monitoring operation, the photographed image (movie) is only displayed on the liquid crystal monitor (LCD display) functioning as an electronic viewfinder, and the release button has not been pressed (including half-pressed). is there.

この撮影画像の液晶モニタ(LCD)への表示によって、静止画を撮影するための構図の確認等をすることができる。なお、表示出力制御部からTVビデオ信号として出力して、ビデオケーブルを介して外部のTV(テレビ)に撮影画像(動画)を表示することもできる。   By displaying the photographed image on a liquid crystal monitor (LCD), the composition for photographing a still image can be confirmed. In addition, it can output as a TV video signal from a display output control part, and a picked-up image (moving image) can also be displayed on external TV (television) via a video cable.

そして、信号処理部のCCDI/Fは、取り込まれたRAW−RGBデータより、AF(自動合焦)評価値、AE(自動露出)評価値、AWB(オートホワイトバランス)評価値を算出する。
尚、本発明において、輝度情報とはAE評価値であり、ホワイトバランス評価値とは、AWB評価値であり、ホワイトバランス評価値取得手段および距離情報取得手段とは、それぞれ信号処理部のCCDI/Fの一部である。
Then, the CCD I / F of the signal processing unit calculates an AF (automatic focus) evaluation value, an AE (automatic exposure) evaluation value, and an AWB (auto white balance) evaluation value from the captured RAW-RGB data.
In the present invention, the luminance information is an AE evaluation value, the white balance evaluation value is an AWB evaluation value, and the white balance evaluation value acquisition unit and the distance information acquisition unit are respectively CCDI / Part of F.

AF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって算出される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、撮影レンズ系内の各フォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦検出位置としてAF動作が実行される。   The AF evaluation value is calculated by, for example, the output integrated value of the high frequency component extraction filter or the integrated value of the luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. By using this, at the time of AF operation (focus detection operation), AF evaluation values at each focus lens position in the photographing lens system are acquired, and AF operation is performed with the maximum point as the focus detection position. Is executed.

AE評価値とAWB評価値は、RAW−RGBデータにおけるRGB値のそれぞれの積分値から算出される。例えば、信号処理部のCCDI/Fの一部である検波回路(ブロック分割手段)によってCCDの全画素の受光面に対応した画面を256エリア(ブロック)に等分割(水平16分割、垂直16分割)された後、それぞれのエリア(ブロック)のRGB積算値がCCDI/Fによって算出される。   The AE evaluation value and the AWB evaluation value are calculated from the integrated values of the RGB values in the RAW-RGB data. For example, the screen corresponding to the light receiving surface of all the pixels of the CCD is equally divided into 256 areas (blocks) by a detection circuit (block dividing means) that is a part of the CCD I / F of the signal processing unit (horizontal 16 divisions, vertical 16 divisions). ), The RGB integrated value of each area (block) is calculated by the CCD I / F.

そして、制御部は、算出されたRGB積算値を読み出し、適正なホワイトバランスになるようなWBのゲインRgainとBgainを算出する。また、AE処理では、画面のそれぞれのエリア(ブロック)の輝度を算出して、輝度分布から適正な露光量を決定する。決定した露光量に基づいて、露光条件(CCDの電子シャッタ回数、絞りユニットの絞り値、NDフィルタの出し入れ等)を設定する。さらに、AWB処理では、RGBの分布から被写体の光源の色に合わせたAWBの制御値を決定する。このAWB処理により、YUV変換部でYUVデータに変換処理するときのホワイトバランスを合わせる。なお、前記したAE処理とAWB処理は、前記モニタリング時には連続的に行われている。   Then, the control unit reads the calculated RGB integrated values and calculates WB gains Rgain and Bgain so as to achieve an appropriate white balance. In the AE process, the brightness of each area (block) on the screen is calculated, and an appropriate exposure amount is determined from the brightness distribution. Based on the determined exposure amount, exposure conditions (the number of electronic shutters of the CCD, the aperture value of the aperture unit, the insertion and removal of the ND filter, etc.) are set. Further, in the AWB process, an AWB control value that matches the color of the light source of the subject is determined from the RGB distribution. By this AWB process, white balance is adjusted when the YUV conversion unit performs conversion processing to YUV data. The AE process and AWB process described above are continuously performed during the monitoring.

そして、前記したモニタリング動作時に、レリーズボタンが押圧(半押しから全押し)操作される静止画撮影動作が開始されると、合焦位置検出動作であるAF動作と静止画記録処理が行われる。   When a still image shooting operation in which the release button is pressed (half-pressed to fully pressed) is started during the monitoring operation described above, an AF operation that is a focus position detection operation and a still image recording process are performed.

即ち、レリーズボタンが押圧(半押しから全押し)操作されると、制御部からモータドライバへの駆動指令により撮影レンズ系のフォーカスレンズが移動し、例えば、いわゆる山登りAFと称されるコントラスト評価方式のAF動作が実行される。   That is, when the release button is pressed (half-pressed to fully pressed), the focus lens of the photographic lens system is moved by a drive command from the control unit to the motor driver. For example, a contrast evaluation method called so-called hill-climbing AF AF operation is executed.

いわゆる山登りAFとは、AF(合焦)対象範囲が無限から至近までの全領域であった場合、撮影レンズ系のフォーカスレンズは、至近から無限、又は無限から至近までの間の各フォーカス位置に移動し、CCDI/F(距離情報取得手段)で算出されている各フォーカス位置における前記AF評価値を制御部が読み出す。そして、各フォーカス位置のAF評価値が極大になる点を合焦位置としてフォーカスレンズを合焦位置に移動させ、合焦させる。   So-called hill-climbing AF means that when the AF (focusing) target range is the entire range from infinity to close, the focus lens of the taking lens system is at each focus position from close to infinity or from infinity to close. The controller reads the AF evaluation value at each focus position calculated by the CCD I / F (distance information acquisition means). Then, the focus lens is moved to the in-focus position with the point where the AF evaluation value at each focus position is maximized as the in-focus position, and in-focus.

そして、前記したAE処理が行われ、露光完了時点で、制御部からモータドライバへの駆動指令によりメカシャッタユニットが閉じられ、CCDから静止画用のアナログRGB画像信号が出力される。そして、前記モニタリング時と同様に、AFE部のA/D変換部によりRAW−RGBデータに変換される。   Then, the AE process described above is performed, and when the exposure is completed, the mechanical shutter unit is closed by a drive command from the control unit to the motor driver, and an analog RGB image signal for a still image is output from the CCD. Then, as in the monitoring, the A / D conversion unit of the AFE unit converts the data into RAW-RGB data.

そして、このRAW−RGBデータ(撮像信号)は、信号処理部のCCDI/Fに取り込まれ、YUV変換部でYUVデータに変換されて、メモリコントローラを介してSDRAMに保存される。そして、このYUVデータはSDRAMから読み出されて、リサイズ処理部で記録画素数に対応するサイズに変換され、データ圧縮部でJPEG形式等の画像データへと圧縮される。圧縮されたJPEG形式等の画像データは、SDRAMに書き戻された後にメモリコントローラを介してSDRAMから読み出され、メディアI/Fを介してメモリカードに保存される。   The RAW-RGB data (imaging signal) is taken into the CCD I / F of the signal processing unit, converted into YUV data by the YUV conversion unit, and stored in the SDRAM via the memory controller. The YUV data is read from the SDRAM, converted into a size corresponding to the number of recorded pixels by the resizing processing unit, and compressed to image data in JPEG format or the like by the data compression unit. The compressed image data such as JPEG format is written back to the SDRAM, read out from the SDRAM via the memory controller, and stored in the memory card via the media I / F.

次に、本発明の特徴となる撮像動作について説明する。
図3は本実施の形態におけるホワイトバランス(以下、WBとも称する)補正の一連の処理をフローにしたものである。
先ず、静止画撮影動作におけるWB、ガンマ補正、色補正等の一連の信号処理を終えた後、ISPより出力されたYUVデータと信号処理前のCCD−I/Fより出力されたRaw−RGBデータとがSDRAMに格納される。ここで格納されたYUVデータは領域毎のWB補正を行う上で必要なデータであって、最終的にメモリカードへ保存されるデータではない。
Next, the imaging operation that characterizes the present invention will be described.
FIG. 3 shows a flow of a series of white balance (hereinafter also referred to as WB) correction processing in the present embodiment.
First, after a series of signal processing such as WB, gamma correction, and color correction in a still image shooting operation is finished, YUV data output from the ISP and Raw-RGB data output from the CCD-I / F before signal processing. Are stored in the SDRAM. The YUV data stored here is data necessary for performing WB correction for each area, and is not data that is finally stored in the memory card.

そして、SDRAMに格納されたYUVデータを再度読み出し、色とエッジ情報を基に画素単位でいくつかのまとまった領域に分割する(S1;領域分割手段)。この時点の分割結果では多くの細かい領域が存在するため、それぞれの領域に対して個別のWB処理を行うには処理時間が増えるなどの不都合が生じるので、領域毎のWB処理にはS1終了時点での分割結果を使用することができない。   Then, the YUV data stored in the SDRAM is read again, and is divided into a number of areas divided in units of pixels based on the color and edge information (S1; area dividing means). Since there are many fine regions in the division result at this time, inconveniences such as an increase in processing time are required to perform individual WB processing for each region. Cannot use the result of division in

次に、色とエッジ情報を基に領域分割した画像に対して更に距離情報を使用して、S1で分割された領域それぞれを距離情報に応じて被写体領域と背景領域としてまとめる(S2;領域分割手段)。距離情報は水平16×垂直16分割のブロック単位で出力され、S1における分割も同様にブロック単位で行う。距離情報のみで領域を分割する方法もあるが、必ずしも全てのブロックで距離情報が取得できるとは限らないため、最初に色とエッジ情報を基に分割し、細かく分割された領域に対して補助する目的で距離情報を使用する。   Next, distance information is further used for the image divided into regions based on the color and edge information, and the regions divided in S1 are grouped as subject regions and background regions according to the distance information (S2; region division) means). The distance information is output in block units of horizontal 16 × vertical 16 divisions, and the division in S1 is similarly performed in block units. There is a method to divide the area only with distance information, but distance information cannot always be acquired for all blocks, so first divide based on color and edge information, and assist with finely divided areas Use distance information for the purpose.

ここで言う距離情報とは、撮像時のオートフォーカス動作で、フォーカス位置を変えて各フォーカス位置で得られるハイパスフィルタ出力値である。このハイパスフィルタ出力値は撮像時CCD−I/FでRaw−RGBデータより水平16×垂直16分割のブロック単位で抽出される。そして、フォーカス位置毎のハイパスフィルタ出力値からピーク検出による合焦を行い、合焦ブロックを被写体領域とし非合焦ブロックを背景領域とする。
図4はブロック単位で領域分割を行ったもので1は被写体領域を表し、2は背景領域を表す。
The distance information mentioned here is a high-pass filter output value obtained at each focus position by changing the focus position in the autofocus operation during imaging. The output value of the high pass filter is extracted from the Raw-RGB data by the CCD-I / F at the time of imaging in block units of horizontal 16 × vertical 16 divisions. Then, focusing is performed by peak detection from the high-pass filter output value for each focus position, and the focused block is set as the subject area and the non-focused block is set as the background area.
FIG. 4 shows an area divided in units of blocks, where 1 represents a subject area and 2 represents a background area.

次に、領域毎にRGB積算値を求めるために、SDRAMに格納されたRaw−RGBデータに対して領域分割と距離情報取得時と同様に水平16×垂直16のブロック単位で分割を行い、S2の領域分割によって分割されたそれぞれの領域に対応する複数のブロックのRGBを積算する(S3;ブロック分割手段)。   Next, in order to obtain the RGB integrated value for each area, the Raw-RGB data stored in the SDRAM is divided into blocks of horizontal 16 × vertical 16 as in the area division and distance information acquisition, and S2 The RGB of a plurality of blocks corresponding to the respective areas divided by the area division are integrated (S3; block dividing means).

次に、領域毎にそれぞれ白抽出を行う(S4;白抽出手段)。白抽出は領域毎にブロック単位で取得したRGB積算値からブロック毎のG/R、G/Bを求め、閾値と比較して閾値以下のブロックを白抽出ブロックとして記憶する。   Next, white extraction is performed for each region (S4; white extraction means). In the white extraction, G / R and G / B for each block are obtained from the RGB integrated values acquired in units of blocks for each region, and blocks below the threshold value are stored as white extraction blocks in comparison with the threshold value.

それぞれの領域のうち、白抽出ブロック数がある一定基準以上ある領域は、白抽出ブロックのG/R、G/Bと当該ブロックの平均輝度値の重み付けによって補正係数を算出する。白抽出ブロック数がある一定基準未満の領域は、その領域内の全ブロックのG/R、G/Bに対して、それぞれのブロックの平均輝度値の重み付けによってホワイトバランス補正係数を算出するか、白抽出ブロック数がある一定基準以上の領域で算出したホワイトバランス補正係数を、白抽出ブロック数がある一定基準未満の領域のホワイトバランス補正係数とする(S5;補正係数算出手段)。   Among each region, a region having a certain number of white extraction blocks equal to or greater than a certain reference is calculated by weighting the G / R and G / B of the white extraction block and the average luminance value of the block. For a region where the number of white extraction blocks is less than a certain standard, a white balance correction coefficient is calculated by weighting the average luminance value of each block for G / R and G / B of all blocks in the region, A white balance correction coefficient calculated in an area where the number of white extraction blocks is equal to or greater than a certain reference is set as a white balance correction coefficient for an area where the number of white extraction blocks is less than a certain reference (S5; correction coefficient calculation means).

各領域いずれにも一定基準を満たす白抽出ブロックが存在しない場合、画面全体のG/R、G/Bと画面全体の平均輝度値の重み付けによってホワイトバランス補正係数を算出する。   When there is no white extraction block satisfying a certain standard in any of the areas, the white balance correction coefficient is calculated by weighting the G / R and G / B of the entire screen and the average luminance value of the entire screen.

白抽出ブロックとは、図4のような撮像画像で具体例を示すとすると、被写体である人物の画像における白い服の領域に存在する(を有する)ブロック、背景の画像における白い雲の領域に存在する(を有する)ブロック等が挙げられる。   If a specific example is shown in the captured image as shown in FIG. 4, the white extraction block is a block that exists in the area of white clothes in the image of the person who is the subject, and a white cloud area in the background image. Examples include (existing) blocks.

本発明においてホワイトバランス補正係数は、平均輝度値が高い領域を重視するような補正係数であることが好ましく、G/R、G/Bに対して平均輝度値が高い領域を重視するような演算を行うことで算出できる。   In the present invention, the white balance correction coefficient is preferably a correction coefficient that emphasizes a region having a high average luminance value, and an operation that emphasizes a region having a high average luminance value with respect to G / R and G / B. It can be calculated by performing

図5のように各ブロックの中央を注目画素とし、領域毎に算出したホワイトバランス補正係数Rgain、Bgainをそれぞれの領域に対応するブロックの注目画素に設定する(S6;ホワイトバランス演算手段)。図5の3は被写体領域で算出したホワイトバランス補正係数Rgain、Bgainを設定する注目画素、図5の4は背景領域に算出したホワイトバランス補正係数Rgain、Bgainを設定する注目画素である。   As shown in FIG. 5, the center of each block is set as the target pixel, and the white balance correction coefficients Rgain and Bgain calculated for each region are set to the target pixel of the block corresponding to each region (S6; white balance calculating means). 3 in FIG. 5 is a target pixel for setting white balance correction coefficients Rgain and Bgain calculated in the subject area, and 4 in FIG. 5 is a target pixel for setting white balance correction coefficients Rgain and Bgain calculated in the background area.

非注目画素のホワイトバランス補正係数Rgain、Bgainは当該ブロックの注目画素と周辺の注目画素に設定されているホワイトバランス補正係数と当該画素からの距離による補間によって求める(S7;ホワイトバランス演算手段)。   The white balance correction coefficients Rgain and Bgain of the non-target pixel are obtained by interpolation based on the white balance correction coefficient set for the target pixel of the block and the peripheral target pixel and the distance from the pixel (S7; white balance calculation means).

図6を基に非注目画素のホワイトバランス補正係数算出方法を説明する。ホワイトバランス補正係数の算出対象とする非注目画素のRgain(Bgain)を11とし周辺の注目画素のホワイトバランス補正係数Rgain(Bgain)をR0(B0)、R1(B1)、R2(B2)、R3(B3)とする。R3(B3)の位置を1で正規化し補正係数の算出対象となる非注目画素の位置をx、yで表し以下の計算式によって補正係数を算出する。   A method for calculating the white balance correction coefficient of the non-target pixel will be described with reference to FIG. The Rgain (Bgain) of the non-target pixel for which the white balance correction coefficient is to be calculated is 11, and the white balance correction coefficients Rgain (Bgain) of the surrounding target pixels are R0 (B0), R1 (B1), R2 (B2), R3. (B3). The position of R3 (B3) is normalized by 1, the position of the non-target pixel for which the correction coefficient is to be calculated is represented by x and y, and the correction coefficient is calculated by the following calculation formula.

Rgain=(1−x)(1−y)R0+x(1−y)R1+(1−x)yR2+xyR3
Bgain=(1−x)(1−y)B0+x(1−y)B1+(1−x)yB2+xyB3
Rgain = (1-x) (1-y) R0 + x (1-y) R1 + (1-x) yR2 + xyR3
Bgain = (1-x) (1-y) B0 + x (1-y) B1 + (1-x) yB2 + xyB3

具体的には、例えばR0=1.5、R1=1.2、R2=1.2、R3=1.2、x=0.7、y=0.6とした場合の非注目画素のRgainは以下のようになる。
Rgain={(1−0.7)×(1−0.6)×1.5}+{0.7×(1−0.6)×1.2}+{(1−0.7)×0.6×1.2}+{0.7×0.6×1.2}=1.236
Specifically, for example, Rgain of the non-target pixel when R0 = 1.5, R1 = 1.2, R2 = 1.2, R3 = 1.2, x = 0.7, and y = 0.6 Is as follows.
Rgain = {(1-0.7) × (1-0.6) × 1.5} + {0.7 × (1-0.6) × 1.2} + {(1-0.7) × 0.6 × 1.2} + {0.7 × 0.6 × 1.2} = 1.236

図7の12部分の画素のように周辺の注目画素が1つしか存在しない場合は、当該ブロックのホワイトバランス補正係数を設定する。   When there is only one peripheral pixel of interest as in the pixel 12 in FIG. 7, the white balance correction coefficient for the block is set.

図8の13、14、15、16部分の画素のように周辺の注目画素が2つしか存在しない場合は、2つのホワイトバランス補正係数と当該画素からの距離による補間によって求める。計算式を以下に示す。   When there are only two peripheral pixels of interest like the pixels 13, 14, 15, and 16 in FIG. 8, they are obtained by interpolation based on two white balance correction coefficients and a distance from the pixel. The calculation formula is shown below.

領域13の場合
Rgain=(1−x)R2+xR3
Bgain=(1−x)B2+xB3
In the case of the region 13, Rgain = (1-x) R2 + xR3
Bgain = (1-x) B2 + xB3

領域14の場合
Rgain=(1−x)R0+xR1
Bgain=(1−x)B0+xB1
For region 14 Rgain = (1-x) R0 + xR1
Bgain = (1-x) B0 + xB1

領域15の場合
Rgain=(1−y)R1+yR3
Bgain=(1−y)B1+yB3
In the case of the region 15, Rgain = (1-y) R1 + yR3
Bgain = (1-y) B1 + yB3

領域16の場合
Rgain=(1−y)R0+yR2
Bgain=(1−y)B0+yB2
For region 16 Rgain = (1-y) R0 + yR2
Bgain = (1-y) B0 + yB2

SDRAMに格納されたRaw−RGBデータのR、Bデータそれぞれに対して、画素毎に算出したホワイトバランス補正係数Rgain、Bgainを掛ける(S8)。   The R and B data of the Raw-RGB data stored in the SDRAM is multiplied by the white balance correction coefficients Rgain and Bgain calculated for each pixel (S8).

本実施の形態によれば、領域毎に照射される色温度が異なる場合でもそれぞれに対して良好なWBを掛けることができる。また距離情報を使用して領域を分割することで、例えば被写体と背景といった具合に領域を分割することができ、被写体が日陰で背景が日向、若しくはその逆であって、どちらか一方が最適でもう一方が不自然なWBになるといった一般的に問題となるシーンで、それぞれの領域に対して良好なWBを掛けることができる。   According to the present embodiment, even when the color temperature irradiated for each region is different, a good WB can be applied to each. Also, by dividing the area using distance information, it is possible to divide the area, for example, the subject and the background, the subject is in the shade and the background is in the sun, or vice versa. In a generally problematic scene where the other becomes an unnatural WB, a good WB can be applied to each area.

また、一つの被写体に対して複数の光源があたる場合でも距離情報を使用した領域分割を行うことで被写体と背景といった具合に領域を分割することができ、被写体領域全体に同一の補正係数が掛かかり、また、背景領域全体も同様に同一の補正係数が掛かるので、同一被写体に対して複数のWBが掛かることなく全体に良好で違和感のない画像を表示することができる。   In addition, even when a plurality of light sources are applied to a single subject, it is possible to divide the region such as the subject and the background by dividing the region using distance information, and the same correction coefficient is applied to the entire subject region. In addition, since the same correction coefficient is applied to the entire background area in the same manner, it is possible to display an image that is good and has no sense of incongruity without applying a plurality of WBs to the same subject.

さらに、画素間の補正係数にローパスフィルタがかかる為、WB補正係数が異なるそれぞれの領域が存在する画像に於いて、領域の境界で不自然なWBが掛かることを回避することができる。   Furthermore, since a low-pass filter is applied to the correction coefficient between pixels, it is possible to avoid an unnatural WB from being applied at the boundary between areas in an image in which there are areas having different WB correction coefficients.

また、領域毎に補正係数を算出する為、ブロック毎または画素毎に算出する方法に比べ補正係数の算出に要する計算量を少なくすることができる。   Further, since the correction coefficient is calculated for each region, the amount of calculation required for calculating the correction coefficient can be reduced as compared with the method of calculating for each block or pixel.

ここで、本実施の形態では距離情報取得時と領域分割時に画面全体に対して水平16×垂直16のブロックで分割したが任意の分割数で分割しても良い。
本実施の形態では距離情報取得時と領域分割時に画面全体に対して水平16×垂直16のブロックで分割したが、任意の分割数で分割しても良い。また、分割は格子状であることが好ましい。
Here, in this embodiment, when the distance information is acquired and when the area is divided, the entire screen is divided into 16 horizontal 16 × vertical blocks, but may be divided by an arbitrary number of divisions.
In this embodiment, when the distance information is acquired and the area is divided, the entire screen is divided into 16 horizontal 16 × vertical blocks, but may be divided by an arbitrary number of divisions. Further, the division is preferably in a lattice shape.

〔第2の実施の形態〕
第2の実施の形態はS1、S2の領域分割の方法が第1の実施の形態と異なる。S3〜S8は第1の実施の形態と同じである。
第1の実施の形態では領域分割の際、撮像信号からのハイパスフィルタ出力値を基に距離情報を取得したが本実施の形態では画面全体に対して水平16×垂直16分割のブロック毎に距離画像CMOSによって得られた距離情報を基に合焦させた領域を被写体領域、それ以外の領域を背景領域とする領域分割を行う。画素毎に距離情報を取得できる場合でも領域分割の際は、画面全体に対して水平16×垂直16分割のブロック単位で領域分割を行う。よって、ブロック毎の領域の判定はブロック内に占める割合の多い方の領域となる。
[Second Embodiment]
The second embodiment is different from the first embodiment in the area dividing method of S1 and S2. S3 to S8 are the same as those in the first embodiment.
In the first embodiment, distance information is acquired based on the output value of the high-pass filter from the image pickup signal at the time of area division. Region division is performed with the region focused on the basis of the distance information obtained by the image CMOS as the subject region and the other region as the background region. Even when the distance information can be acquired for each pixel, the region is divided into blocks of 16 horizontal 16 × vertical 16 blocks for the entire screen. Therefore, the determination of the area for each block is an area having a larger ratio in the block.

距離画像CMOSとは対象物を照射させる光源を備え、光源から光を投射し対象物からの反射光をイメージセンサにて検出して、光の飛行時間によって対象物までの距離を算出するものである。尚、距離画像CMOSとは、本発明における測距手段と撮像素子とに相当するものである。   The distance image CMOS includes a light source that irradiates an object, projects light from the light source, detects reflected light from the object with an image sensor, and calculates the distance to the object based on the flight time of light. is there. The distance image CMOS corresponds to the distance measuring means and the image sensor in the present invention.

これにより、AFによる距離情報の取得に比べ距離情報を取得に要する時間が大幅に削減することができる。   As a result, the time required to acquire the distance information can be significantly reduced compared to the acquisition of distance information by AF.

〔第3の実施の形態〕
図9は第3の実施の形態におけるホワイトバランス補正の一連の処理をフローにしたものである。
本実施の形態では、高輝度領域を日向領域とし、また、低輝度領域を日陰領域とする例について述べるが、本発明はこれに限定されるものではなく、任意の輝度で領域を分割することができる。
[Third Embodiment]
FIG. 9 shows a flow of a series of white balance correction processes according to the third embodiment.
In this embodiment, an example is described in which the high luminance area is a sunny area and the low luminance area is a shade area, but the present invention is not limited to this, and the area is divided at an arbitrary luminance. Can do.

先ず、静止画撮像動作におけるRAW−RGBデータからAE処理、WB処理等一連の画像処理を通した後のYUVデータに対して、水平16分割、垂直16分割のブロック毎に高輝度領域としての日向領域と、低輝度領域としての日陰領域とに分割する(S1;領域分割手段)。この時に設定するブロックは、AWB評価値を取得する際に設定したブロックと同様にする。   First, for the YUV data that has passed through a series of image processing such as AE processing and WB processing from RAW-RGB data in the still image capturing operation, Hyuga as a high luminance area for each block of 16 horizontal and 16 vertical divisions. The area is divided into a shaded area as a low luminance area (S1; area dividing means). The block set at this time is the same as the block set when acquiring the AWB evaluation value.

日向領域と日陰領域とに分割する方法としては、距離情報と、色情報と、輝度情報とから分割する方法であれば良く、例えば輝度とB/Rとの関係から細かい領域分割した後、距離情報を補助的に用いて領域をまとめる方法がある。   As a method of dividing into the sunny area and the shaded area, any method may be used as long as it is divided from distance information, color information, and luminance information. For example, after dividing a fine area from the relationship between luminance and B / R, the distance is divided. There is a method of grouping areas using information supplementarily.

具体的には、一定の閾値以上の輝度を有する領域を日向領域としても良く、B/Rを変数として輝度の閾値を表し、その閾値以上の輝度を有する領域を日向領域としても良い。次いで、細かく分割された日向領域と日陰領域は、それぞれを距離情報に応じてまとめる。
距離情報のみで領域を分割する方法もあるが、必ずしも全てのブロックで距離情報が取得できるとは限らないため、最初に日向領域と日陰領域とに分割し、細かく分割された領域に対して補助する目的で距離情報を使用する。
Specifically, a region having a luminance equal to or higher than a certain threshold may be a sunny region, a threshold of luminance may be expressed using B / R as a variable, and a region having a luminance higher than the threshold may be a sunny region. Next, the finely divided sunny area and shade area are grouped according to distance information.
There is a method to divide the area only by distance information, but distance information is not necessarily acquired by all blocks, so first divide into the sunny area and the shaded area, and assist the finely divided area Use distance information for the purpose.

ここで言う距離情報とは、撮像時のオートフォーカス動作で、フォーカス位置を変えて各フォーカス位置で得られるハイパスフィルタ出力値である。このハイパスフィルタ出力値は撮像時CCD−I/FでRaw−RGBデータより水平16×垂直16分割のブロック単位で抽出される。そして、フォーカス位置毎のハイパスフィルタ出力値からピーク検出による合焦を行い、合焦ブロックを被写体領域とし非合焦ブロックを背景領域とする。
図4はブロック単位で領域分割を行ったもので1は被写体領域を表し、2は背景領域を表す。
The distance information mentioned here is a high-pass filter output value obtained at each focus position by changing the focus position in the autofocus operation during imaging. The output value of the high pass filter is extracted from the Raw-RGB data by the CCD-I / F at the time of imaging in block units of horizontal 16 × vertical 16 divisions. Then, focusing is performed by peak detection from the high-pass filter output value for each focus position, and the focused block is set as the subject area and the non-focused block is set as the background area.
FIG. 4 shows an area divided in units of blocks, where 1 represents a subject area and 2 represents a background area.

日向領域と日陰領域の分割結果を基に領域毎のAWB評価値から白抽出を行う。
白抽出はブロック単位で取得したAWB評価値に対して予め設定してある白抽出範囲内であれば白抽出ブロックとして記憶する(S2;白抽出手段)。各ブロックのAWB評価値はG/R、G/Bという形で表される。白抽出範囲は図10のようにG/Rをx軸、G/Bをy軸とする2次元の色座標上で、図10の黒体輻射カーブに沿った複数の楕円若しくは矩形の枠にて設定される。本実施の形態における白抽出範囲は、複数の楕円枠を用い個々の楕円枠は各光源に対応する白抽出枠となっており、日向領域と日陰領域とで白抽出範囲が異なる。日向領域、日陰領域のいずれも存在しない場合、全ての白抽出枠を有効とした白抽出範囲にて白抽出を行う。また、図10に示すG/R−G/B軸上の白抽出範囲は一例であり、CCDの構成などによって変化するものである。
White extraction is performed from the AWB evaluation value for each area based on the division result of the sunny area and the shade area.
If the white extraction is within a white extraction range set in advance with respect to the AWB evaluation value acquired in units of blocks, it is stored as a white extraction block (S2; white extraction means). The AWB evaluation value of each block is expressed in the form of G / R and G / B. As shown in FIG. 10, the white extraction range is a two-dimensional color coordinate having G / R as the x-axis and G / B as the y-axis. Is set. The white extraction range in the present embodiment uses a plurality of elliptical frames, and each elliptical frame is a white extraction frame corresponding to each light source, and the white extraction range is different between the sunny area and the shaded area. When neither the sunny area nor the shade area exists, white extraction is performed within the white extraction range in which all white extraction frames are valid. Further, the white extraction range on the G / R-G / B axis shown in FIG. 10 is an example, and changes depending on the configuration of the CCD.

予め設定してある白抽出範囲とは、例えば図11および図12に示すような例が挙げられる。図11の斜線部分は日向領域の白抽出範囲(高輝度領域用白抽出範囲)で約2300〜約5800K(ケルビン)まで、図12の斜線部分は日陰領域の白抽出範囲(低輝度領域用白抽出範囲)で約5800〜約8000Kまでに対応する。   Examples of the preset white extraction range include the examples shown in FIGS. 11 and 12. The shaded area in FIG. 11 is the white extraction range of the sunny area (white extraction range for the high brightness area) from about 2300 to about 5800 K (Kelvin), and the shaded area in FIG. (Extraction range) corresponds to about 5800 to about 8000K.

図13はブロック単位で日向領域と日陰領域とで領域分割を行ったものである。図13の5は日陰領域を表し、図13の6は日向領域を表す。   FIG. 13 shows an area divided into a sunny area and a shaded area in units of blocks. 13 in FIG. 13 represents a shaded area, and 6 in FIG. 13 represents a sunny area.

S3−3〜S3−6の各ステップは、第1の実施の形態におけるS5〜8と同じであるので詳細は省略する。   Since each step of S3-3 to S3-6 is the same as S5 to 8 in the first embodiment, the details are omitted.

本実施の形態によれば、日向領域(高輝度領域)、日陰領域(低輝度領域)それぞれで有彩色の影響を受けずに白抽出を行うことができる。   According to the present embodiment, it is possible to perform white extraction without being affected by the chromatic color in each of the sunny area (high brightness area) and the shade area (low brightness area).

また、日向領域と日陰領域とで照射される色温度が異なる場合でもそれぞれに対して良好なホワイトバランスを掛けることができる。   Moreover, even when the color temperatures irradiated in the sunlit area and the shaded area are different, a good white balance can be applied to each.

さらに、画素間の補正係数にローパスフィルタがかかる為、WB補正係数が異なるそれぞれの領域が存在する画像に於いて、領域の境界で不自然なホワイトバランスが掛かることを回避することができる。   Furthermore, since a low-pass filter is applied to the correction coefficient between pixels, it is possible to avoid an unnatural white balance being applied at the boundary between areas in an image in which there are areas having different WB correction coefficients.

また、画面を局所的にWBを変えることで複数枚撮影による合成を行うことなく領域毎に最適なWBをかけることができ、撮影に要する時間を短くすることができる。   In addition, by changing the WB locally on the screen, it is possible to apply an optimal WB for each region without performing composition by shooting a plurality of images, and the time required for shooting can be shortened.

さらに、領域毎にWB補正係数を算出する為、ブロック毎または画素毎に算出する方法に比べWB補正係数の算出に要する計算量を少なくすることができる。   Further, since the WB correction coefficient is calculated for each region, the amount of calculation required for calculating the WB correction coefficient can be reduced as compared with the method of calculating for each block or pixel.

本実施の形態では、水平16分割、垂直16分割のブロックで分割したが任意の分割数で分割しても良い。その場合は領域分割での分割数とAWB評価値(G/R、G/B)を取得する際の分割数とWB補正係数を設定する際の分割数を合わせる必要がある。   In this embodiment, the block is divided into 16 blocks in the horizontal direction and 16 blocks in the vertical direction. In that case, it is necessary to match the number of divisions in the region division, the number of divisions when acquiring the AWB evaluation values (G / R, G / B), and the number of divisions when setting the WB correction coefficient.

本発明に係る撮像装置の第1の実施の形態であるデジタルカメラの外観を示す概略図である。1 is a schematic diagram showing an appearance of a digital camera that is a first embodiment of an imaging apparatus according to the present invention. 本発明に係る撮像装置の第1の実施の形態における構成を示すブロック図である。1 is a block diagram illustrating a configuration in a first embodiment of an imaging apparatus according to the present invention. 第1の実施の形態におけるホワイトバランス補正の一連の処理のフローを示すフロー図である。It is a flowchart which shows the flow of a series of processes of the white balance correction | amendment in 1st Embodiment. 本発明に係る撮像装置の第1の実施の形態における撮像信号が格子状のブロックに分割された模式図と、該模式図における被写体領域と背景領域を説明する説明図である。FIG. 2 is a schematic diagram in which an imaging signal in the first embodiment of the imaging apparatus according to the present invention is divided into grid-like blocks, and an explanatory diagram for explaining a subject area and a background area in the schematic diagram. 図4の模式図における被写体領域ブロック中央画素及び背景領域ブロック中央画素を説明する説明図である。FIG. 5 is an explanatory diagram illustrating a subject area block center pixel and a background area block center pixel in the schematic diagram of FIG. 4. 補間によるWB補正係数の算出方法の説明図である。It is explanatory drawing of the calculation method of the WB correction coefficient by interpolation. 図4の模式図における領域12を説明する説明図である。It is explanatory drawing explaining the area | region 12 in the schematic diagram of FIG. 図4の模式図における領域13、14、15、16を説明する説明図ある。It is explanatory drawing explaining the area | regions 13, 14, 15, and 16 in the schematic diagram of FIG. 第2の実施の形態におけるホワイトバランス補正の一連の処理のフローを示すフロー図である。It is a flowchart which shows the flow of a series of processes of the white balance correction | amendment in 2nd Embodiment. G/R−G/B座標における白抽出範囲を示すグラフである。It is a graph which shows the white extraction range in a G / R-G / B coordinate. 図10における日向領域の白抽出範囲を示すグラフである。It is a graph which shows the white extraction range of the sunny area | region in FIG. 図10における日陰領域の白抽出範囲を示すグラフである。It is a graph which shows the white extraction range of the shade area | region in FIG. 本発明に係る撮像装置の第2の実施の形態における撮像信号が格子状のブロックに分割された模式図と、該模式図における日向領域と日陰領域を説明する説明図である。It is the schematic diagram by which the imaging signal in 2nd Embodiment of the imaging device which concerns on this invention was divided | segmented into the grid | lattice-like block, and explanatory drawing explaining the sunny area and shade area in this schematic diagram.

符号の説明Explanation of symbols

1 被写体領域
2 背景領域
3 被写体領域注目画素
4 背景領域注目画素
5 日陰領域
6 日向領域
12、13、14、15、16 領域
DESCRIPTION OF SYMBOLS 1 Subject area 2 Background area 3 Subject area attention pixel 4 Background area attention pixel 5 Shade area 6 Hinata area 12, 13, 14, 15, 16 area

Claims (15)

光学系から入射した光を電気信号に変換して撮像信号として出力する撮像素子と、
測距対象との距離情報を取得する距離情報取得手段と、
前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得手段とを備える撮像装置において、
前記距離情報と色差情報とに基づき、前記撮像信号を複数の領域に分割する領域分割手段と、
当該分割された領域毎のホワイトバランス評価値に基づいて領域毎のホワイトバランス補正係数を算出する補正係数算出手段と、
当該分割された領域毎に前記ホワイトバランス補正係数を設定するホワイトバランス演算手段とを備えることを特徴とする撮像装置。
An image sensor that converts light incident from the optical system into an electrical signal and outputs the signal as an image signal;
Distance information acquisition means for acquiring distance information with a distance measurement object;
In an imaging apparatus comprising a white balance evaluation value acquisition unit that extracts a white balance evaluation value from the imaging signal,
Area dividing means for dividing the imaging signal into a plurality of areas based on the distance information and color difference information;
Correction coefficient calculating means for calculating a white balance correction coefficient for each area based on the white balance evaluation value for each divided area;
An imaging apparatus comprising: a white balance calculation unit that sets the white balance correction coefficient for each of the divided areas.
前記領域分割手段は、前記撮像信号の距離情報と、色情報と、輝度情報とから、高輝度領域と低輝度領域とに分割し、
前記高輝度領域および前記低輝度領域の夫々に対して、領域毎に白抽出範囲を変えて白抽出を行う白抽出手段を備え、
前記補正係数算出手段は、前記白抽出手段によって得られた白抽出結果と、当該分割された領域毎のホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする請求項1に記載の撮像装置。
The region dividing unit divides the image signal from distance information, color information, and luminance information into a high luminance region and a low luminance region,
For each of the high luminance region and the low luminance region, comprising white extraction means for performing white extraction by changing the white extraction range for each region,
The correction coefficient calculation means calculates a white balance correction coefficient for each area based on a white extraction result obtained by the white extraction means and a white balance evaluation value for each of the divided areas. The imaging apparatus according to claim 1.
前記白抽出手段は、
前記高輝度領域において、当該高輝度領域のホワイトバランス評価値と、高輝度領域用白抽出範囲とを基に白抽出を行い、
前記低輝度領域において、当該低輝度領域のホワイトバランス評価値と、低輝度領域用白抽出範囲とを基に白抽出を行うことを特徴とする請求項2に記載の撮像装置。
The white extraction means includes
In the high luminance region, white extraction is performed based on the white balance evaluation value of the high luminance region and the white extraction range for the high luminance region,
3. The imaging apparatus according to claim 2, wherein white extraction is performed in the low luminance area based on a white balance evaluation value of the low luminance area and a white extraction range for the low luminance area.
前記撮像信号を複数のブロックに分割するブロック分割手段を備え、
当該分割されたブロックは、注目画素と、非注目画素とを有し、
前記ホワイトバランス演算手段は、
当該分割されたブロック毎の注目画素に、前記ホワイトバランス補正係数を取得する第1補正係数取得手段と、
当該分割されたブロック毎の非注目画素に、周辺の注目画素のホワイトバランス補正係数と、当該非注目画素から前記周辺の注目画素までの距離による補間で前記ホワイトバランス補正係数を取得する第2補正係数取得手段と、を有し、
前記第1補正係数取得手段と前記第2補正係数取得手段とによって取得したホワイトバラン補正係数を画素毎に設定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
Block dividing means for dividing the imaging signal into a plurality of blocks;
The divided block has a target pixel and a non-target pixel,
The white balance calculation means includes:
First correction coefficient acquisition means for acquiring the white balance correction coefficient to the target pixel for each of the divided blocks;
Second correction for acquiring the white balance correction coefficient by interpolation based on the white balance correction coefficient of the peripheral target pixel and the distance from the non-target pixel to the peripheral target pixel for the non-target pixel for each of the divided blocks. Coefficient acquisition means,
The imaging apparatus according to any one of claims 1 to 3, characterized in that setting the white balance correction coefficients obtained with the first correction coefficient acquisition unit by the second correction coefficient acquisition unit for each pixel.
前記注目画素は、当該分割されたブロックの中央に位置する画素であることを特徴とする請求項4に記載の撮像装置。 The imaging apparatus according to claim 4 , wherein the target pixel is a pixel located at a center of the divided block. 光学系から入射した光を電気信号に変換して撮像信号として出力する光電変換工程と、
測距対象との距離情報を取得する距離情報取得工程と、
前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得工程とを備える撮像方法において、
前記距離情報と色差情報とに基づき、前記撮像信号を複数の領域に分割する領域分割工程と、
当該分割された領域毎のホワイトバランス評価値に基づいて領域毎のホワイトバランス補正係数を算出する補正係数算出工程と、
当該分割された領域毎に前記ホワイトバランス補正係数を設定するホワイトバランス演算工程とを備えることを特徴とする撮像方法。
A photoelectric conversion step of converting light incident from the optical system into an electrical signal and outputting it as an imaging signal;
A distance information acquisition step of acquiring distance information with a distance measurement target;
In an imaging method comprising a white balance evaluation value acquisition step of extracting a white balance evaluation value from the imaging signal,
A region dividing step of dividing the imaging signal into a plurality of regions based on the distance information and color difference information;
A correction coefficient calculation step of calculating a white balance correction coefficient for each area based on the white balance evaluation value for each divided area;
An imaging method comprising: a white balance calculation step of setting the white balance correction coefficient for each of the divided areas.
前記領域分割工程は、前記撮像信号の距離情報と、色情報と、輝度情報とから、高輝度領域と低輝度領域とに分割し、
前記高輝度領域および前記低輝度領域の夫々に対して、領域毎に白抽出範囲を変えて白抽出を行う白抽出工程を備え、
前記補正係数算出工程は、前記白抽出工程によって得られた白抽出結果と、当該分割された領域毎のホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする請求項6に記載の撮像方法。
The region dividing step divides into a high luminance region and a low luminance region from distance information, color information, and luminance information of the imaging signal,
For each of the high luminance region and the low luminance region, comprising a white extraction step of performing white extraction by changing the white extraction range for each region,
The correction coefficient calculating step calculates a white balance correction coefficient for each region based on a white extraction result obtained by the white extraction step and a white balance evaluation value for each of the divided regions. The imaging method according to claim 6 .
前記白抽出工程は、
前記高輝度領域において、当該高輝度領域のホワイトバランス評価値と、高輝度領域用白抽出範囲とを基に白抽出を行い、
前記低輝度領域において、当該低輝度領域のホワイトバランス評価値と、低輝度領域用白抽出範囲とを基に白抽出を行うことを特徴とする請求項7に記載の撮像方法。
The white extraction step includes
In the high luminance region, white extraction is performed based on the white balance evaluation value of the high luminance region and the white extraction range for the high luminance region,
The imaging method according to claim 7 , wherein white extraction is performed in the low luminance area based on a white balance evaluation value of the low luminance area and a white extraction range for the low luminance area.
前記撮像信号を複数のブロックに分割するブロック分割工程を備え、
当該分割されたブロックは、注目画素と、非注目画素とを有し、
前記ホワイトバランス演算工程は、
当該分割されたブロック毎の注目画素に、前記ホワイトバランス補正係数を取得する第1補正係数取得工程と、
当該分割されたブロック毎の非注目画素に、周辺の注目画素のホワイトバランス補正係数と、当該非注目画素から前記周辺の注目画素までの距離による補間で前記ホワイトバランス補正係数を取得する第2補正係数取得工程と、を有し、
前記第1補正係数取得工程と前記第2補正係数取得工程とによって取得したホワイトバラン補正係数を画素毎に設定することを特徴とする請求項6乃至8のいずれか1項に記載の撮像方法。
A block dividing step of dividing the imaging signal into a plurality of blocks;
The divided block has a target pixel and a non-target pixel,
The white balance calculation step includes:
A first correction coefficient acquisition step of acquiring the white balance correction coefficient to the target pixel for each of the divided blocks;
Second correction for acquiring the white balance correction coefficient by interpolation based on the white balance correction coefficient of the peripheral target pixel and the distance from the non-target pixel to the peripheral target pixel for the non-target pixel for each of the divided blocks. A coefficient acquisition step,
The imaging method according to any one of claims 6 to 8 , wherein the white balun correction coefficient acquired in the first correction coefficient acquisition step and the second correction coefficient acquisition step is set for each pixel.
前記注目画素は、当該分割されたブロックの中央に位置する画素であることを特徴とする請求項9に記載の撮像方法The imaging method according to claim 9 , wherein the target pixel is a pixel located at a center of the divided block. 光学系から入射した光を電気信号に変換して撮像信号として出力する光電変換処理と、
測距対象との距離情報を取得する距離情報取得処理と、
前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得処理とをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記距離情報と色差情報とに基づき、前記撮像信号を複数の領域に分割する領域分割処理と、
当該分割された領域毎のホワイトバランス評価値に基づいて領域毎のホワイトバランス補正係数を算出する補正係数算出処理と、
当該分割された領域毎に前記ホワイトバランス補正係数を設定するホワイトバランス演算処理とを備えることを特徴とするコンピュータ読み取り可能な記録媒体。
Photoelectric conversion processing for converting light incident from the optical system into an electrical signal and outputting it as an imaging signal;
Distance information acquisition processing for acquiring distance information with a distance measurement target;
A computer-readable recording medium recording a program for causing a computer to execute a white balance evaluation value acquisition process for extracting a white balance evaluation value from the imaging signal,
Based on the distance information and color difference information, an area division process for dividing the imaging signal into a plurality of areas;
A correction coefficient calculation process for calculating a white balance correction coefficient for each area based on the white balance evaluation value for each divided area;
A computer-readable recording medium comprising: a white balance calculation process for setting the white balance correction coefficient for each of the divided areas.
前記領域分割処理は、前記撮像信号の距離情報と、色情報と、輝度情報とから、高輝度領域と低輝度領域とに分割し、
前記高輝度領域および前記低輝度領域の夫々に対して、領域毎に白抽出範囲を変えて白抽出を行う白抽出処理を備え、
前記補正係数算出処理は、前記白抽出処理によって得られた白抽出結果と、当該分割された領域毎のホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする請求項11に記載のコンピュータ読み取り可能な記録媒体。
The region division processing is divided into a high luminance region and a low luminance region from the distance information, color information, and luminance information of the imaging signal,
For each of the high luminance region and the low luminance region, comprising a white extraction process for performing white extraction by changing the white extraction range for each region,
The correction coefficient calculation process calculates a white balance correction coefficient for each area based on a white extraction result obtained by the white extraction process and a white balance evaluation value for each of the divided areas. The computer-readable recording medium according to claim 11 .
前記白抽出処理は、
前記高輝度領域において、当該高輝度領域のホワイトバランス評価値と、高輝度領域用白抽出範囲とを基に白抽出を行い、
前記低輝度領域において、当該低輝度領域のホワイトバランス評価値と、低輝度領域用白抽出範囲とを基に白抽出を行うことを特徴とする請求項12に記載のコンピュータ読み取り可能な記録媒体。
The white extraction process includes
In the high luminance region, white extraction is performed based on the white balance evaluation value of the high luminance region and the white extraction range for the high luminance region,
13. The computer-readable recording medium according to claim 12 , wherein white extraction is performed in the low luminance area based on a white balance evaluation value of the low luminance area and a white extraction range for the low luminance area.
前記撮像信号を複数のブロックに分割するブロック分割処理を備え、
当該分割されたブロックは、注目画素と、非注目画素とを有し、
前記ホワイトバランス演算処理は、
当該分割されたブロック毎の注目画素に、前記ホワイトバランス補正係数を取得する第1補正係数取得処理と、
当該分割されたブロック毎の非注目画素に、周辺の注目画素のホワイトバランス補正係数と、当該非注目画素から前記周辺の注目画素までの距離による補間で前記ホワイトバランス補正係数を取得する第2補正係数取得処理と、を有し、
前記第1補正係数取得処理と前記第2補正係数取得処理とによって取得したホワイトバラン補正係数を画素毎に設定することを特徴とする請求項11乃至13のいずれか1項に記載のコンピュータ読み取り可能な記録媒体。
A block division process for dividing the imaging signal into a plurality of blocks;
The divided block has a target pixel and a non-target pixel,
The white balance calculation process is:
A first correction coefficient acquisition process for acquiring the white balance correction coefficient to the target pixel for each of the divided blocks;
Second correction for acquiring the white balance correction coefficient by interpolation based on the white balance correction coefficient of the peripheral target pixel and the distance from the non-target pixel to the peripheral target pixel for the non-target pixel for each of the divided blocks. Coefficient acquisition processing, and
14. The computer-readable device according to claim 11 , wherein a white balun correction coefficient acquired by the first correction coefficient acquisition process and the second correction coefficient acquisition process is set for each pixel. Recording medium.
前記注目画素は、当該分割されたブロックの中央に位置する画素であることを特徴とする請求項14に記載のコンピュータ読み取り可能な記録媒体。 The computer-readable recording medium according to claim 14 , wherein the target pixel is a pixel located at a center of the divided block.
JP2008053377A 2008-03-04 2008-03-04 Imaging apparatus and imaging method Active JP5146015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008053377A JP5146015B2 (en) 2008-03-04 2008-03-04 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008053377A JP5146015B2 (en) 2008-03-04 2008-03-04 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2009212787A JP2009212787A (en) 2009-09-17
JP5146015B2 true JP5146015B2 (en) 2013-02-20

Family

ID=41185518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008053377A Active JP5146015B2 (en) 2008-03-04 2008-03-04 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5146015B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5458937B2 (en) 2010-02-17 2014-04-02 株式会社リコー IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PROGRAM FOR EXECUTING THE IMAGING METHOD
US9462160B2 (en) 2012-11-22 2016-10-04 Nec Corporation Color correction device, method, and program
CN104683779B (en) * 2015-03-17 2017-08-29 上海兆芯集成电路有限公司 AWB compensation method and the device using this method
JP6953961B2 (en) * 2017-09-27 2021-10-27 カシオ計算機株式会社 Image processing equipment, image processing methods and programs

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3554069B2 (en) * 1995-04-07 2004-08-11 キヤノン株式会社 Imaging device
JP4087631B2 (en) * 2001-08-24 2008-05-21 富士フイルム株式会社 Imaging apparatus, image processing apparatus, imaging method, image processing method, image processing system, and program
JP2004222052A (en) * 2003-01-16 2004-08-05 Minolta Co Ltd Digital camera and processing program
JP4335727B2 (en) * 2004-03-31 2009-09-30 富士フイルム株式会社 Digital camera for face extraction
JP4433883B2 (en) * 2004-05-31 2010-03-17 カシオ計算機株式会社 White balance correction device, white balance correction method, program, and electronic camera device
JP2006295582A (en) * 2005-04-12 2006-10-26 Olympus Corp Image processor, imaging apparatus, and image processing program

Also Published As

Publication number Publication date
JP2009212787A (en) 2009-09-17

Similar Documents

Publication Publication Date Title
JP5321163B2 (en) Imaging apparatus and imaging method
JP5187241B2 (en) Imaging apparatus and imaging method
JP5660341B2 (en) Imaging apparatus and imaging method
JP5375457B2 (en) Imaging apparatus and imaging method
US20090167928A1 (en) Image processing apparatus and photographing apparatus
JP5123137B2 (en) Imaging apparatus and imaging method
JP5458937B2 (en) IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PROGRAM FOR EXECUTING THE IMAGING METHOD
JP4606486B2 (en) Image processing apparatus and photographing apparatus
JP5256947B2 (en) IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR EXECUTING THE METHOD
JP2009010616A (en) Imaging device and image output control method
JP5146015B2 (en) Imaging apparatus and imaging method
JP5948997B2 (en) Imaging apparatus and imaging method
JP5277863B2 (en) Imaging apparatus and imaging method
JP5310331B2 (en) Imaging apparatus and imaging method
JP5487942B2 (en) Image processing apparatus, image processing method, and image input apparatus
JP2010068331A (en) Imaging device and imaging method
JP5123010B2 (en) Imaging apparatus, imaging method, and program for causing computer included in imaging apparatus to execute imaging method
JP5482131B2 (en) Imaging device
JP2008028924A (en) Imaging apparatus and control method thereof
JP2010068064A (en) Imaging device and imaging method
US11470258B2 (en) Image processing apparatus and image processing method to perform image processing on divided areas
JP5091734B2 (en) Imaging apparatus and imaging method
JP5849532B2 (en) Imaging apparatus and imaging method
JP5644260B2 (en) Imaging apparatus and white balance control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

R151 Written notification of patent or utility model registration

Ref document number: 5146015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3