JP2013113911A - Exposure control device - Google Patents

Exposure control device Download PDF

Info

Publication number
JP2013113911A
JP2013113911A JP2011257713A JP2011257713A JP2013113911A JP 2013113911 A JP2013113911 A JP 2013113911A JP 2011257713 A JP2011257713 A JP 2011257713A JP 2011257713 A JP2011257713 A JP 2011257713A JP 2013113911 A JP2013113911 A JP 2013113911A
Authority
JP
Japan
Prior art keywords
complexity
block
luminance
calculation unit
calculates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011257713A
Other languages
Japanese (ja)
Inventor
Tomoji Horiuchi
智史 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung Yokohama Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Yokohama Research Institute filed Critical Samsung Yokohama Research Institute
Priority to JP2011257713A priority Critical patent/JP2013113911A/en
Publication of JP2013113911A publication Critical patent/JP2013113911A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a new, improved exposure control device able to exert exposure control more appropriately than conventional ones.SOLUTION: According to a certain standpoint of the present invention, in order to solve the problem, the exposure control device is provided, which comprises: a picked-up image capturing part that captures a picked-up image; a block dividing part that divides the picked-up image into blocks; a feature quantity calculating part that calculates a feature quantity including a luminance for each block; a complexity calculating part that calculates the complexity of each block on the basis of the feature quantity of each block; a corrected luminance calculation part that calculates the corrected luminance of each block by weighting the luminance of each block on the basis of the complexity of each block; and an exposure control part that controls exposure for imaging, based on the corrected luminance average value.

Description

本発明は、露出制御装置に関する。   The present invention relates to an exposure control device.

撮像画像の中央領域の輝度に重み付けを行った上で平均輝度を算出し、この平均輝度が目標輝度に近づくように露出を制御する撮像装置、いわゆる中央重点測光を行う撮像装置が知られている。このように露出を制御するのは、撮像画像の中央領域に撮像対象の被写体が描かれているケースが多いと考えられるからである。   An imaging device that calculates the average luminance after weighting the luminance of the central area of the captured image and controls exposure so that the average luminance approaches the target luminance, an imaging device that performs so-called center-weighted photometry is known. . The reason for controlling the exposure in this manner is that it is considered that there are many cases where the subject to be imaged is drawn in the central region of the captured image.

特開2006−106617号公報JP 2006-106617 A 特開2009−164677号公報Japanese Unexamined Patent Publication No. 2009-164677 特開2007−158995号公報JP 2007-158995 A

しかし、この技術では、被写体が中央領域からずれて描かれている場合、当該被写体について適切な露出が得られなかった。また、撮像画像の中央領域に重み付けを行なっても、平均輝度は、中央領域以外の背景領域の輝度の影響も強く受ける。背景領域は中央領域に比べて面積が大きいからである。このため、中央領域に対して背景領域が一様に高い輝度を有していた場合(例えば、白い壁を背にした人物を撮影する場合)には、平均輝度が背景領域の輝度の影響を受けてしまう。この場合、従来の撮像装置は、平均輝度を下げる制御を行うので、全体的に露出が不足した撮像画像を生成してしまっていた。   However, with this technique, when the subject is drawn out of the center area, appropriate exposure cannot be obtained for the subject. Even if the central area of the captured image is weighted, the average luminance is strongly influenced by the luminance of the background area other than the central area. This is because the background area has a larger area than the central area. For this reason, when the background area has a uniformly high luminance with respect to the central area (for example, when shooting a person with a white wall in the background), the average luminance affects the luminance of the background area. I will receive it. In this case, since the conventional imaging device performs control to lower the average luminance, a captured image with a generally insufficient exposure has been generated.

一方、中央領域に対して背景領域が一様に低い輝度を有していた場合(例えば、黒い壁を背にした人物を撮影する場合)にも、平均輝度が背景領域の輝度の影響を受けてしまう。この場合、従来の撮像装置は、平均輝度を上げる制御を行うので、全体的に露出が過剰な撮像画像を生成してしまっていた。この撮像画像では、例えば、暗部が不自然に明るい状態(浮いた状態)となり、人物の顔部分が飽和してしまう場合があった。   On the other hand, when the background area has a uniformly low luminance with respect to the central area (for example, when shooting a person with a black wall in the back), the average luminance is affected by the luminance of the background area. End up. In this case, since the conventional imaging device performs control to increase the average luminance, a captured image that is excessively exposed as a whole has been generated. In this captured image, for example, the dark part may be unnaturally bright (floating), and the human face may be saturated.

なお、特許文献1〜3には、露出制御に関する技術が開示されている。特許文献1に開示された技術は、輝度が所定値以上の高輝度グループを撮像画像から抽出し、高輝度グループの輝度及び面積に基づいて、露出を制御する。しかし、この技術では、上述した白い壁が高輝度グループに所属してしまうので、白い壁を背にした人物を撮影する場合には、やはり全体的に露出が不足した撮像画像が生成されてしまっていた。したがって、この技術では、上述した問題を解決することができなかった。   Patent Documents 1 to 3 disclose techniques related to exposure control. The technique disclosed in Patent Document 1 extracts a high luminance group having a luminance of a predetermined value or more from a captured image, and controls exposure based on the luminance and area of the high luminance group. However, with this technique, the white wall described above belongs to the high-intensity group, so when shooting a person with the white wall on the back, a captured image that is also generally underexposed is generated. It was. Therefore, this technique cannot solve the above-described problem.

特許文献2に開示された技術は、撮像画像に対していわゆる顔検出処理を行うことで、撮像画像から顔画像を抽出し、顔画像及びその周辺の輝度に基づいて、露出を制御する。しかし、この技術には、顔検出という演算コストの高い処理が必要であった。さらに、特許文献2には、顔画像及びその周辺の輝度のバランスをどのように制御するかについて、何ら開示されていなかった。したがって、この技術では、上述した例のように、白い壁を背にした人物を撮影する場合、人物の顔画像と、背景画像との輝度のバランスを適切に調整することができなかった。したがって、この技術でも、上述した問題を解決することができなかった。   The technique disclosed in Patent Literature 2 extracts a face image from a captured image by performing a so-called face detection process on the captured image, and controls exposure based on the brightness of the face image and its surroundings. However, this technique requires processing with high calculation cost such as face detection. Furthermore, Patent Document 2 did not disclose anything about how to control the balance of the brightness of the face image and its surroundings. Therefore, with this technique, as in the above-described example, when a person with a white wall on the back is photographed, the brightness balance between the person's face image and the background image cannot be adjusted appropriately. Therefore, even with this technique, the above-described problem cannot be solved.

特許文献3に開示された技術は、撮像画像を複数のブロックに分割し、隣接するブロック間の輝度差を算出する。そして、この技術は、輝度差が所定値以上となるブロックから逆光のブロックを検出する。したがって、この技術は、逆光時にのみ効果があるものなので、上述した問題を解決することができなかった。   The technique disclosed in Patent Document 3 divides a captured image into a plurality of blocks, and calculates a luminance difference between adjacent blocks. And this technique detects the block of backlight from the block from which a luminance difference becomes more than predetermined value. Therefore, since this technique is effective only during backlighting, the above-described problem cannot be solved.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、従来よりも適切な露出制御を行うことが可能な、新規かつ改良された露出制御装置を提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved exposure control apparatus capable of performing exposure control more appropriate than conventional ones. There is to do.

上記課題を解決するために、本発明のある観点によれば、撮像画像を取得する撮像画像取得部と、撮像画像を複数のブロックに分割するブロック分割部と、ブロック毎に輝度を含む特徴量を算出する特徴量算出部と、各ブロックの特徴量に基づいて、各ブロックの複雑度を算出する複雑度算出部と、各ブロックの複雑度に基づいて、各ブロックの輝度に重み付けすることで、各ブロックの補正輝度を算出する補正輝度算出部と、補正輝度に基づいて、撮像時の露出を制御する露出制御部と、を備えることを特徴とする、露出制御装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, a captured image acquisition unit that acquires a captured image, a block division unit that divides the captured image into a plurality of blocks, and a feature amount including luminance for each block A weight calculation unit for calculating the complexity of each block based on the feature amount of each block, and a weight for the luminance of each block based on the complexity of each block. There is provided an exposure control device comprising: a corrected luminance calculating unit that calculates a corrected luminance of each block; and an exposure control unit that controls exposure during imaging based on the corrected luminance.

この観点によれば、露出制御装置は、各ブロックの特徴量に基づいて、各ブロックの複雑度を算出する。そして、露出制御装置は、各ブロックの複雑度に基づいて、各ブロックの輝度に重み付けすることで、各ブロックの補正輝度を算出する。そして、露出制御装置は、補正輝度に基づいて、撮像時の露出を制御する。これにより、露出制御装置は、輝度が一様な領域、例えば背景領域の補正輝度を小さくし、輝度の変化が激しい領域、例えば人物領域の補正輝度を大きくすることができる。したがって、露出制御装置は、より広範なダイナミックレンジ、特に人物領域の補正輝度を使って、露出を制御することができる。   According to this aspect, the exposure control device calculates the complexity of each block based on the feature amount of each block. Then, the exposure control device calculates the corrected luminance of each block by weighting the luminance of each block based on the complexity of each block. Then, the exposure control device controls the exposure at the time of imaging based on the corrected luminance. As a result, the exposure control apparatus can reduce the correction luminance of a region having a uniform luminance, for example, a background region, and can increase the correction luminance of a region in which the luminance changes rapidly, for example, a person region. Therefore, the exposure control device can control the exposure using a wider dynamic range, in particular, the corrected luminance of the person area.

ここで、ブロック分割部は、ブロック毎に画素値を積算することで、画素積算値を算出し、特徴量算出部は、各ブロックの画素積算値に基づいて、各ブロックの特徴量を算出してもよい。   Here, the block dividing unit calculates the pixel integrated value by integrating the pixel values for each block, and the feature amount calculating unit calculates the feature amount of each block based on the pixel integrated value of each block. May be.

この観点によれば、露出制御装置は、画素積算値に基づいて、各ブロックの特徴量を算出するので、各ブロックの複雑度をより正確に算出することができる。   According to this aspect, since the exposure control device calculates the feature amount of each block based on the pixel integrated value, the complexity of each block can be calculated more accurately.

また、複雑度算出部は、隣接するブロック同士の特徴量の差分に基づいて、各ブロックの複雑度を算出してもよい。   Further, the complexity calculation unit may calculate the complexity of each block based on a difference in feature amount between adjacent blocks.

この観点によれば、露出制御装置は、隣接するブロック同士の特徴量の差分に基づいて、各ブロックの複雑度を算出するので、各ブロックの複雑度をより正確に算出することができる。   According to this aspect, since the exposure control device calculates the complexity of each block based on the difference in the feature amount between adjacent blocks, the complexity of each block can be calculated more accurately.

また、特徴量算出部は、ブロック毎に複数種類の特徴量を算出し、複雑度算出部は、特徴量の種類ごとに各ブロックの複雑度を算出し、特徴量の種類毎の複雑度をブロック毎に混合することで、各ブロックの混合複雑度を算出し、補正輝度算出部は、各ブロックの混合複雑度に基づいて、各ブロックの輝度に重み付けしてもよい。   In addition, the feature amount calculation unit calculates a plurality of types of feature amounts for each block, and the complexity calculation unit calculates the complexity of each block for each type of feature amount, and calculates the complexity for each type of feature amount. By mixing each block, the mixed complexity of each block may be calculated, and the corrected luminance calculation unit may weight the luminance of each block based on the mixed complexity of each block.

この観点によれば、露出制御装置は、ブロック毎に複数種類の特徴量を算出する。そして、露出制御装置は、特徴量の種類ごとに各ブロックの複雑度を算出し、これらの複雑度をブロック毎に混合することで、各ブロックの混合複雑度を算出する。そして、露出制御装置は、各ブロックの混合複雑度に基づいて、各ブロックの輝度に重み付けする。これにより、露出制御装置は、補正輝度をより正確に算出することができる。   According to this aspect, the exposure control device calculates a plurality of types of feature amounts for each block. Then, the exposure control device calculates the complexity of each block for each type of feature quantity, and calculates the mixed complexity of each block by mixing these complexity for each block. Then, the exposure control device weights the luminance of each block based on the mixed complexity of each block. Thereby, the exposure control apparatus can calculate the corrected luminance more accurately.

また、複雑度算出部は、各ブロックのうち、人物の顔が描かれた顔領域の複雑度を補完してもよい。   In addition, the complexity calculation unit may complement the complexity of a face area in which a human face is drawn in each block.

この観点によれば、露出制御装置は、顔領域の露出をより正確に制御することができる。   According to this aspect, the exposure control device can more accurately control the exposure of the face area.

また、補正輝度算出部は、補正輝度の平均値である平均輝度を算出し、露出制御部は、平均輝度が所定の目標輝度に近づくように、撮像時の露出を制御してもよい。   The corrected luminance calculation unit may calculate an average luminance that is an average value of the corrected luminances, and the exposure control unit may control the exposure at the time of imaging so that the average luminance approaches a predetermined target luminance.

この観点によれば、露出制御装置は、輝度が一様な領域、例えば背景領域が平均輝度に与える影響を小さくし、輝度の変化が激しい領域、例えば人物領域が平均輝度に与える影響を小さくすることができる。したがって、露出制御装置は、より広範なダイナミックレンジ、特に人物領域の補正輝度を使って、露出を制御することができる。   According to this aspect, the exposure control device reduces the influence of the uniform luminance area, for example, the background area, on the average luminance, and reduces the influence of the area where the luminance changes rapidly, for example, the person area, on the average luminance. be able to. Therefore, the exposure control device can control the exposure using a wider dynamic range, in particular, the corrected luminance of the person area.

本発明の他の観点によれば、撮像画像を取得する撮像画像取得ステップと、前記撮像画像を複数のブロックに分割するブロック分割ステップと、ブロック毎に輝度を含む特徴量を算出する特徴量算出ステップと、各ブロックの特徴量に基づいて、各ブロックの複雑度を算出する複雑度算出ステップと、各ブロックの複雑度に基づいて、各ブロックの輝度に重み付けすることで、各ブロックの補正輝度を算出する補正輝度算出ステップと、前記補正輝度に基づいて、撮像時の露出を制御する露出制御ステップと、を含むことを特徴とする、露出制御方法が提供される。   According to another aspect of the present invention, a captured image acquisition step for acquiring a captured image, a block division step for dividing the captured image into a plurality of blocks, and a feature amount calculation for calculating a feature amount including luminance for each block A step of calculating the complexity of each block based on the feature amount of each block; and the corrected luminance of each block by weighting the luminance of each block based on the complexity of each block There is provided an exposure control method comprising: a corrected luminance calculating step for calculating an image, and an exposure control step for controlling an exposure at the time of imaging based on the corrected luminance.

この観点による露出制御方法は、各ブロックの特徴量に基づいて、各ブロックの複雑度を算出する。そして、露出制御方法は、各ブロックの複雑度に基づいて、各ブロックの輝度に重み付けすることで、各ブロックの補正輝度を算出する。そして、露出制御方法は、補正輝度に基づいて、撮像時の露出を制御する。これにより、露出制御方法は、輝度が一様な領域、例えば背景領域の補正輝度を小さくし、輝度の変化が激しい領域、例えば人物領域の補正輝度を大きくすることができる。したがって、露出制御方法は、より広範なダイナミックレンジ、特に人物領域の補正輝度を使って、露出を制御することができる。   The exposure control method according to this aspect calculates the complexity of each block based on the feature amount of each block. Then, the exposure control method calculates the corrected luminance of each block by weighting the luminance of each block based on the complexity of each block. The exposure control method controls the exposure at the time of imaging based on the corrected luminance. As a result, the exposure control method can reduce the correction luminance of a region having a uniform luminance, for example, a background region, and can increase the correction luminance of a region where the luminance change is sharp, for example, a person region. Therefore, the exposure control method can control the exposure using a wider dynamic range, particularly the corrected luminance of the person area.

以上説明したように本発明によれば、背景領域の補正輝度は小さくなる一方、人物領域の補正輝度は大きくなるので、露出制御装置は、より広範なダイナミックレンジ、特に人物領域の補正輝度を使って、露出を制御することができる。したがって、露出制御装置は、従来よりも適正な露出制御を行うことができる。   As described above, according to the present invention, the correction brightness of the background area is reduced while the correction brightness of the person area is increased. Therefore, the exposure control apparatus uses a wider dynamic range, particularly the correction brightness of the person area. The exposure can be controlled. Therefore, the exposure control device can perform exposure control more appropriate than before.

本発明の第1の実施形態に係る撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 撮像装置により生成された複雑度マップの一例を示す説明図である。It is explanatory drawing which shows an example of the complexity map produced | generated by the imaging device. 撮像装置により生成された複雑度マップの一例を示す説明図である。It is explanatory drawing which shows an example of the complexity map produced | generated by the imaging device. 撮像装置により生成された複雑度マップの一例を示す説明図である。It is explanatory drawing which shows an example of the complexity map produced | generated by the imaging device. 複雑度マップの生成過程を示す説明図である。It is explanatory drawing which shows the production | generation process of a complexity map. (a)各ブロックの色相積算値を示す色相積算値マップの一例を示す説明図である。(b)各ブロックの色相複雑度を示す色相複雑度マップの一例を示す説明図である。(A) It is explanatory drawing which shows an example of the hue integrated value map which shows the hue integrated value of each block. (B) It is explanatory drawing which shows an example of the hue complexity map which shows the hue complexity of each block. 正規化された色相複雑度マップである正規化色相複雑度マップの一例を示す説明図である。It is explanatory drawing which shows an example of the normalized hue complexity map which is a normalized hue complexity map. 正規化彩度複雑度マップの一例を示す説明図である。It is explanatory drawing which shows an example of a normalization saturation complexity map. 正規化輝度複雑度マップの一例を示す説明図である。It is explanatory drawing which shows an example of a normalization brightness complexity map. 各ブロックの混合複雑度を示す混合複雑度マップの一例を示す説明図である。It is explanatory drawing which shows an example of the mixing complexity map which shows the mixing complexity of each block. 撮像装置による処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process by an imaging device. 肌色領域の大きさと人物の顔とみなされる有効領域との対応関係を示すグラフである。It is a graph which shows the correspondence of the size of a skin color area | region, and the effective area | region considered as a person's face. 有効領域マップの一例を示す説明図である。It is explanatory drawing which shows an example of an effective area map. 撮像画像の一例を示す説明図である。It is explanatory drawing which shows an example of a captured image. (a)、(b)第2の実施形態による顔領域判定の内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the content of the face area determination by 2nd Embodiment. (a)補正前の混合複雑度マップの一例を示す説明図である。(b)補正後の混合複雑度マップの一例を示す説明図である。(A) It is explanatory drawing which shows an example of the mixing complexity map before correction | amendment. (B) It is explanatory drawing which shows an example of the mixed complexity map after correction | amendment. 第2の実施形態に係る撮像装置による処理の手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure performed by the imaging apparatus according to the second embodiment. 撮像画像の一例を模式的に示す説明図である。It is explanatory drawing which shows an example of a captured image typically. 図18の撮像画像に対して露出補正を行った後の輝度分布を示すヒストグラムである。It is a histogram which shows the luminance distribution after performing exposure correction | amendment with respect to the captured image of FIG. 撮像画像の一例を模式的に示す説明図である。It is explanatory drawing which shows an example of a captured image typically. 図20の撮像画像に対して露出補正を行った後の輝度分布を示すヒストグラムである。FIG. 21 is a histogram showing a luminance distribution after performing exposure correction on the captured image of FIG. 20. FIG. 撮像画像の一例を模式的に示す説明図である。It is explanatory drawing which shows an example of a captured image typically. 図22の撮像画像に対して露出補正を行った後の輝度分布を示すヒストグラムである。It is a histogram which shows the luminance distribution after performing exposure correction | amendment with respect to the captured image of FIG. 撮像画像の一例を模式的に示す説明図である。It is explanatory drawing which shows an example of a captured image typically. 図24の撮像画像に対して露出補正を行った後の輝度分布を示すヒストグラムである。It is a histogram which shows the luminance distribution after performing exposure correction | amendment with respect to the captured image of FIG.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

<1.中央重点測光の問題点>
本発明者は、従来の撮像装置、具体的には中央重点測光を行う撮像装置の問題点について検討を重ねた結果、本実施形態に係る撮像装置に想到するに至った。そこで、まず、従来の撮像装置の問題点を詳細に説明する。
<1. Problems with center-weighted metering>
The inventor has studied the problems of a conventional imaging device, specifically, an imaging device that performs center-weighted photometry, and as a result, has arrived at the imaging device according to the present embodiment. First, the problems of the conventional imaging device will be described in detail.

従来の撮像装置は、撮像画像の中央領域の輝度に重み付けを行った上で平均輝度を算出し、この平均輝度が目標輝度に近づくように露出を制御する。この目標輝度は、例えば、中輝度(グレー色の輝度)程度に設定される。中央重点測光は、撮像画像の中央領域に重み付けを行なうものであるが、平均輝度は、中央領域以外の背景領域の輝度の影響も強く受ける。   The conventional imaging device calculates the average luminance after weighting the luminance of the central area of the captured image, and controls the exposure so that the average luminance approaches the target luminance. This target luminance is set to about medium luminance (gray color luminance), for example. In center-weighted metering, the center area of the captured image is weighted, but the average brightness is strongly influenced by the brightness of the background area other than the center area.

グレーの壁を背にした人物を従来の撮像装置を用いて撮影した場合、例えば図18に示す撮像画像300が得られる。撮像画像300の領域A1には人物の顔、領域B1には人物の胴体、領域C1には背景が描かれている。領域C1の輝度は一様であり、かつ、領域A1、B1の輝度に近い。従来の撮像装置は、撮像画像300の平均輝度を算出し、この平均輝度が目標輝度に近づくように露出を制御する。露出制御後の撮像画像は、例えば図19に示す輝度分布を示す。図19の横軸は輝度、縦軸は度数、即ち各輝度を有する画素の数を示す。ThLは目標輝度を示す。ヒストグラムLA1は領域A1の輝度分布、ヒストグラムLB1は領域B1の輝度分布、ヒストグラムLC1は領域C1の輝度分布を示す。この例の場合、背景領域である領域C1の輝度が目標輝度に近いので、適正な露出が行われる。   When a person with a gray wall on the back is photographed using a conventional imaging device, for example, a captured image 300 shown in FIG. 18 is obtained. In the captured image 300, a human face is drawn in the area A1, a human torso is drawn in the area B1, and a background is drawn in the area C1. The brightness of the area C1 is uniform and close to the brightness of the areas A1 and B1. The conventional imaging device calculates the average brightness of the captured image 300 and controls the exposure so that the average brightness approaches the target brightness. The captured image after the exposure control shows, for example, the luminance distribution shown in FIG. In FIG. 19, the horizontal axis indicates luminance, and the vertical axis indicates frequency, that is, the number of pixels having each luminance. ThL indicates the target luminance. The histogram LA1 indicates the luminance distribution of the region A1, the histogram LB1 indicates the luminance distribution of the region B1, and the histogram LC1 indicates the luminance distribution of the region C1. In the case of this example, since the brightness of the area C1, which is the background area, is close to the target brightness, appropriate exposure is performed.

一方、黒い壁を背にした人物を従来の撮像装置を用いて撮影した場合、例えば図20に示す撮像画像310が得られる。撮像画像310の領域A2には人物の顔、領域B2には人物の胴体、領域C2には背景が描かれている。領域C2の輝度は一様であり、かつ、領域A2、B2の輝度よりも低い。この例の場合、背景領域である領域C2の輝度が目標輝度よりも低く、かつ、領域C2の輝度が平均輝度に強く影響をあたえる。即ち、平均輝度は、領域C2の輝度の影響により、目標輝度よりも小さくなる。このため、従来の撮像装置は、平均輝度を目標輝度に近づけるため、平均輝度を上げる制御を行なう。したがって、従来の撮像装置は、領域A2、B2の輝度を露出制御に反映させることができない。言い換えれば、従来の撮像装置は、撮像画像のダイナミックレンジを有効に使うことができない。   On the other hand, when a person with a black wall is photographed using a conventional imaging device, a captured image 310 shown in FIG. 20 is obtained, for example. In the captured image 310, a person's face is drawn in the area A2, a person's torso is drawn in the area B2, and a background is drawn in the area C2. The brightness of the area C2 is uniform and lower than the brightness of the areas A2 and B2. In this example, the brightness of the area C2 as the background area is lower than the target brightness, and the brightness of the area C2 strongly affects the average brightness. That is, the average luminance is smaller than the target luminance due to the influence of the luminance of the region C2. For this reason, the conventional imaging apparatus performs control to increase the average luminance in order to bring the average luminance close to the target luminance. Therefore, the conventional imaging device cannot reflect the brightness of the areas A2 and B2 in the exposure control. In other words, the conventional imaging apparatus cannot effectively use the dynamic range of the captured image.

露出制御後の撮像画像は、例えば図21に示す輝度分布を示す。図21の横軸は輝度、縦軸は度数、即ち各輝度を有する画素の数を示す。ThLは目標輝度を示す。ヒストグラムLA2は領域A2の輝度分布、ヒストグラムLB2は領域B2の輝度分布、ヒストグラムLC2は領域C2の輝度分布を示す。図21に示されるように、領域A2、B2の輝度は、領域C2の輝度に引きずられて大きくなってしまうので、領域A2の輝度が飽和してしまう(即ち、白飛びが起こってしまう)。また、領域C2の輝度が不自然に高くなってしまう。   The captured image after the exposure control shows, for example, the luminance distribution shown in FIG. In FIG. 21, the horizontal axis indicates luminance, and the vertical axis indicates frequency, that is, the number of pixels having each luminance. ThL indicates the target luminance. The histogram LA2 indicates the luminance distribution of the region A2, the histogram LB2 indicates the luminance distribution of the region B2, and the histogram LC2 indicates the luminance distribution of the region C2. As shown in FIG. 21, the brightness of the areas A2 and B2 is increased by being dragged by the brightness of the area C2, so that the brightness of the area A2 is saturated (that is, whiteout occurs). In addition, the luminance of the region C2 becomes unnaturally high.

一方、白い壁を背にした人物を従来の撮像装置を用いて撮影した場合、例えば図22に示す撮像画像320が得られる。撮像画像320の領域A3には人物の顔、領域B3には人物の胴体、領域C3には背景が描かれている。領域C3の輝度は一様であり、かつ、領域A3、B3の輝度よりも高い。この例の場合、背景領域である領域C3の輝度が目標輝度よりも高く、かつ、領域C3の輝度が平均輝度に強く影響をあたえる。即ち、平均輝度は、領域C3の輝度の影響により、目標輝度よりも高くなる。このため、従来の撮像装置は、平均輝度を目標輝度に近づけるため、平均輝度を下げる制御を行なう。したがって、この場合にも、従来の撮像装置は、領域A3、B3の輝度を露出制御に反映させることができない。言い換えれば、従来の撮像装置は、撮像画像のダイナミックレンジを有効に使うことができない。   On the other hand, when a person with a white wall on the back is photographed using a conventional imaging device, for example, a captured image 320 shown in FIG. 22 is obtained. In the captured image 320, a person's face is drawn in the area A3, a person's torso is drawn in the area B3, and a background is drawn in the area C3. The brightness of the area C3 is uniform and higher than the brightness of the areas A3 and B3. In the case of this example, the luminance of the background region C3 is higher than the target luminance, and the luminance of the region C3 strongly affects the average luminance. That is, the average luminance is higher than the target luminance due to the influence of the luminance of the region C3. For this reason, the conventional imaging apparatus performs control to lower the average luminance in order to bring the average luminance closer to the target luminance. Therefore, also in this case, the conventional imaging device cannot reflect the brightness of the areas A3 and B3 in the exposure control. In other words, the conventional imaging apparatus cannot effectively use the dynamic range of the captured image.

露出制御後の撮像画像は、例えば図23に示す輝度分布を示す。図23の横軸は輝度、縦軸は度数、即ち各輝度を有する画素の数を示す。ThLは目標輝度を示す。ヒストグラムLA3は領域A3の輝度分布、ヒストグラムLB3は領域B3の輝度分布、ヒストグラムLC3は領域C3の輝度分布を示す。図23に示されるように、領域A3、B3の輝度は、領域C3の輝度に引きずられて小さくなってしまうので、領域A3、B3の輝度、即ち露出が不足してしまう。   The captured image after the exposure control shows, for example, the luminance distribution shown in FIG. In FIG. 23, the horizontal axis indicates luminance, and the vertical axis indicates frequency, that is, the number of pixels having each luminance. ThL indicates the target luminance. The histogram LA3 indicates the luminance distribution of the region A3, the histogram LB3 indicates the luminance distribution of the region B3, and the histogram LC3 indicates the luminance distribution of the region C3. As shown in FIG. 23, the luminances of the regions A3 and B3 are reduced by the luminance of the region C3, so that the luminances of the regions A3 and B3, that is, the exposure is insufficient.

次に、より一般的なシーンについて検討する。雪が積もった地面に立っている人物を撮影した場合、例えば図24に示す撮像画像330が得られる。この撮像画像330では、雪が積もった地面、及び晴天の空が背景として比較的広い領域に描かれている。これらの領域、即ち背景領域の輝度はほぼ一様であり、かつ、人物領域の輝度よりも高い。この例の場合、背景領域の輝度が目標輝度よりも高く、かつ、背景領域の輝度が平均輝度に強く影響をあたえる。即ち、平均輝度は、背景領域の輝度の影響により、目標輝度よりも高くなる。このため、従来の撮像装置は、平均輝度を目標輝度に近づけるため、平均輝度を下げる制御を行なう。したがって、この場合にも、従来の撮像装置は、人物領域の輝度を露出制御に反映させることができない。言い換えれば、従来の撮像装置は、撮像画像のダイナミックレンジを有効に使うことができない。   Next, consider a more general scene. When a person standing on the ground with snow is photographed, for example, a captured image 330 shown in FIG. 24 is obtained. In this captured image 330, the ground with snow and the clear sky are drawn in a relatively wide area as a background. The brightness of these areas, that is, the background area is substantially uniform and higher than the brightness of the person area. In this example, the brightness of the background area is higher than the target brightness, and the brightness of the background area strongly affects the average brightness. That is, the average luminance is higher than the target luminance due to the influence of the luminance of the background area. For this reason, the conventional imaging apparatus performs control to lower the average luminance in order to bring the average luminance closer to the target luminance. Therefore, also in this case, the conventional imaging device cannot reflect the brightness of the person area in the exposure control. In other words, the conventional imaging apparatus cannot effectively use the dynamic range of the captured image.

露出制御後の撮像画像は、例えば図25に示す輝度分布を示す。図25の横軸は輝度、縦軸は度数、即ち各輝度を有する画素の数を示す。ヒストグラムL10は、撮像画像330の輝度分布を示す。特に、ピーク部分L10aは、背景領域の輝度分布を示す。図25に示されるように、背景領域以外の領域、例えば人物領域輝度は、背景領域の輝度に引きずられて小さくなってしまうので、例えば人物領域の輝度、即ち露出が不足してしまう。   The captured image after the exposure control shows, for example, the luminance distribution shown in FIG. In FIG. 25, the horizontal axis indicates luminance, and the vertical axis indicates frequency, that is, the number of pixels having each luminance. The histogram L10 shows the luminance distribution of the captured image 330. In particular, the peak portion L10a indicates the luminance distribution of the background region. As shown in FIG. 25, since the brightness other than the background area, for example, the person area brightness is decreased by being dragged by the brightness of the background area, for example, the brightness of the person area, that is, the exposure is insufficient.

このように、従来の撮像装置は、撮像画像の各領域に描かれた被写体の種類を問題とせず、単に平均輝度を目標輝度に近づける制御を行なっていた。そして、平均輝度は、撮像画像のうち背景領域の影響を強く受ける。このため、従来の撮像装置は、晴天の空や雪の積もった地面のように、実際の(即ち、人間が被写体を直接視認したときの)輝度が高い被写体が背景領域として描かれている場合にも、平均輝度を下げる制御を行なっていた。即ち、従来の撮像装置は、背景領域の輝度を本来の露出方向(露出を高める方向)とは反対方向に露出を制御していた。さらに、従来の撮像装置は、背景領域が広いほど、大きく露出を変化させていた。したがって、背景領域が広いほど、撮像画像の輝度と実際の被写体の輝度との乖離が大きくなってしまっていた。   As described above, the conventional imaging apparatus simply controls the average luminance to be close to the target luminance without considering the type of subject drawn in each area of the captured image. The average luminance is strongly influenced by the background area in the captured image. For this reason, in a conventional imaging device, an actual subject with high luminance (such as when a human directly looks at the subject) is drawn as a background area, such as a clear sky or snowy ground. In addition, control for lowering the average brightness was performed. That is, the conventional imaging apparatus controls the exposure of the luminance of the background area in the direction opposite to the original exposure direction (the direction in which the exposure is increased). Further, in the conventional image pickup apparatus, the exposure is greatly changed as the background area is wider. Therefore, the larger the background area, the greater the difference between the brightness of the captured image and the actual brightness of the subject.

このため、従来の撮像装置は、ダイナミックレンジを使い切っていないにも関わらず、撮像画像の露出不足または過剰露出が生じてしまうという問題があった。本実施形態は、従来よりも適切な露出を行なうことができる撮像装置(露出制御装置)を提供することを目的とする。   For this reason, the conventional imaging apparatus has a problem that the captured image is underexposed or overexposed even though the dynamic range is not used up. An object of the present embodiment is to provide an imaging device (exposure control device) that can perform exposure more appropriately than in the past.

<2.第1の実施形態による処理の概要>
次に、第1の実施形態による処理の概要について説明する。第1の実施形態に係る撮像装置10(図1参照)は、撮像画像を複数のブロック(例えば16×16のブロック)に分割し、ブロック毎に輝度等の特徴量を算出する。撮像装置10は、隣接するブロック同士の特徴量の差分を算出し、差分の絶対値に基づいて、各ブロックの複雑度を算出する。そして、撮像装置10は、各ブロックの複雑度を示す複雑度マップを生成する。例えば、撮像装置10は、図18に示す撮像画像300に対して、図2に示す複雑度マップ100を生成する。複雑度マップ100は、ブロック101毎に複雑度が設定されている。複雑度の大きさは、各ブロック101のハッチングの濃度で示される。複雑度が大きいほど、ハッチングの濃度が大きくなる(黒に近くなる)。例えば、ブロック101aは、領域B1と領域C1との境界に配置されるので、複雑度が大きくなる。一方、ブロック101bは、領域C1内に配置されるので、複雑度は小さくなる。
<2. Overview of Processing According to First Embodiment>
Next, an overview of processing according to the first embodiment will be described. The imaging apparatus 10 (see FIG. 1) according to the first embodiment divides a captured image into a plurality of blocks (for example, 16 × 16 blocks), and calculates a feature amount such as luminance for each block. The imaging device 10 calculates a difference between feature amounts of adjacent blocks, and calculates the complexity of each block based on the absolute value of the difference. And the imaging device 10 produces | generates the complexity map which shows the complexity of each block. For example, the imaging device 10 generates the complexity map 100 illustrated in FIG. 2 for the captured image 300 illustrated in FIG. In the complexity map 100, the complexity is set for each block 101. The degree of complexity is indicated by the hatching density of each block 101. The greater the complexity, the greater the hatch density (closer to black). For example, since the block 101a is arranged at the boundary between the region B1 and the region C1, the complexity increases. On the other hand, since the block 101b is arranged in the region C1, the complexity is reduced.

同様に、撮像装置10は、図20に示す撮像画像310に対して、図3に示す複雑度マップ110を生成する。複雑度マップ110は、ブロック111毎に複雑度が設定されている。例えば、ブロック111aは、領域B2と領域C2との境界に配置されるので、複雑度が大きくなる。なお、撮像装置10は、図22に示す撮像画像320に対しても、複雑度マップ110と同様のマップを生成する。撮像画像310と撮像画像320とは、背景領域である領域C2、C3の特徴量が互いに異なるが、特徴量の差分の絶対値は各ブロックで同様の値となるからである。   Similarly, the imaging apparatus 10 generates a complexity map 110 illustrated in FIG. 3 for the captured image 310 illustrated in FIG. In the complexity map 110, the complexity is set for each block 111. For example, since the block 111a is arranged at the boundary between the region B2 and the region C2, the complexity increases. Note that the imaging apparatus 10 also generates a map similar to the complexity map 110 for the captured image 320 illustrated in FIG. This is because the captured image 310 and the captured image 320 have different feature amounts in the regions C2 and C3, which are background regions, but the absolute value of the difference between the feature amounts is the same value in each block.

より具体的には、撮像装置10は、図24に示す撮像画像330に対して、図4に示す複雑度マップ130を生成する。複雑度マップ130は、ブロック131ごとに複雑度が設定されている。図4に示す複雑度マップ130では、複雑度を示す数値が各ブロックに記載されている。また、各ブロック131には、複雑度に応じた濃度のハッチングが付されている。この例では、輝度が大きくかつ面積の大きい背景領域(空及び地面が描かれている領域)の複雑度が小さくなっている。   More specifically, the imaging apparatus 10 generates a complexity map 130 illustrated in FIG. 4 for the captured image 330 illustrated in FIG. In the complexity map 130, the complexity is set for each block 131. In the complexity map 130 shown in FIG. 4, a numerical value indicating the complexity is described in each block. Each block 131 is hatched with a density corresponding to the complexity. In this example, the complexity of the background area (area where the sky and the ground are drawn) having a large luminance and a large area is small.

そして、撮像装置10は、複雑度に基づいて、各ブロックの輝度に重み付けを行なうことで、補正輝度を算出する。撮像装置10は、複雑度が大きいほど、重みを大きくする。撮像装置10は、補正輝度の平均値を平均輝度とし、この平均輝度が目標輝度に近づくように露出を制御する。   Then, the imaging device 10 calculates the corrected luminance by weighting the luminance of each block based on the complexity. The imaging device 10 increases the weight as the complexity increases. The imaging apparatus 10 sets the average value of the corrected luminances as the average luminance, and controls the exposure so that the average luminance approaches the target luminance.

したがって、輝度が一様な領域、例えば背景領域の補正輝度は小さくなり、輝度の変化が激しい領域、例えば人物領域の補正輝度は大きくなるので、背景領域が平均輝度に与える影響は小さくなる一方、人物領域が平均輝度に与える影響は大きくなる。言い換えれば、図25等に示したヒストグラムの縦軸を(度数)×(補正輝度)とした場合、ヒストグラムはより平坦に近づく。即ち、ヒストグラムの各輝度に対する(度数)×(補正輝度)の値が、目標輝度を中心としてより均等に分布する。このため、撮像装置10は、より広範なダイナミックレンジを使って、平均輝度を算出することができ、かつ、露出を制御することができる。なお、撮像画像300の背景領域の輝度は目標輝度に近いので、複雑度マップ100が示す複雑度は、他の複雑度マップ110、130が示す複雑度に比べて小さい。したがって、各ブロック101の補正輝度は、補正前の輝度と同程度となるので、露出量は従来の場合とほぼ同程度となる。したがって、本実施形態による副作用は発生しない。   Therefore, the correction brightness of the area where the brightness is uniform, for example, the background area is small, and the correction brightness of the area where the brightness is drastically changed, for example, the person area, is large. The influence of the person area on the average luminance is increased. In other words, when the vertical axis of the histogram shown in FIG. 25 or the like is (frequency) × (corrected luminance), the histogram becomes more flat. That is, the value of (frequency) × (corrected luminance) for each luminance in the histogram is more evenly distributed around the target luminance. For this reason, the imaging device 10 can calculate the average luminance using a wider dynamic range and can control the exposure. Since the luminance of the background area of the captured image 300 is close to the target luminance, the complexity indicated by the complexity map 100 is smaller than the complexity indicated by the other complexity maps 110 and 130. Accordingly, the corrected luminance of each block 101 is approximately the same as the luminance before correction, and thus the exposure amount is approximately the same as in the conventional case. Therefore, the side effects according to this embodiment do not occur.

<3.撮像装置の構成>
次に、図1に示すブロック図に基づいて、第1の実施形態に係る撮像装置(露出制御装置)10の構成について説明する。撮像装置10は、レンズユニット11と、撮像素子12と、アナログ処理部13と、信号処理部14と、ブロック分割部15と、特徴量算出部16と、複雑度算出部17と、補正輝度算出部18と、露出量算出部19と、露出制御部20と、ドライバ21とを備える。
<3. Configuration of Imaging Device>
Next, the configuration of the imaging device (exposure control device) 10 according to the first embodiment will be described based on the block diagram shown in FIG. The imaging device 10 includes a lens unit 11, an imaging device 12, an analog processing unit 13, a signal processing unit 14, a block division unit 15, a feature amount calculation unit 16, a complexity calculation unit 17, and a corrected luminance calculation. A unit 18, an exposure amount calculation unit 19, an exposure control unit 20, and a driver 21 are provided.

なお、撮影装置10は、CPU、ROM、RAM、フラッシュメモリ等のハードウェアを有しており、CPUがROMに記憶されたプログラムを読みだして実行することによって、上記各機能ブロックによる処理が実現される。即ち、ROMには、撮像装置10に、上記各機能ブロック、特にアナログ処理部13と、信号処理部14と、ブロック分割部15と、特徴量算出部16と、複雑度算出部17と、補正輝度算出部18と、露出量算出部19と、露出制御部20と、ドライバ21とを実現させるためのプログラムが記憶されている。   Note that the photographing apparatus 10 has hardware such as a CPU, ROM, RAM, and flash memory, and the CPU reads and executes the program stored in the ROM, thereby realizing the processing by the above functional blocks. Is done. That is, in the ROM, the imaging device 10 includes the above functional blocks, particularly the analog processing unit 13, the signal processing unit 14, the block dividing unit 15, the feature amount calculating unit 16, the complexity calculating unit 17, and the correction. A program for realizing the luminance calculation unit 18, the exposure amount calculation unit 19, the exposure control unit 20, and the driver 21 is stored.

なお、他の実施形態としては、ブロック分割部15、特徴量算出部16、複雑度算出部17、補正輝度算出部18、露出量算出部19、及び露出制御部20を備える露出制御装置(例えばパーソナルコンピュータやサーバ等のコンピュータ)が考えられる。この実施形態では、露出制御装置は撮像装置から撮像画像を取得する。   As other embodiments, an exposure control apparatus (for example, an exposure control unit 20 including a block dividing unit 15, a feature amount calculating unit 16, a complexity calculating unit 17, a corrected luminance calculating unit 18, an exposure amount calculating unit 19, and an exposure control unit 20). A computer such as a personal computer or a server) can be considered. In this embodiment, the exposure control device acquires a captured image from the imaging device.

レンズユニット11は、撮影装置10に対して着脱可能となっており、複数のレンズ、絞り機構、及びシャッタ等を備える。レンズユニット11は、撮影装置10の外部から可視光を取り込み、取り込んだ光を、レンズ等を介して撮像素子12に入射させる。   The lens unit 11 is detachable from the photographing apparatus 10 and includes a plurality of lenses, a diaphragm mechanism, a shutter, and the like. The lens unit 11 captures visible light from the outside of the photographing apparatus 10 and causes the captured light to enter the image sensor 12 via a lens or the like.

撮像素子12は、マトリックス状に配置された複数の単位素子と、図示しない撮像素子制御部とを備える。単位素子は、撮像画像の単位画素に対応するものである。各単位素子は、赤色光、緑色光、青色光それぞれの受信強度に関するR情報、G情報、B情報(以下、これらをまとめて「RGB情報」とも称する)を撮像素子制御部に出力する。撮像素子制御部は、各単位素子から与えられたRGB情報に基づいて、RGB情報を画素毎に有する撮像画像を生成する。撮像素子制御部は、生成された撮像画像をアナログ処理部13に出力する。   The image sensor 12 includes a plurality of unit elements arranged in a matrix and an image sensor control unit (not shown). The unit element corresponds to a unit pixel of the captured image. Each unit element outputs R information, G information, and B information (hereinafter collectively referred to as “RGB information”) relating to the reception intensity of each of red light, green light, and blue light to the image sensor control unit. The imaging element control unit generates a captured image having RGB information for each pixel based on the RGB information given from each unit element. The imaging element control unit outputs the generated captured image to the analog processing unit 13.

アナログ処理部13は、撮像素子12から与えられた撮像画像をアナログ・デジタル変換し、変換後の撮像画像、即ち撮像画像のRAWデータを信号処理部14及びブロック分割部15に出力する。信号処理部14は、撮像画像に対して各種の補正処理(オブティカルブラック除去、ホワイトバランス調整、色再現補正、ガンマ補正等)を行い、補正処理後の撮像画像を撮像素子10のフラッシュメモリ等に記憶する。   The analog processing unit 13 performs analog / digital conversion on the captured image given from the image sensor 12 and outputs the converted captured image, that is, RAW data of the captured image, to the signal processing unit 14 and the block dividing unit 15. The signal processing unit 14 performs various correction processes (such as optical black removal, white balance adjustment, color reproduction correction, and gamma correction) on the captured image, and the captured image after the correction process is stored in the flash memory of the image sensor 10 or the like. To remember.

ブロック分割部15は、撮像画像を複数のブロック(例えば16×16のブロック)に分割し、各ブロックに識別番号を付与する。そして、ブロック分割部は、ブロック毎にR情報、G情報、B情報を積算することで、R積算値、G積算値、B積算値(以下、「これらをまとめてRGB積算値」とも称する)を算出する。さらに、ブロック分割部は、これらの積算値と、以下の式(1)とに基づいて、各ブロックの輝度を算出する。   The block dividing unit 15 divides the captured image into a plurality of blocks (for example, 16 × 16 blocks), and assigns an identification number to each block. Then, the block dividing unit integrates R information, G information, and B information for each block, so that an R integrated value, a G integrated value, and a B integrated value (hereinafter, collectively referred to as “RGB integrated value”). Is calculated. Further, the block dividing unit calculates the luminance of each block based on these integrated values and the following equation (1).

式(1)中、Yはブロックの輝度、R、G、BはそれぞれR積算値、G積算値、B積算値である。ブロック分割部15は、RGB積算値とブロックの識別番号とが関連付けられた積算値マップを生成し、特徴量算出部16に出力する。さらに、ブロック分割部15は、輝度とブロックの識別番号とが関連付けられた輝度マップを生成し、特徴量算出部16及び補正輝度算出部18に出力する。   In equation (1), Y is the luminance of the block, and R, G, and B are the R integrated value, G integrated value, and B integrated value, respectively. The block dividing unit 15 generates an integrated value map in which the RGB integrated value and the block identification number are associated with each other, and outputs the integrated value map to the feature amount calculating unit 16. Further, the block dividing unit 15 generates a luminance map in which the luminance and the block identification number are associated, and outputs the luminance map to the feature amount calculating unit 16 and the corrected luminance calculating unit 18.

特徴量算出部16は、積算値マップ及び輝度マップと、以下の式(2)〜(5)に基づいて、各ブロックの特徴量として、色相、彩度、及びログ変換輝度を算出する。   The feature amount calculation unit 16 calculates the hue, saturation, and log conversion luminance as the feature amount of each block based on the integrated value map and the luminance map and the following formulas (2) to (5).

式(2)、(3)中、Hは色相であり、0〜360の値をとる。H=0の色相と、H=360の色相とは同じとなる。即ち、色相の値は循環する。R、G、BはそれぞれR積算値、G積算値、B積算値である。MAXはRGB積算値のうち最大の値であり、MINは、RGB積算値のうち最小の値である。   In formulas (2) and (3), H is a hue and takes a value of 0 to 360. The hue of H = 0 and the hue of H = 360 are the same. That is, the hue value circulates. R, G, and B are an R integrated value, a G integrated value, and a B integrated value, respectively. MAX is the maximum value among the RGB integrated values, and MIN is the minimum value among the RGB integrated values.

式(4)中、Sは彩度であり、MAX、MINは式(2)、(3)と同様である。彩度は0〜1の値をとる。   In equation (4), S is the saturation, and MAX and MIN are the same as in equations (2) and (3). Saturation takes a value from 0 to 1.

式(5)中、Lはログ変換輝度であり、Yは輝度である。第1の実施形態では、輝度の値によらず、後述する複雑度算出部17によって算出される輝度差と人間が感じる輝度差とが近似するように、輝度をログ変換する。勿論、複雑度算出部17は、式(1)で求められる輝度をそのまま用いて輝度差を算出してもよい。この場合、高輝度域で算出される輝度差と人間が感じる輝度差との乖離は、低輝度域での乖離よりも大きくなる。特徴量算出部16は、ブロックの色相とブロックの識別番号とが関連付けられた色相マップ、ブロックの彩度とブロックの識別番号とが関連付けられた彩度マップ、及び、ブロックのログ変換輝度とブロックの識別番号とが関連付けられたログ変換輝度マップを生成し、複雑度算出部17に出力する。   In Expression (5), L is the log conversion luminance, and Y is the luminance. In the first embodiment, the luminance is log-converted so that the luminance difference calculated by the complexity calculating unit 17 described later approximates the luminance difference perceived by humans, regardless of the luminance value. Of course, the complexity calculation unit 17 may calculate the luminance difference using the luminance obtained by the equation (1) as it is. In this case, the difference between the luminance difference calculated in the high luminance region and the luminance difference perceived by humans is larger than the difference in the low luminance region. The feature amount calculation unit 16 includes a hue map in which the hue of the block and the block identification number are associated, a saturation map in which the saturation of the block and the block identification number are associated, and the log conversion luminance of the block and the block The log conversion luminance map associated with the identification number is generated and output to the complexity calculation unit 17.

複雑度算出部17は、色相マップ、彩度マップ、及びログ変換輝度マップに基づいて、各ブロックの色相複雑度、彩度複雑度、及び輝度複雑度を算出する。具体的には、複雑度算出部17は、各ブロックと、当該ブロックの上下左右に隣接する4つのブロックとの特徴量の差分を算出し、当該差分に基づいて、各特徴量の複雑度を算出する。例えば、複雑度算出部17は、図5に示すブロック31aの複雑度を、以下の式(6)〜(9)に基づいて算出する。   The complexity calculation unit 17 calculates the hue complexity, the saturation complexity, and the luminance complexity of each block based on the hue map, the saturation map, and the log conversion luminance map. Specifically, the complexity calculating unit 17 calculates the difference between the feature amounts of each block and four blocks adjacent to the block in the up, down, left, and right directions, and calculates the complexity of each feature amount based on the difference. calculate. For example, the complexity calculation unit 17 calculates the complexity of the block 31a illustrated in FIG. 5 based on the following equations (6) to (9).

式(6)、(7)中、CHは色相複雑度、A1〜E1は図5に示すブロック31a〜31eの色相である。   In equations (6) and (7), CH is the hue complexity, and A1 to E1 are the hues of the blocks 31a to 31e shown in FIG.

式(8)中、CSは彩度複雑度、A2〜E2は図5に示すブロック31a〜31eの彩度である。   In Expression (8), CS is the saturation complexity, and A2 to E2 are the saturations of the blocks 31a to 31e shown in FIG.

式(9)中、CLは輝度複雑度、A3〜E3は図5に示すブロック31a〜31eのログ変換輝度である。   In Equation (9), CL is the luminance complexity, and A3 to E3 are the log conversion luminances of the blocks 31a to 31e shown in FIG.

複雑度算出部17は、各ブロックについて上述した処理を行うことで、各ブロックの色相複雑度、彩度複雑度、及び輝度複雑度を算出する。そして、複雑度算出部17は、各ブロックの色相複雑度を示す色相複雑度マップ、各ブロックの彩度複雑度を示す彩度複雑度マップ、各ブロックの輝度複雑度を示す輝度複雑度マップを生成する。   The complexity calculation unit 17 calculates the hue complexity, the saturation complexity, and the luminance complexity of each block by performing the processing described above for each block. Then, the complexity calculation unit 17 generates a hue complexity map indicating the hue complexity of each block, a saturation complexity map indicating the saturation complexity of each block, and a luminance complexity map indicating the luminance complexity of each block. Generate.

例えば、図6(a)に示す色相マップ40が生成された場合、複雑度算出部17は、図6(b)に示す色相複雑度マップ50を生成する。色相マップ40の各ブロックのうち、枠42周辺のブロックがほぼ均一な色相(200〜220)を有しているのに対し、枠42内のブロック、特にブロック41は、枠42周辺のブロックの3/5程度の色相(120)を有している。したがって、色相複雑度マップ50のうち、枠52で囲まれたブロック、特にブロック51の色相複雑度は、枠52周辺の色相複雑度よりも大きくなっている。なお、複雑度算出部17は、上下左右および斜め方向に隣接する8つのブロックの特徴量との差分に基づいて、複雑度を算出してもよい。   For example, when the hue map 40 illustrated in FIG. 6A is generated, the complexity calculation unit 17 generates the hue complexity map 50 illustrated in FIG. Among the blocks of the hue map 40, the blocks around the frame 42 have a substantially uniform hue (200 to 220), whereas the blocks in the frame 42, particularly the block 41, are blocks of the blocks around the frame 42. It has a hue (120) of about 3/5. Therefore, the hue complexity of the block surrounded by the frame 52 in the hue complexity map 50, particularly the block 51, is larger than the hue complexity around the frame 52. The complexity calculating unit 17 may calculate the complexity based on the difference from the feature amounts of the eight blocks adjacent in the up / down / left / right and diagonal directions.

複雑度算出部17は、以下の式(10)〜(12)に基づいて、各ブロックの複雑度を正規化する。これにより、複雑度算出部17は、正規化色相複雑度マップ、正規化彩度複雑度マップ、及び正規化輝度複雑度マップを生成する。   The complexity calculator 17 normalizes the complexity of each block based on the following equations (10) to (12). Thereby, the complexity calculator 17 generates a normalized hue complexity map, a normalized saturation complexity map, and a normalized luminance complexity map.

式(10)中、IH(n)は識別番号nのブロックの正規化色相複雑度、CH(n)は識別番号nのブロックの色相複雑度、IMAXは正規化後の彩度複雑度の最大値であり、予め所望の値に設定される。PHは色相複雑度の正規化係数であり、予め所望の値に設定される。max(CH)は、色相複雑度マップの全ブロックが示す色相複雑度のうち、最大の値、即ち色相複雑度の最大値である。max(PH、max(CH))は、PH、max(CH)のうち、大きい方の値である。したがって、複雑度算出部17は、色相複雑度の最大値で各ブロックの色相複雑度を正規化するが、色相複雑度の最大値が極端に小さい場合には、固定値であるPHで正規化することとなる。   In Expression (10), IH (n) is the normalized hue complexity of the block with the identification number n, CH (n) is the hue complexity of the block with the identification number n, and IMAX is the maximum saturation complexity after the normalization. Value, which is set in advance to a desired value. PH is a normalization coefficient of hue complexity, and is set to a desired value in advance. max (CH) is the maximum value among the hue complexity levels indicated by all the blocks of the hue complexity map, that is, the maximum value of the hue complexity level. max (PH, max (CH)) is a larger value of PH and max (CH). Therefore, the complexity calculation unit 17 normalizes the hue complexity of each block with the maximum value of the hue complexity, but when the maximum value of the hue complexity is extremely small, normalization is performed with a fixed value PH. Will be.

式(11)中、IS(n)は識別番号nのブロックの正規化彩度複雑度、CS(n)は識別番号nのブロックの彩度複雑度、IMAXは正規化後の彩度複雑度の最大値であり、予め所望の値に設定される。PSは彩度複雑度の正規化係数であり、予め所望の値に設定される。max(CS)は、彩度複雑度マップの全ブロックが示す彩度複雑度のうち、最大の値、即ち色相複雑度の最大値である。max(PS、max(CS))は、PS、max(CS)のうち、大きい方の値である。   In equation (11), IS (n) is the normalized saturation complexity of the block with identification number n, CS (n) is the saturation complexity of the block with identification number n, and IMAX is the saturation complexity after normalization. Is set to a desired value in advance. PS is a normalization coefficient of saturation complexity, and is set to a desired value in advance. max (CS) is the maximum value of the saturation complexity indicated by all the blocks of the saturation complexity map, that is, the maximum value of the hue complexity. max (PS, max (CS)) is the larger value of PS and max (CS).

式(12)中、IL(n)は識別番号nのブロックの正規化輝度複雑度、CL(n)は識別番号nのブロックの輝度複雑度、IMAXは正規化後の輝度複雑度の最大値であり、予め所望の値に設定される。PLは輝度複雑度の正規化係数であり、予め所望の値に設定される。max(CL)は、輝度複雑度マップの全ブロックが示す輝度複雑度のうち、最大の値、即ち輝度複雑度の最大値である。max(PL、max(CL))は、PL、max(CL)のうち、大きい方の値である。   In Expression (12), IL (n) is the normalized luminance complexity of the block with the identification number n, CL (n) is the luminance complexity of the block with the identification number n, and IMAX is the maximum luminance complexity after the normalization. And is set in advance to a desired value. PL is a normalization coefficient for luminance complexity, and is set to a desired value in advance. max (CL) is the maximum value of the luminance complexity indicated by all the blocks of the luminance complexity map, that is, the maximum value of the luminance complexity. max (PL, max (CL)) is a larger value of PL, max (CL).

式(10)において、IMAX=8、PH=90とすると、図6(b)に示す色相複雑度マップは、図7に示す正規化色相複雑度マップ60に正規化される。正規化色相複雑度マップ60の各ブロック61は、0〜8の正規化色相複雑度を有する。   In Expression (10), assuming that IMAX = 8 and PH = 90, the hue complexity map shown in FIG. 6B is normalized to the normalized hue complexity map 60 shown in FIG. Each block 61 of the normalized hue complexity map 60 has a normalized hue complexity of 0-8.

さらに、複雑度算出部17は、正規化色相複雑度、正規化彩度複雑度、及び正規化輝度複雑度をブロック毎に混合することで、混合複雑度を算出する。具体的には、複雑度算出部17は、以下の式(13)に基づいて、混合複雑度を算出する。そして、複雑度算出部17は、ブロックの混合複雑度とブロックの識別番号とが関連付けられた混合複雑度マップを生成する。   Furthermore, the complexity calculation unit 17 calculates the mixed complexity by mixing the normalized hue complexity, the normalized saturation complexity, and the normalized luminance complexity for each block. Specifically, the complexity calculation unit 17 calculates the mixing complexity based on the following equation (13). Then, the complexity calculation unit 17 generates a mixed complexity map in which the mixed complexity of the block is associated with the block identification number.

式(13)中、I(n)は、識別番号nのブロックの混合複雑度である。WH、WS、WLは色相、彩度、及び輝度それぞれの混合重み係数であり、予め所望の値に設定される。これらの係数を調整することで、各複雑度が混合複雑度に寄与する割合を調整することができる。max(IH(n)×WH,IS(n)×WS,IL(n)×WL)は、IH(n)×WH,IS(n)×WS,IL(n)×WLのうち、最大の値を示す。例えば、複雑度算出部17は、図7に示す正規化色相複雑度マップ60、図8に示す正規化彩度複雑度マップ70、図9に示す正規化輝度複雑度マップ80を生成した場合には、これらを混合することで、図10に示す混合複雑度マップ90を生成する。複雑度算出部17は、混合複雑度マップを補正輝度算出部18に出力する。   In equation (13), I (n) is the mixed complexity of the block with identification number n. WH, WS, and WL are mixing weight coefficients for hue, saturation, and luminance, and are set in advance to desired values. By adjusting these coefficients, the proportion of each complexity contributing to the mixing complexity can be adjusted. max (IH (n) × WH, IS (n) × WS, IL (n) × WL) is the largest of IH (n) × WH, IS (n) × WS, IL (n) × WL Indicates the value. For example, when the complexity calculation unit 17 generates the normalized hue complexity map 60 illustrated in FIG. 7, the normalized saturation complexity map 70 illustrated in FIG. 8, and the normalized luminance complexity map 80 illustrated in FIG. 9. Generates a mixed complexity map 90 shown in FIG. 10 by mixing them. The complexity calculation unit 17 outputs the mixed complexity map to the corrected luminance calculation unit 18.

補正輝度算出部18は、各ブロックの輝度に混合複雑度を乗じることで、各ブロックの補正輝度を算出する。即ち、補正輝度算出部18は、混合複雑度に基づいて、各ブロックの輝度に重み付けする。さらに、補正輝度算出部18は、式(14)に基づいて、撮像画像の補正平均輝度を算出する。   The corrected luminance calculation unit 18 calculates the corrected luminance of each block by multiplying the luminance of each block by the mixing complexity. That is, the corrected luminance calculation unit 18 weights the luminance of each block based on the mixing complexity. Furthermore, the corrected luminance calculation unit 18 calculates the corrected average luminance of the captured image based on the equation (14).

式(14)中、CYは撮像画像の補正平均輝度、Y(n)×I(n)は識別番号nのブロックの補正輝度である。したがって、補正輝度算出部18は、各ブロックの輝度を加重平均することで、補正平均輝度を算出する。なお、混合複雑度が0のブロックは、加重平均の変化に対する影響が大きい。そこで、補正輝度算出部18は、混合複雑度マップを構成する各ブロックの混合複雑度にオフセットとして1を加算することで、混合複雑度が0となるブロックがなくなるようにしてもよい。   In equation (14), CY is the corrected average luminance of the captured image, and Y (n) × I (n) is the corrected luminance of the block with the identification number n. Therefore, the corrected luminance calculation unit 18 calculates the corrected average luminance by performing weighted averaging of the luminance of each block. A block having a mixed complexity of 0 has a large influence on the weighted average change. Therefore, the corrected luminance calculating unit 18 may add 1 as an offset to the mixed complexity of each block constituting the mixed complexity map so that there is no block having a mixed complexity of 0.

さらに、補正輝度算出部18は、上述した輝度マップに従来の測光処理(例えば、中央重点測光、多分割測光等)を施すことで、基準平均輝度を算出する。そして、補正輝度算出部18は、以下の式(15)に基づいて、補正平均輝度と基準平均輝度とを混合することで、混合平均輝度を算出する。   Further, the corrected luminance calculation unit 18 calculates the reference average luminance by performing conventional photometric processing (for example, center-weighted photometry, multi-segment photometry, etc.) on the above-described luminance map. Then, the corrected luminance calculation unit 18 calculates the mixed average luminance by mixing the corrected average luminance and the reference average luminance based on the following equation (15).

式(15)中、FYは混合平均輝度、NYは基準平均輝度、CYは補正平均輝度である。WN、WCは基準平均輝度及び補正平均輝度それぞれの混合重み係数であり、予め所望の値に設定される。これらの係数を調整することで、各平均輝度が混合複雑度に寄与する割合を調整することができる。なお、補正輝度算出部18は、混合複雑度による輝度の補正が効き過ぎることを防止するために、基準平均輝度と補正平均輝度との差分が大きい場合には、補正平均輝度を所定値にクリップしてもよい。補正輝度算出部18は、混合平均輝度に関する混合平均輝度情報を生成し、露出量算出部19に出力する。   In Equation (15), FY is the mixed average luminance, NY is the reference average luminance, and CY is the corrected average luminance. WN and WC are mixing weight coefficients for the reference average luminance and the corrected average luminance, and are set to desired values in advance. By adjusting these coefficients, it is possible to adjust the ratio at which each average luminance contributes to the mixing complexity. The corrected luminance calculation unit 18 clips the corrected average luminance to a predetermined value when the difference between the reference average luminance and the corrected average luminance is large in order to prevent the luminance correction due to the mixing complexity from being excessively effective. May be. The corrected luminance calculation unit 18 generates mixed average luminance information related to the mixed average luminance and outputs it to the exposure amount calculation unit 19.

露出量算出部19は、混合平均輝度情報に基づいて、混合平均輝度が予め設定された目標輝度に近づくように(即ち、これらの差分が0に近づくように)、撮像素子12の露出量を算出する。露出量算出部19は、算出された露出量、即ち補正露出量に関する補正露出量情報を生成し、露出制御部20に出力する。   Based on the mixed average luminance information, the exposure amount calculation unit 19 determines the exposure amount of the image sensor 12 so that the mixed average luminance approaches a preset target luminance (that is, the difference between them approaches 0). calculate. The exposure amount calculation unit 19 generates corrected exposure amount information related to the calculated exposure amount, that is, the corrected exposure amount, and outputs it to the exposure control unit 20.

露出制御部20は、補正露出量情報に基づいて、ドライバ21を制御する。ドライバ21は、露出制御部20による制御により、レンズユニット11の絞り、撮像素子12の駆動タイミング、アナログ処理部13のゲイン等を調整する。これにより、撮像素子12の露出量が、補正露出量に一致する。   The exposure control unit 20 controls the driver 21 based on the corrected exposure amount information. The driver 21 adjusts the aperture of the lens unit 11, the drive timing of the image sensor 12, the gain of the analog processing unit 13, and the like under the control of the exposure control unit 20. Thereby, the exposure amount of the image sensor 12 matches the corrected exposure amount.

<4.撮像装置による処理の手順>
次に、撮像装置10による処理の手順を図11に示すフローチャートに沿って説明する。ステップS11において、ブロック分割部15は、アナログ処理部13から与えられた撮像画像を複数のブロック(例えば16×16のブロック)に分割し、各ブロックに識別番号を付与する。次いで、ブロック分割部15は、ブロック毎にR情報、G情報、B情報を積算することで、RGB積算値を算出する。ブロック分割部15は、RGB積算値とブロックの識別番号とが関連付けられた積算値マップを生成し、特徴量算出部16に出力する。さらに、ブロック分割部は、これらの積算値と、上述した式(1)とに基づいて、各ブロックの輝度を算出する。次いで、ブロック分割部15は、輝度とブロックの識別番号とが関連付けられた輝度マップを生成し、特徴量算出部16及び補正輝度算出部18に出力する。
<4. Processing procedure by imaging device>
Next, a processing procedure by the imaging apparatus 10 will be described with reference to a flowchart shown in FIG. In step S11, the block dividing unit 15 divides the captured image given from the analog processing unit 13 into a plurality of blocks (for example, 16 × 16 blocks), and assigns an identification number to each block. Next, the block dividing unit 15 calculates an RGB integrated value by integrating R information, G information, and B information for each block. The block dividing unit 15 generates an integrated value map in which the RGB integrated value and the block identification number are associated with each other, and outputs the integrated value map to the feature amount calculating unit 16. Further, the block dividing unit calculates the luminance of each block based on these integrated values and the above-described equation (1). Next, the block dividing unit 15 generates a luminance map in which the luminance and the block identification number are associated, and outputs the luminance map to the feature amount calculating unit 16 and the corrected luminance calculating unit 18.

次いで、特徴量算出部16は、積算値マップ及び輝度マップと、上述した式(2)〜(5)に基づいて、各ブロックの特徴量として、色相、彩度、及びログ変換輝度を算出する。   Next, the feature amount calculation unit 16 calculates the hue, saturation, and log conversion luminance as the feature amount of each block based on the integrated value map and the luminance map and the above-described equations (2) to (5). .

次いで、特徴量算出部16は、ブロックの色相とブロックの識別番号とが関連付けられた色相マップ、ブロックの彩度とブロックの識別番号とが関連付けられた彩度マップ、及び、ブロックのログ変換輝度とブロックの識別番号とが関連付けられたログ変換輝度マップを生成し、複雑度算出部17に出力する。   Next, the feature amount calculation unit 16 includes a hue map in which the hue of the block and the block identification number are associated, a saturation map in which the saturation of the block and the block identification number are associated, and the log conversion luminance of the block And a log conversion luminance map in which the block identification numbers are associated with each other and output to the complexity calculation unit 17.

ステップS13において、複雑度算出部17は、色相マップ、彩度マップ、及びログ変換輝度マップに基づいて、各ブロックの色相複雑度、彩度複雑度、及び輝度複雑度を算出する。具体的には、複雑度算出部17は、各ブロックと、当該ブロックの上下左右に隣接する4つのブロックとの特徴量の差分を算出し、当該差分に基づいて、各特徴量の複雑度を算出する。例えば、複雑度算出部17は、図5に示すブロック31aの複雑度を、上述した式(6)〜(9)に基づいて算出する。   In step S13, the complexity calculation unit 17 calculates the hue complexity, the saturation complexity, and the luminance complexity of each block based on the hue map, the saturation map, and the log conversion luminance map. Specifically, the complexity calculating unit 17 calculates the difference between the feature amounts of each block and four blocks adjacent to the block in the up, down, left, and right directions, and calculates the complexity of each feature amount based on the difference. calculate. For example, the complexity calculating unit 17 calculates the complexity of the block 31a illustrated in FIG. 5 based on the above-described equations (6) to (9).

複雑度算出部17は、各ブロックについて同様の処理を行うことで、各ブロックの色相複雑度、彩度複雑度、及び輝度複雑度を算出する。次いで、複雑度算出部17は、各ブロックの色相複雑度を示す色相複雑度マップ、各ブロックの彩度複雑度を示す彩度複雑度マップ、各ブロックの輝度複雑度を示す輝度複雑度マップを生成する。   The complexity calculation unit 17 calculates the hue complexity, the saturation complexity, and the luminance complexity of each block by performing the same processing for each block. Next, the complexity calculator 17 generates a hue complexity map indicating the hue complexity of each block, a saturation complexity map indicating the saturation complexity of each block, and a brightness complexity map indicating the brightness complexity of each block. Generate.

ステップS14において、複雑度算出部17は、上述した式(10)〜(12)に基づいて、各ブロックの複雑度を正規化する。これにより、複雑度算出部17は、正規化色相複雑度マップ、正規化彩度複雑度マップ、及び正規化輝度複雑度マップを生成する。   In step S14, the complexity calculation unit 17 normalizes the complexity of each block based on the above-described equations (10) to (12). Thereby, the complexity calculator 17 generates a normalized hue complexity map, a normalized saturation complexity map, and a normalized luminance complexity map.

ステップS15において、複雑度算出部17は、正規化色相複雑度、正規化彩度複雑度、及び正規化輝度複雑度をブロック毎に混合することで、混合複雑度を算出する。具体的には、複雑度算出部17は、上述した式(13)に基づいて、混合複雑度を算出する。次いで、複雑度算出部17は、ブロックの混合複雑度とブロックの識別番号とが関連付けられた混合複雑度マップを生成する。複雑度算出部17は、混合複雑度マップを補正輝度算出部18に出力する。   In step S15, the complexity calculation unit 17 calculates the mixed complexity by mixing the normalized hue complexity, the normalized saturation complexity, and the normalized luminance complexity for each block. Specifically, the complexity calculation unit 17 calculates the mixing complexity based on the above-described equation (13). Next, the complexity calculation unit 17 generates a mixed complexity map in which the mixed complexity of the block is associated with the block identification number. The complexity calculation unit 17 outputs the mixed complexity map to the corrected luminance calculation unit 18.

ステップS16において、補正輝度算出部18は、各ブロックの輝度に混合複雑度を乗じることで、各ブロックの補正輝度を算出する。さらに、補正輝度算出部18は、上述した式(14)に基づいて、撮像画像の補正平均輝度を算出する。   In step S16, the corrected luminance calculation unit 18 calculates the corrected luminance of each block by multiplying the luminance of each block by the mixing complexity. Furthermore, the corrected luminance calculation unit 18 calculates the corrected average luminance of the captured image based on the above-described equation (14).

ステップS17において、補正輝度算出部18は、上述した輝度マップに従来の測光処理(例えば、中央重点測光、多分割測光等)を施すことで、基準平均輝度を算出する。そして、補正輝度算出部18は、上述した式(15)に基づいて、補正平均輝度と基準平均輝度とを混合することで、混合平均輝度を算出する。補正輝度算出部18は、混合平均輝度に関する混合平均輝度情報を生成し、露出量算出部19に出力する。   In step S <b> 17, the corrected luminance calculation unit 18 calculates the reference average luminance by performing conventional photometric processing (for example, center-weighted photometry, multi-segment photometry, etc.) on the above-described luminance map. Then, the corrected luminance calculation unit 18 calculates the mixed average luminance by mixing the corrected average luminance and the reference average luminance based on the above-described equation (15). The corrected luminance calculation unit 18 generates mixed average luminance information related to the mixed average luminance and outputs it to the exposure amount calculation unit 19.

ステップS18において、露出量算出部19は、混合平均輝度情報に基づいて、混合平均輝度が予め設定された目標輝度に近づくように(即ち、これらの差分が0に近づくように)、撮像素子12の露出量を算出する。露出量算出部19は、算出された露出量、即ち補正露出量に関する補正露出量情報を生成し、露出制御部20に出力する。   In step S <b> 18, the exposure amount calculation unit 19 makes the imaging element 12 based on the mixed average luminance information so that the mixed average luminance approaches a preset target luminance (that is, the difference between them approaches 0). The amount of exposure is calculated. The exposure amount calculation unit 19 generates corrected exposure amount information related to the calculated exposure amount, that is, the corrected exposure amount, and outputs it to the exposure control unit 20.

次いで、露出制御部20は、補正露出量情報に基づいて、ドライバ21を制御する。ドライバ21は、露出制御部20による制御により、レンズユニット11の絞り、撮像素子12のシャッタスピード、アナログ処理部13のゲイン等を調整する。即ち、露出制御部20は、撮像時の露出を制御する。これにより、撮像素子12の露出量が、補正露出量に一致する。   Next, the exposure control unit 20 controls the driver 21 based on the corrected exposure amount information. The driver 21 adjusts the aperture of the lens unit 11, the shutter speed of the image sensor 12, the gain of the analog processing unit 13, and the like under the control of the exposure control unit 20. That is, the exposure control unit 20 controls exposure at the time of imaging. Thereby, the exposure amount of the image sensor 12 matches the corrected exposure amount.

以上により、第1の実施形態によれば、撮像装置10は、各ブロックの特徴量、具体的には色相、彩度、及びログ変換輝度に基づいて、各ブロックの複雑度を算出する。そして、撮像装置10は、各ブロックの複雑度に基づいて、各ブロックの輝度に重み付けすることで、各ブロックの補正輝度を算出する。そして、撮像装置10は、補正輝度の平均値、即ち補正平均輝度に基づいて、撮像時の露出を制御する。これにより、撮像装置10は、輝度が一様な領域、例えば背景領域の補正輝度を小さくし、輝度の変化が激しい領域、例えば人物と背景との境界領域の補正輝度を大きくすることができる。   As described above, according to the first embodiment, the imaging apparatus 10 calculates the complexity of each block based on the feature amount of each block, specifically, the hue, saturation, and log conversion luminance. And the imaging device 10 calculates the correction brightness | luminance of each block by weighting the brightness | luminance of each block based on the complexity of each block. Then, the imaging device 10 controls the exposure at the time of imaging based on the average value of the corrected luminance, that is, the corrected average luminance. As a result, the imaging apparatus 10 can reduce the correction luminance of a region having a uniform luminance, for example, a background region, and can increase the correction luminance of a region where the luminance changes rapidly, for example, a boundary region between a person and the background.

これにより、背景領域が平均輝度に与える影響は小さくなる一方、人物領域が平均輝度に与える影響は大きくなるので、撮像装置10は、より広範なダイナミックレンジ(即ち、人物領域の補正輝度及び背景領域の補正輝度)を使って、露出を制御することができる。したがって、撮像装置10は、従来よりも適正な露出制御を行うことができる。   As a result, the influence of the background area on the average brightness is reduced, while the influence of the person area on the average brightness is increased. Therefore, the imaging apparatus 10 has a wider dynamic range (that is, the corrected brightness of the person area and the background area). Can be used to control the exposure. Therefore, the imaging apparatus 10 can perform exposure control more appropriate than before.

さらに、撮像装置10は、画素積算値、具体的にはRGB積算値に基づいて、各ブロックの特徴量を算出するので、各ブロックの複雑度をより正確に算出することができる。   Furthermore, since the imaging apparatus 10 calculates the feature amount of each block based on the pixel integrated value, specifically, the RGB integrated value, the complexity of each block can be calculated more accurately.

さらに、撮像装置10は、隣接するブロック同士の特徴量の差分に基づいて、各ブロックの複雑度を算出するので、各ブロックの複雑度をより正確に算出することができる。   Furthermore, since the imaging device 10 calculates the complexity of each block based on the difference between the feature amounts of adjacent blocks, the complexity of each block can be calculated more accurately.

さらに、撮像装置10は、ブロック毎に複数種類の特徴量、即ち色相、彩度、及びログ変換輝度を算出する。そして、撮像装置10は、各ブロックの色相複雑度、彩度複雑度、及び輝度複雑度を算出し、これらの複雑度をブロック毎に混合することで、各ブロックの混合複雑度を算出する。そして、撮像装置10は、各ブロックの混合複雑度に基づいて、各ブロックの輝度に重み付けする。これにより、撮像装置10は、補正輝度をより正確に算出することができる。   Furthermore, the imaging apparatus 10 calculates a plurality of types of feature amounts, that is, hue, saturation, and log conversion luminance for each block. Then, the imaging apparatus 10 calculates the hue complexity, saturation complexity, and luminance complexity of each block, and calculates the mixed complexity of each block by mixing these complexity for each block. And the imaging device 10 weights the brightness | luminance of each block based on the mixing complexity of each block. Thereby, the imaging device 10 can calculate the corrected luminance more accurately.

<5.第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態の趣旨は以下の通りである。即ち、撮像画像中、人物の顔が描かれた領域、即ち顔領域が大きい場合、顔領域内での複雑度が小さくなる場合がある。そこで、第2の実施形態では、顔領域内の複雑度を補完する処理を行う。
<5. Second Embodiment>
Next, a second embodiment will be described. The gist of the second embodiment is as follows. That is, when a region where a human face is drawn in the captured image, that is, the face region is large, the complexity in the face region may be small. Therefore, in the second embodiment, a process for complementing the complexity in the face area is performed.

具体的には、撮像装置10は、上述した処理に加え、以下の処理を行なう。即ち、複雑度算出部17は、色相マップ及び彩度マップに基づいて、混合複雑度マップから、色相及び彩度が肌色を示す肌色領域を抽出する。さらに、複雑度算出部17は、図12に示す有効領域判定グラフL1及び図13に示す有効領域判定マップ230に基づいて、有効領域を判定する。そして、複雑度算出部17は、有効領域内の肌色領域が顔領域であると判定し、顔領域の複雑度を補完する。具体的には、複雑度算出部17は、顔領域の複雑度を上昇させる。上昇量については、所望の値が予め設定される。これにより、複雑度算出部17は、顔領域補完複雑度マップを生成する。その後の処理は第1の実施形態と同様である。   Specifically, the imaging device 10 performs the following processing in addition to the above-described processing. That is, the complexity calculation unit 17 extracts a skin color region in which the hue and saturation indicate skin color from the mixed complexity map based on the hue map and saturation map. Furthermore, the complexity calculation unit 17 determines an effective area based on the effective area determination graph L1 illustrated in FIG. 12 and the effective area determination map 230 illustrated in FIG. The complexity calculating unit 17 determines that the skin color area in the effective area is a face area, and complements the complexity of the face area. Specifically, the complexity calculation unit 17 increases the complexity of the face area. A desired value is set in advance for the increase amount. Thereby, the complexity calculation unit 17 generates a face region complementation complexity map. Subsequent processing is the same as in the first embodiment.

ここで、有効領域判定グラフL1は、肌色領域の大きさと、有効領域として判定可能な有効判定可能番号との対応関係を示す。例えば、肌色領域の大きさがTh1以下の場合には、有効判定可能番号は2となり、肌色領域の大きさがTh2以上の場合には、有効判定可能番号は8となる。有効領域判定マップ230は、ブロック毎に1〜8の判定番号が付与されたマップである。即ち、複雑度算出部17は、肌色領域の大きさと、有効領域判定グラフL1とに基づいて、有効判定可能番号を特定する。そして、複雑度算出部17は、有効領域判定マップ230の各ブロックのうち、有効判定可能番号以上の判定番号を有するブロックを有効領域と判定する。   Here, the effective area determination graph L1 shows the correspondence between the size of the skin color area and the effective determination possible number that can be determined as the effective area. For example, when the size of the skin color area is equal to or smaller than Th1, the valid determination possible number is 2, and when the size of the skin color area is equal to or larger than Th2, the valid possible determination number is 8. The effective area determination map 230 is a map to which determination numbers 1 to 8 are assigned for each block. That is, the complexity calculation unit 17 specifies the valid determination possible number based on the size of the skin color region and the effective region determination graph L1. Then, the complexity calculation unit 17 determines a block having a determination number equal to or greater than the effective determination possible number among the blocks of the effective region determination map 230 as the effective region.

例えば、複雑度算出部17は、有効判定可能番号が2となる場合、有効領域判定マップ230内の領域232を有効領域として判定する。一方、複雑度算出部17は、有効判定可能番号が8となる場合、有効領域判定マップ230内の領域233を有効領域として判定する。このように、複雑度算出部17は、肌色領域が大きい場合には、顔以外の肌色領域を顔領域であると誤判定するのを防止するために、画像中央を有効領域として判定する。なお、複雑度算出部17は、肌色領域に対する有効判定可能番号が整数にならない場合、取得した値を四捨五入することで、有効判定可能番号を取得する。   For example, when the valid determination possible number is 2, the complexity calculation unit 17 determines the region 232 in the effective region determination map 230 as the effective region. On the other hand, when the valid determination possible number is 8, the complexity calculation unit 17 determines the region 233 in the valid region determination map 230 as a valid region. Thus, when the skin color area is large, the complexity calculation unit 17 determines the center of the image as an effective area in order to prevent the skin color area other than the face from being erroneously determined as the face area. The complexity calculating unit 17 acquires the effective determination possible number by rounding the acquired value when the effective determination possible number for the skin color region is not an integer.

例えば、図14に示す撮像画像200が生成された場合、画像中央のマネキン及び机が肌色となる。この場合、複雑度算出部13は、図15(a)に示す混合複雑度マップ210を生成する。なお、図15(a)は、各ブロックの混合複雑度を省略している。そして、複雑度算出部13は、混合複雑度マップ210から、肌色領域211を抽出する。肌色領域211の大きさはTh2以上であるとする。そして、複雑度算出部13は、有効領域判定グラフL1に基づいて、肌色領域211の大きさに対応する有効判定可能番号として、8を取得する。そして、複雑度算出部13は、有効判定可能番号及び有効領域判定マップ230に基づいて、有効領域を判定する。これにより、複雑度算出部13は、肌色領域211のうち、枠220で囲まれた肌色領域211bを除外し、肌色領域211aのみを顔領域と判定する。そして、複雑度算出部17は、混合複雑度マップ200のうち、顔領域のみを補完する。例えば、複雑度算出部17は、図16(a)に示す混合複雑度マップ200を補完することで、(b)に示す顔領域補完複雑度マップ240を生成する。   For example, when the captured image 200 shown in FIG. 14 is generated, the mannequin and the desk at the center of the image have a skin color. In this case, the complexity calculation unit 13 generates a mixed complexity map 210 shown in FIG. In FIG. 15A, the mixing complexity of each block is omitted. Then, the complexity calculation unit 13 extracts the skin color region 211 from the mixed complexity map 210. The size of the skin color area 211 is assumed to be Th2 or more. Then, the complexity calculation unit 13 acquires 8 as an effective determination possible number corresponding to the size of the skin color region 211 based on the effective region determination graph L1. The complexity calculating unit 13 determines an effective area based on the effective determination possible number and the effective area determination map 230. Thereby, the complexity calculation unit 13 excludes the skin color region 211b surrounded by the frame 220 from the skin color region 211, and determines only the skin color region 211a as a face region. Then, the complexity calculation unit 17 complements only the face area in the mixed complexity map 200. For example, the complexity calculation unit 17 generates a face region complementation complexity map 240 shown in FIG. 16B by complementing the mixed complexity map 200 shown in FIG.

<6.第2の実施形態による処理>
次に、第2の実施形態による処理の手順を図17に示すフローチャートに沿って説明する。第2の実施形態では、撮像装置10は、上述したステップS15とステップS16との間に、図17に示すステップS21及びステップS22の処理を行う。
<6. Processing According to Second Embodiment>
Next, a processing procedure according to the second embodiment will be described with reference to a flowchart shown in FIG. In the second embodiment, the imaging apparatus 10 performs the processes of step S21 and step S22 illustrated in FIG. 17 between step S15 and step S16 described above.

即ち、ステップS21において、複雑度算出部17は、複雑度算出部17は、色相マップ及び彩度マップに基づいて、混合複雑度マップから、色相及び彩度が肌色を示す肌色領域を抽出する。   That is, in step S21, the complexity calculation unit 17 extracts a skin color region whose hue and saturation indicate skin color from the mixed complexity map based on the hue map and the saturation map.

ステップS22において、複雑度算出部17は、肌色領域の大きさと、有効領域判定グラフL1とに基づいて、有効判定可能番号を特定する。そして、複雑度算出部17は、有効領域判定マップ230の各ブロックのうち、有効判定可能番号以上の判定番号を有するブロックを有効領域と判定する。次いで、複雑度算出部17は、有効領域内の肌色領域が顔領域であると判定し、顔領域の複雑度を補完する。これにより、複雑度算出部17は、顔領域補完複雑度マップを生成する。複雑度算出部17は、顔領域補完複雑度マップを補正輝度算出部18に出力する。その後、撮像装置10は、顔領域補完複雑度マップに基づいて、ステップS16以降の処理を行なう。第2の実施形態によれば、撮像装置10は、顔領域の露出をより正確に制御することができる。   In step S <b> 22, the complexity calculation unit 17 specifies an effective determination possible number based on the size of the skin color area and the effective area determination graph L <b> 1. Then, the complexity calculation unit 17 determines a block having a determination number equal to or greater than the effective determination possible number among the blocks of the effective region determination map 230 as the effective region. Next, the complexity calculation unit 17 determines that the skin color area in the effective area is a face area, and complements the complexity of the face area. Thereby, the complexity calculation unit 17 generates a face region complementation complexity map. The complexity calculation unit 17 outputs the face area complementation complexity map to the corrected luminance calculation unit 18. Thereafter, the imaging device 10 performs the processing from step S16 onward based on the face region complementation complexity map. According to the second embodiment, the imaging device 10 can more accurately control the exposure of the face area.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

10 撮像装置
11 レンズユニット
12 撮像素子
13 アナログ処理部
14 信号処理部
15 ブロック分割部
16 特徴量算出部
17 複雑度算出部
18 補正輝度算出部
19 露出量算出部
20 露出制御部
21 ドライバ

DESCRIPTION OF SYMBOLS 10 Imaging device 11 Lens unit 12 Image sensor 13 Analog processing part 14 Signal processing part 15 Block division part 16 Feature amount calculation part 17 Complexity calculation part 18 Correction brightness calculation part 19 Exposure amount calculation part 20 Exposure control part 21 Driver

Claims (7)

撮像画像を取得する撮像画像取得部と、
前記撮像画像を複数のブロックに分割するブロック分割部と、
ブロック毎に輝度を含む特徴量を算出する特徴量算出部と、
各ブロックの特徴量に基づいて、各ブロックの複雑度を算出する複雑度算出部と、
各ブロックの複雑度に基づいて、各ブロックの輝度に重み付けすることで、各ブロックの補正輝度を算出する補正輝度算出部と、
前記補正輝度に基づいて、撮像時の露出を制御する露出制御部と、を備えることを特徴とする、露出制御装置。
A captured image acquisition unit for acquiring a captured image;
A block division unit for dividing the captured image into a plurality of blocks;
A feature amount calculation unit that calculates a feature amount including luminance for each block;
A complexity calculation unit for calculating the complexity of each block based on the feature amount of each block;
Based on the complexity of each block, by weighting the luminance of each block, a corrected luminance calculating unit that calculates the corrected luminance of each block;
An exposure control apparatus comprising: an exposure control unit that controls exposure at the time of imaging based on the corrected luminance.
前記ブロック分割部は、ブロック毎に画素値を積算することで、画素積算値を算出し、
前記特徴量算出部は、各ブロックの画素積算値に基づいて、各ブロックの特徴量を算出することを特徴とする、請求項1記載の露出制御装置。
The block dividing unit calculates a pixel integrated value by integrating pixel values for each block,
The exposure control apparatus according to claim 1, wherein the feature amount calculation unit calculates a feature amount of each block based on a pixel integrated value of each block.
前記複雑度算出部は、隣接するブロック同士の特徴量の差分に基づいて、各ブロックの複雑度を算出することを特徴とする、請求項1または2記載の露出制御装置。   The exposure control apparatus according to claim 1, wherein the complexity calculation unit calculates the complexity of each block based on a difference in feature amount between adjacent blocks. 前記特徴量算出部は、ブロック毎に複数種類の特徴量を算出し、
前記複雑度算出部は、前記特徴量の種類ごとに各ブロックの複雑度を算出し、前記特徴量の種類毎の複雑度をブロック毎に混合することで、各ブロックの混合複雑度を算出し、
前記補正輝度算出部は、各ブロックの混合複雑度に基づいて、各ブロックの輝度に重み付けすることを特徴とする、請求項1〜3のいずれか1項に記載の露出制御装置。
The feature amount calculation unit calculates a plurality of types of feature amounts for each block,
The complexity calculation unit calculates the complexity of each block for each type of feature quantity, and calculates the mixed complexity of each block by mixing the complexity for each type of feature quantity for each block. ,
The exposure control apparatus according to claim 1, wherein the corrected luminance calculation unit weights the luminance of each block based on the mixing complexity of each block.
前記複雑度算出部は、前記各ブロックのうち、人物の顔が描かれた顔領域の複雑度を補完することを特徴とする、請求項1〜4のいずれか1項に記載の情報処理装置。   5. The information processing apparatus according to claim 1, wherein the complexity calculation unit supplements the complexity of a face area in which a human face is drawn among the blocks. . 前記補正輝度算出部は、前記補正輝度の平均値である平均輝度を算出し、
前記露出制御部は、前記平均輝度が所定の目標輝度に近づくように、撮像時の露出を制御することを特徴とする、請求項1〜5のいずれか1項に記載の露出制御装置。
The corrected luminance calculation unit calculates an average luminance that is an average value of the corrected luminance,
The exposure control apparatus according to claim 1, wherein the exposure control unit controls exposure at the time of imaging so that the average brightness approaches a predetermined target brightness.
撮像画像を取得する撮像画像取得ステップと、
前記撮像画像を複数のブロックに分割するブロック分割ステップと、
ブロック毎に輝度を含む特徴量を算出する特徴量算出ステップと、
各ブロックの特徴量に基づいて、各ブロックの複雑度を算出する複雑度算出ステップと、
各ブロックの複雑度に基づいて、各ブロックの輝度に重み付けすることで、各ブロックの補正輝度を算出する補正輝度算出ステップと、
前記補正輝度に基づいて、撮像時の露出を制御する露出制御ステップと、を含むことを特徴とする、露出制御方法。

A captured image acquisition step of acquiring a captured image;
A block dividing step of dividing the captured image into a plurality of blocks;
A feature amount calculating step for calculating a feature amount including luminance for each block;
A complexity calculating step for calculating the complexity of each block based on the feature amount of each block;
A corrected luminance calculating step for calculating the corrected luminance of each block by weighting the luminance of each block based on the complexity of each block;
An exposure control step of controlling exposure at the time of imaging based on the corrected luminance.

JP2011257713A 2011-11-25 2011-11-25 Exposure control device Pending JP2013113911A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011257713A JP2013113911A (en) 2011-11-25 2011-11-25 Exposure control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011257713A JP2013113911A (en) 2011-11-25 2011-11-25 Exposure control device

Publications (1)

Publication Number Publication Date
JP2013113911A true JP2013113911A (en) 2013-06-10

Family

ID=48709540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011257713A Pending JP2013113911A (en) 2011-11-25 2011-11-25 Exposure control device

Country Status (1)

Country Link
JP (1) JP2013113911A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018050344A (en) * 2017-12-14 2018-03-29 株式会社ニコン Imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018050344A (en) * 2017-12-14 2018-03-29 株式会社ニコン Imaging apparatus

Similar Documents

Publication Publication Date Title
CN110033418B (en) Image processing method, image processing device, storage medium and electronic equipment
US9852499B2 (en) Automatic selection of optimum algorithms for high dynamic range image processing based on scene classification
JP6046966B2 (en) Image processing apparatus, image processing method, program, and storage medium
US11431915B2 (en) Image acquisition method, electronic device, and non-transitory computer readable storage medium
KR100983037B1 (en) Method for controlling auto white balance
US8902328B2 (en) Method of selecting a subset from an image set for generating high dynamic range image
CN112118388B (en) Image processing method, image processing device, computer equipment and storage medium
CN108616689B (en) Portrait-based high dynamic range image acquisition method, device and equipment
EP3162048B1 (en) Exposure metering based on background pixels
CN110246101B (en) Image processing method and device
CN108322651B (en) Photographing method and device, electronic equipment and computer readable storage medium
US20180146144A1 (en) Image processing device, image processing method, program, and imaging device
US20170091909A1 (en) Image processing method and device
CN110047060B (en) Image processing method, image processing device, storage medium and electronic equipment
CN110881108B (en) Image processing method and image processing apparatus
US20180025476A1 (en) Apparatus and method for processing image, and storage medium
KR20120114899A (en) Image processing method and image processing apparatus
CN111970432A (en) Image processing method and image processing device
CN110809146A (en) Image contrast adjusting method and device, terminal equipment and storage medium
CN107682611B (en) Focusing method and device, computer readable storage medium and electronic equipment
JP2003199115A (en) Method for contrast enhancement in color digital image
CN109300186B (en) Image processing method and device, storage medium and electronic equipment
CN110086997B (en) Face image exposure brightness compensation method and device
JP2013113911A (en) Exposure control device
WO2022032666A1 (en) Image processing method and related apparatus