JP6366432B2 - Image processing apparatus, control method therefor, and program - Google Patents

Image processing apparatus, control method therefor, and program Download PDF

Info

Publication number
JP6366432B2
JP6366432B2 JP2014178502A JP2014178502A JP6366432B2 JP 6366432 B2 JP6366432 B2 JP 6366432B2 JP 2014178502 A JP2014178502 A JP 2014178502A JP 2014178502 A JP2014178502 A JP 2014178502A JP 6366432 B2 JP6366432 B2 JP 6366432B2
Authority
JP
Japan
Prior art keywords
subject
image
gradation
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014178502A
Other languages
Japanese (ja)
Other versions
JP2016054355A (en
Inventor
賢治 小貫
賢治 小貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014178502A priority Critical patent/JP6366432B2/en
Publication of JP2016054355A publication Critical patent/JP2016054355A/en
Application granted granted Critical
Publication of JP6366432B2 publication Critical patent/JP6366432B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置およびその制御方法ならびにプログラムに関し、特に階調処理技術に関する。   The present invention relates to an image processing apparatus, a control method thereof, and a program, and more particularly to a gradation processing technique.

従来、HDR(High Dynamic Range)合成や覆い焼き等、入力のダイナミックレンジを拡大した信号を出力する段階で階調圧縮する処理が知られている。特許文献1には、画像を複数の被写体領域に分割し、各被写体領域から算出した代表画素値とエッジ成分により、被写体領域ごとのヒストグラムを算出し、算出したヒストグラムに基づいて、その被写体領域に対応する階調変換カーブを生成する技術が開示されている。   2. Description of the Related Art Conventionally, gradation compression processing is known at the stage of outputting a signal whose input dynamic range is expanded, such as HDR (High Dynamic Range) composition and dodging. In Patent Document 1, an image is divided into a plurality of subject areas, a histogram for each subject area is calculated based on the representative pixel value and edge component calculated from each subject area, and the subject area is calculated based on the calculated histogram. A technique for generating a corresponding gradation conversion curve is disclosed.

特開2010−130150号公報JP 2010-130150 A

しかしながら、特許文献1に開示されている技術では、被写体領域間の明るさのバランスを考慮せずに階調変換カーブを生成するため、ダイナミックレンジを拡大するほどコントラストが低下するなど、得られる画像が不自然になる可能性がある。   However, in the technique disclosed in Patent Document 1, since a gradation conversion curve is generated without considering the brightness balance between subject areas, an image obtained such that the contrast decreases as the dynamic range is expanded. May become unnatural.

さらに、特許文献1に開示されている技術では、夕景シーンや日中シーンといった撮影シーンの違いを考慮せずに階調変換カーブを生成するため、撮影シーンが持つ雰囲気が失われてしまうという課題がある。例えば、薄暗い夕景シーンを撮影した画像の背景領域の明るさを、日中シーンと同等の適正値まで明るくするような階調変換カーブを生成すると、夕景シーンに特徴的な背景領域の持つ薄暗さや、空領域と背景領域の明暗差が失われることがある。   Furthermore, in the technique disclosed in Patent Document 1, since the tone conversion curve is generated without considering the difference between the shooting scenes such as the sunset scene and the daytime scene, the atmosphere of the shooting scene is lost. There is. For example, by generating a gradation conversion curve that brightens the brightness of the background area of an image taken of a dim sunset scene to an appropriate value equivalent to that of a daytime scene, the dimness of the background area characteristic of the sunset scene The contrast between the sky area and the background area may be lost.

本発明は、上述の従来技術の問題点に鑑みてなされたものであり、撮影シーンに特徴的な被写体領域間のバランスを考慮した階調処理を行うことが可能な画像処理装置およびその制御方法ならびにプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and an image processing apparatus capable of performing gradation processing in consideration of a balance between subject areas characteristic of a shooting scene and a control method thereof As well as providing a program.

この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、画像から複数の被写体領域を判別する判別手段と、画像から得られる特徴量に基づいて、画像が所定の撮影シーンである可能性を示す度合いを算出する度合算出手段と、複数の被写体領域の輝度差に基づいて複数の被写体領域のそれぞれに対する階調補正量を算出する算出手段と、階調補正量を、度合いに基づいて補正する補正手段と、補正手段が補正した階調補正量を、複数の被写体領域に適用する階調処理手段とを有することを特徴とする。   In order to solve this problem, for example, an image processing apparatus of the present invention has the following configuration. That is, a discriminating unit that discriminates a plurality of subject areas from the image, a degree calculating unit that calculates a degree indicating the possibility that the image is a predetermined shooting scene, based on a feature amount obtained from the image, and a plurality of subject regions Calculation means for calculating a gradation correction amount for each of a plurality of subject areas based on the luminance difference, a correction means for correcting the gradation correction amount based on the degree, and a gradation correction amount corrected by the correction means And a gradation processing means for applying to a plurality of subject areas.

本発明によれば、撮影シーンに特徴的な被写体領域間のバランスを考慮した階調処理を行うことが可能になる。   According to the present invention, it is possible to perform gradation processing in consideration of the balance between subject areas characteristic of a shooting scene.

本発明の実施形態に係る画像処理装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an image processing apparatus according to an embodiment of the present invention. 本実施形態に係る画像処理部104の機能構成例を示すブロック図FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing unit 104 according to the present embodiment. 本実施形態に係る露光量算出部105の機能構成例を示すブロック図FIG. 3 is a block diagram illustrating an example of a functional configuration of an exposure amount calculation unit 105 according to the present embodiment. 本実施形態に係る階調特性算出部204の機能構成例を示すブロック図FIG. 2 is a block diagram illustrating an example of a functional configuration of a gradation characteristic calculation unit 204 according to the present embodiment. 本実施形態に係るゲイン処理部206の機能構成例を示すブロック図FIG. 2 is a block diagram illustrating an example of a functional configuration of a gain processing unit 206 according to the present embodiment. 本実施形態に係る露出量算出処理に係る一連の動作を示すフローチャートThe flowchart which shows a series of operation | movement which concerns on the exposure amount calculation process which concerns on this embodiment. 本実施形態に係る階調処理に係る一連の動作を示すフローチャートA flowchart showing a series of operations related to gradation processing according to the present embodiment. 本実施形態に係る階調特性の算出処理に係る一連の動作を示すフローチャートFlowchart showing a series of operations related to the gradation characteristic calculation processing according to the present embodiment. 本実施形態に係るゲイン量補正処理に係る一連の動作を示すフローチャートThe flowchart which shows a series of operation | movement which concerns on the gain amount correction process which concerns on this embodiment. 夕景度を算出するためのパラメータと夕景度の関係の一例を示す図The figure which shows an example of the relationship between the parameter for calculating the evening scene degree, and the evening scene degree 夕景度に応じて画像全体にかかるゲイン量(A)と、夕景度に応じて背景領域にかかるゲイン量と空領域にかかるゲイン量の差分(B)を例示する図The figure which illustrates the gain amount (A) concerning the whole image according to the evening scene degree, and the difference (B) between the gain amount concerning the background area and the gain quantity concerning the sky area according to the evening scene degree 被写体領域の判別例(A)、各被写体領域間の輝度段差(B)および出力露光量(C)を説明する図FIG. 6 is a diagram for explaining an example of determining a subject area (A), a luminance step (B) between the subject areas, and an output exposure amount (C). 各被写体領域に対する目標ゲイン量(A)、各被写体領域に適用するゲイン量(B)を説明する図The figure explaining the target gain amount (A) for each subject area and the gain amount (B) applied to each subject area 輝度信号に対する階調特性(A)およびゲインテーブル(B)を例示する図The figure which illustrates the gradation characteristic (A) with respect to a luminance signal, and a gain table (B) 本実施形態に係る階調特性作成部405により算出される入出力特性の例(A)および入出力特性に対する被写体領域ごとの入力信号の範囲(B)を示す図The figure which shows the example (A) of the input / output characteristic computed by the gradation characteristic preparation part 405 which concerns on this embodiment, and the range (B) of the input signal for every object area with respect to an input / output characteristic 入出力特性に対する被写体領域ごとの入力信号の範囲を算出する方法を説明する図The figure explaining the method of calculating the range of the input signal for every object field to input / output characteristics 本実施形態により得られる階調特性の一例を示す図The figure which shows an example of the gradation characteristic obtained by this embodiment 本実施形態に係る被写体領域ごとの階調処理の概略を示す図The figure which shows the outline of the gradation process for every to-be-photographed object area | region which concerns on this embodiment. 曇天度を算出するためのパラメータと曇天度の関係の一例を示す図The figure which shows an example of the relationship between the parameter for calculating cloudiness, and cloudiness

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では画像処理装置の一例として、階調処理が可能な任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、デジタルカメラに限らず、階調処理を行うことが可能な任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example in which the present invention is applied to an arbitrary digital camera capable of gradation processing will be described as an example of an image processing apparatus. However, the present invention is not limited to a digital camera and can be applied to any device capable of performing gradation processing. These devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a clock-type or glasses-type information terminal.

本実施形態では、画像上の被写体領域を判別して、被写体領域ごとに階調処理(領域別トーンマッピングともいう)を行う。図17に示すように、領域別トーンマッピングでは、まず被写体領域ごとに代表輝度値に基づいて最適なゲイン量を算出し、算出した被写体領域ごとのゲイン量を適用した複数の画像を生成する。そして、各画像からそれぞれの被写体領域を抽出して出力画像を得る。なお、本実施形態では、領域別トーンマッピングについて、最も効果の得やすい撮影シーンの1つである、背景が最も暗く、空が最も明るい夕景シーンを例に説明する。   In this embodiment, a subject area on the image is determined, and gradation processing (also referred to as area-specific tone mapping) is performed for each subject area. As shown in FIG. 17, in the tone mapping for each region, first, an optimum gain amount is calculated for each subject region based on the representative luminance value, and a plurality of images to which the calculated gain amount for each subject region is applied are generated. Then, each subject region is extracted from each image to obtain an output image. In the present embodiment, the tone mapping for each area will be described by taking as an example a sunset scene that is one of the most effective shooting scenes, with the darkest background and the brightest sky.

(1 デジタルカメラの構成)
図1は、本実施形態の画像処理装置の一例としてデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(1 Digital camera configuration)
FIG. 1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an image processing apparatus according to the present embodiment. One or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or MPU executing software. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群、絞り調整装置およびシャッター装置を備えている。光学系101は、撮像部102に到達する被写体像の倍率、ピント位置あるいは撮像部102に入射する光量を調整する。撮像部102は、光学系101を通過した被写体の光束を光電変換し電気信号に変換するCCDやCMOSセンサー等の光電変換素子である。   The optical system 101 includes a lens group including a zoom lens and a focus lens, an aperture adjustment device, and a shutter device. The optical system 101 adjusts the magnification of the subject image that reaches the imaging unit 102, the focus position, or the amount of light incident on the imaging unit 102. The imaging unit 102 is a photoelectric conversion element such as a CCD or a CMOS sensor that photoelectrically converts a light beam of a subject that has passed through the optical system 101 into an electric signal.

A/D変換部103は、入力されたアナログ信号をA/D変換回路によってアナログ・デジタル変換して、画素単位のデジタル信号を出力する。   The A / D conversion unit 103 performs analog / digital conversion on the input analog signal by an A / D conversion circuit, and outputs a digital signal in units of pixels.

画像処理部104は、画素補間処理等の現像処理や記録部110に画像を記録するための所定の圧縮処理を行う。また、別途後述する本実施形態に係る階調処理を行う。画像処理部104は、階調処理を適用した複数の画像を生成して、各画像から各被写体領域を抽出した出力画像を生成する。画像処理部104はA/D変換部103から出力された画像に限らず、記録部110から読み出した画像に対しても同様の画像処理や伸張処理を行うことができる。   The image processing unit 104 performs development processing such as pixel interpolation processing and predetermined compression processing for recording an image on the recording unit 110. Further, gradation processing according to this embodiment, which will be described later, is performed. The image processing unit 104 generates a plurality of images to which gradation processing is applied, and generates an output image in which each subject area is extracted from each image. The image processing unit 104 is not limited to the image output from the A / D conversion unit 103, and can perform similar image processing and expansion processing on the image read from the recording unit 110.

露光量算出部105は、本実施形態に係る階調処理を行うために最適な入力画像を得るため、撮影時の露光量を算出する。画像処理部104の処理結果を入力として、後述する露光量の算出処理を行って露光量制御部106に対して出力する。   The exposure amount calculation unit 105 calculates an exposure amount at the time of shooting in order to obtain an optimal input image for performing gradation processing according to the present embodiment. Using the processing result of the image processing unit 104 as an input, an exposure amount calculation process described later is performed and output to the exposure amount control unit 106.

露光量制御部106は、露光量算出部105により入力された露光量に基づいて光学系101および撮像部102の絞り、シャッタースピード、センサーのアナログゲインを制御する。   The exposure amount control unit 106 controls the aperture, shutter speed, and sensor analog gain of the optical system 101 and the imaging unit 102 based on the exposure amount input by the exposure amount calculation unit 105.

制御部107は、例えばCPUあるいはMPUであり、不図示のROMに格納されたプログラムを不図示のRAMの作業エリアに展開し、実行することにより、デジタルカメラ100の全体を制御する。   The control unit 107 is, for example, a CPU or MPU, and controls the entire digital camera 100 by developing and executing a program stored in a ROM (not shown) in a work area of a RAM (not shown).

記録部110は、撮影された画像を記録する機能を有し、例えば、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた記録媒体を含む。   The recording unit 110 has a function of recording a photographed image, and includes, for example, a recording medium using a package containing a rotary recording body such as a memory card on which a semiconductor memory is mounted or a magneto-optical disk.

(2−1.露光量算出処理に係る一連の動作)
適切な階調処理を行うためには、最適な露光量で撮影された画像を得る必要があるため、露光量算出部105は、撮影のための適切な露光量を算出する。露光量算出部105は、例えば図3に示す機能ブロックから構成される。露光量算出部105には、画像処理部104内の輝度値算出部203から出力される、被写体領域ごとの代表輝度値が入力される。露光量算出部105を構成する各部の処理については、露光量算出処理と合わせて後述する。
(2-1. Series of operations related to exposure amount calculation processing)
In order to perform appropriate gradation processing, it is necessary to obtain an image shot with an optimal exposure amount, and thus the exposure amount calculation unit 105 calculates an appropriate exposure amount for shooting. The exposure amount calculation unit 105 includes, for example, functional blocks shown in FIG. The exposure amount calculation unit 105 receives a representative luminance value for each subject area output from the luminance value calculation unit 203 in the image processing unit 104. The processing of each part constituting the exposure amount calculation unit 105 will be described later together with the exposure amount calculation process.

画像を取得してから露光量算出部105により露光量を算出するまで一連の動作を、図6を参照して説明する。なお、本処理は例えばデジタルカメラ100の不図示のシャッターボタンが半押しされるとともに、撮影された画像が入力された場合に開始される。以下に説明する各ステップのうち、S601〜S603の処理を画像処理部104が実行し、S604〜S606までの処理を露光量算出部105が実行するものとし、制御部107が各部を制御して露光量算出処理の全体を制御する。   A series of operations from when an image is acquired until the exposure amount is calculated by the exposure amount calculation unit 105 will be described with reference to FIG. This process is started when, for example, a shutter button (not shown) of the digital camera 100 is pressed halfway and a photographed image is input. Of the steps described below, the image processing unit 104 executes the processing of S601 to S603, the exposure amount calculation unit 105 executes the processing of S604 to S606, and the control unit 107 controls each unit. The entire exposure calculation process is controlled.

S601において画像処理部104は、制御部107の指示に基づいて、露光量を算出するために撮影された画像をA/D変換部103から取得する。   In step S <b> 601, the image processing unit 104 acquires an image captured for calculating the exposure amount from the A / D conversion unit 103 based on an instruction from the control unit 107.

S602において画像処理部104は、取得画像から被写体領域の判別を行う。本実施形態では、被写体領域の判別対象として、人物の顔領域、人物の体領域、雲・太陽等を含む空領域、これら以外の領域を背景領域として計4つの領域を判別する。図11(A)は、入力画像に対して、被写体領域の判別処理を行った結果の例を示している。被写体領域の判別は、特開2006−39666号公報に記載されるようなニューラルネットワークによる学習データを用いた物体認識等、公知の方法を用いて行うことができるため、判別処理の詳細な説明は省略する。被写体領域の判別精度については、1画素単位あるいは一定のサイズのブロック単位のいずれでも構わないが、本実施形態では1画素単位として説明する。   In step S602, the image processing unit 104 determines the subject area from the acquired image. In the present embodiment, a total of four areas are discriminated by using a person's face area, a person's body area, a sky area including clouds and the sun, and other areas as background areas. FIG. 11A shows an example of a result of subject area discrimination processing performed on an input image. Discrimination of the subject area can be performed using a known method such as object recognition using learning data by a neural network as described in Japanese Patent Application Laid-Open No. 2006-39666. Omitted. The subject area discrimination accuracy may be either one pixel unit or a block unit of a certain size, but in the present embodiment, it will be described as one pixel unit.

S603において画像処理部104は、S602における被写体領域の判別結果を用いて、被写体領域ごとの代表輝度値を算出する。代表輝度値は、対応する被写体領域内の輝度信号の平均値、および座標に応じた重み付けによる加重平均値のいずれかを指す。本実施形態のように、人物が検出されない撮影シーンでは、空領域および背景領域の2領域について代表輝度値を算出する。例えば、画像処理部104は、空領域の代表輝度値(SKY_Y)を対応する被写体領域内の輝度信号の平均値から算出し、背景領域の代表輝度値(BACK_Y)を、画像中央の重みが大きくなるような重み付けによる加重平均値から算出する。画像処理部104は、算出した各被写体領域の代表輝度値を露光量算出部105に出力する。   In step S603, the image processing unit 104 calculates a representative luminance value for each subject region using the subject region determination result in step S602. The representative luminance value indicates either an average value of luminance signals in the corresponding subject area or a weighted average value by weighting according to coordinates. As in the present embodiment, in a photographic scene where no person is detected, representative luminance values are calculated for two areas, the sky area and the background area. For example, the image processing unit 104 calculates the representative luminance value (SKY_Y) of the sky region from the average value of the luminance signals in the corresponding subject region, and sets the representative luminance value (BACK_Y) of the background region with a large weight at the center of the image. It calculates from the weighted average value by weighting. The image processing unit 104 outputs the calculated representative luminance value of each subject area to the exposure amount calculation unit 105.

S604において露光量算出部105の輝度段差算出部302は、入力した各被写体領域の代表輝度値から被写体領域間の輝度段差を算出する。輝度段差の算出は、図11(B)に示すように、入力画像の露光量を基準にして得られる各被写体領域の目標露光量の間の差分絶対値を求めることにより得られる。目標露光量とは、対象とする被写体領域の代表輝度値を目標輝度値にするために、入力画像の露光量から何段オーバーまたはアンダーの露光量にすれば良いか(すなわち、露出補正量)を示すものである。入力画像の露光量よりも多くすることをオーバー、入力画像の露光量よりも少なくすることをアンダーという。目標輝度値は各被写体領域について予め定められた値であるものとする。   In step S604, the luminance level calculation unit 302 of the exposure amount calculation unit 105 calculates the luminance level difference between the subject areas from the input representative luminance value of each subject area. As shown in FIG. 11B, the calculation of the luminance step is obtained by obtaining an absolute value of a difference between the target exposure amounts of the subject areas obtained on the basis of the exposure amount of the input image. The target exposure amount is the number of steps over or under from the exposure amount of the input image in order to set the representative luminance value of the target subject area to the target luminance value (ie, exposure correction amount). Is shown. Increasing the exposure amount of the input image is called over, and reducing the exposure amount of the input image is called under. It is assumed that the target luminance value is a predetermined value for each subject area.

代表輝度値BACK_YおよびSKY_Yに対して、各被写体領域の目標輝度値をBACK_ref_Y、SKY_ref_Yとすると、各被写体領域の目標露光量ΔBV_BACK _ref、ΔBV_SKY_refは(式1)によって算出される。   Assuming that the target luminance values of the subject areas are BACK_ref_Y and SKY_ref_Y with respect to the representative luminance values BACK_Y and SKY_Y, the target exposure amounts ΔBV_BACK_ref and ΔBV_SKY_ref of the subject areas are calculated by (Equation 1).

Figure 0006366432
Figure 0006366432

輝度段差算出部302は、(式1)により算出された各被写体領域の目標露光量から各被写体領域間の輝度段差を算出する。背景領域と空領域の輝度段差ΔBSは、(式2)によって算出される。ここで、ABSは絶対値を算出する関数を表す。   The luminance step calculation unit 302 calculates a luminance step between the subject areas from the target exposure amount calculated for each subject area calculated by (Equation 1). The luminance step ΔBS between the background area and the sky area is calculated by (Equation 2). Here, ABS represents a function for calculating an absolute value.

Figure 0006366432
Figure 0006366432

S605において露光量算出部105の出力輝度値算出部301は、S603で算出された各被写体領域の目標輝度値に基づいて、主被写体の出力輝度値を算出する。主被写体の出力輝度値とは、前述の目標輝度値とは異なり、後の撮影画像で最終的に出力したい主被写体領域の輝度値を指す。本実施形態では、背景を主被写体とし、背景領域の目標輝度値をそのまま主被写体の出力輝度値(BACK_OUT_Y)とする。   In S605, the output luminance value calculation unit 301 of the exposure amount calculation unit 105 calculates the output luminance value of the main subject based on the target luminance value of each subject area calculated in S603. The output luminance value of the main subject is different from the above-described target luminance value, and refers to the luminance value of the main subject region that is finally desired to be output in a later captured image. In this embodiment, the background is the main subject, and the target luminance value of the background area is directly used as the output luminance value (BACK_OUT_Y) of the main subject.

S606において露光量算出部105の露光量決定部303は、S604で算出した被写体領域間の輝度段差ΔBSと、S605で算出した主被写体の出力輝度値BACK_OUT_Yを入力して、階調処理に適した撮影を行うための露光量を決定する。図11(C)は、入力画像の露光量に対する各被写体領域の出力露光量を示している。出力露光量は、最終的に出力したい各被写体領域の明るさを実現するために、入力画像の露光量に対し、何段オーバーまたはアンダーの露光量にすれば良いか(すなわち、露出補正量)を示す。背景領域、空領域の出力露光量をそれぞれ、ΔBV_BACK、ΔBV_SKYとすると、各被写体領域の出力露光量は、(式3)により算出される。露光量決定部303は、S605で算出した出力輝度値に基づいて決定した主被写体の出力露光量ΔBV_BACKを基準に、S604で算出した領域間の輝度段差ΔBSの1/2を維持するように主被写体以外の被写体領域(即ち空領域)の出力露光量を決定する。   In S606, the exposure amount determination unit 303 of the exposure amount calculation unit 105 inputs the luminance step ΔBS between the subject areas calculated in S604 and the output luminance value BACK_OUT_Y of the main subject calculated in S605, and is suitable for gradation processing. The amount of exposure for shooting is determined. FIG. 11C shows the output exposure amount of each subject area with respect to the exposure amount of the input image. In order to realize the brightness of each subject area to be finally output, the output exposure amount should be an exposure amount that is over or under the exposure amount of the input image (ie, exposure correction amount). Indicates. When the output exposure amounts of the background area and the sky area are ΔBV_BACK and ΔBV_SKY, respectively, the output exposure amount of each subject area is calculated by (Equation 3). The exposure amount determining unit 303 is configured to maintain a main luminance difference ΔBS between the regions calculated in S604 based on the output exposure amount ΔBV_BACK of the main subject determined based on the output luminance value calculated in S605. An output exposure amount of a subject area other than the subject (that is, an empty area) is determined.

Figure 0006366432
Figure 0006366432

露光量決定部303は、各被写体領域の出力露光量のうち、最も小さい出力露光量を、階調処理に適した撮影を行うための露光補正量として決定する。即ち、各被写体領域のうち、最も小さい出力露光量である空領域のΔBV_SKYを入力画像の露光量に反映した露光量BV_Captureを、撮影時の露光量として決定する。制御部107は、露光量算出部105が撮影時の露光量を出力すると、本処理に係る一連の処理を終了する。   The exposure amount determination unit 303 determines the smallest output exposure amount among the output exposure amounts of each subject area as an exposure correction amount for performing photographing suitable for gradation processing. That is, the exposure amount BV_Capture that reflects ΔBV_SKY of the sky region, which is the smallest output exposure amount among the subject regions, in the exposure amount of the input image is determined as the exposure amount at the time of shooting. When the exposure amount calculation unit 105 outputs the exposure amount at the time of shooting, the control unit 107 ends a series of processes related to this process.

上述したような階調処理に適した露光量を算出しない場合、適切な露光量で階調処理を行うことができなくなる。例えば、露光量が必要以上に大きくなると飽和領域等の発生により広ダイナミックレンジの画像を実現できず、反対に、露光量が必要以上に小さくなると、後述する階調処理においてデジタルゲインが必要以上にかかり、増幅したノイズによる画質劣化が発生する。このため、上述した露光量の算出を行うことにより階調処理に最適な画像を入力することが可能になる。   If the exposure amount suitable for the gradation processing as described above is not calculated, the gradation processing cannot be performed with an appropriate exposure amount. For example, if the exposure amount becomes larger than necessary, an image with a wide dynamic range cannot be realized due to the occurrence of a saturated region or the like. Therefore, the image quality is deteriorated due to the amplified noise. For this reason, it is possible to input an image optimal for gradation processing by calculating the exposure amount described above.

(3.画像処理部104の構成)
図2には、画像処理部104の機能構成例を示すブロック図を示している。以下の各機能ブロックは、全体として入力画像に対する階調処理を行う。被写体領域判別部201は、入力画像に対して被写体領域を判別する。輝度値算出部203は、判別された被写体領域ごとの代表輝度値を算出するとともに、ヒストグラム算出部202は、被写体領域ごとのヒストグラムを算出する。階調特性算出部204は、輝度値算出部203およびヒストグラム算出部202による算出結果を用いて、入力画像に対する階調特性を算出する。階調特性の算出は、例えば夕景等の撮影シーンの度合いを算出したうえで、被写体領域ごとに適用するゲイン量を算出することにより行う。ゲインテーブル算出部205は、階調特性に応じた階調変換用のゲインテーブルを算出し、ゲイン処理部206は、入力画像に対してゲインをかける処理を行う。その後、階調圧縮部207は、ゲイン処理後の信号を表示系に合わせるために階調圧縮処理を行う。
(3. Configuration of the image processing unit 104)
FIG. 2 is a block diagram illustrating a functional configuration example of the image processing unit 104. Each of the following functional blocks performs gradation processing on the input image as a whole. The subject area determination unit 201 determines a subject area for the input image. The luminance value calculation unit 203 calculates a representative luminance value for each discriminated subject area, and the histogram calculation unit 202 calculates a histogram for each subject region. The gradation characteristic calculation unit 204 calculates gradation characteristics for the input image using the calculation results obtained by the luminance value calculation unit 203 and the histogram calculation unit 202. The gradation characteristics are calculated by, for example, calculating a gain amount to be applied to each subject area after calculating the degree of a shooting scene such as a sunset scene. The gain table calculation unit 205 calculates a gain table for tone conversion corresponding to the tone characteristics, and the gain processing unit 206 performs a process of applying gain to the input image. Thereafter, the tone compression unit 207 performs tone compression processing in order to match the signal after gain processing to the display system.

(4−1.階調処理に係る一連の動作)
次に、階調処理に係る一連の動作について図7等を適宜参照して説明する。本発明に係る階調処理は、被写体領域間の輝度段差を縮めることが可能な階調特性を画像全体に適用することに特徴がある。また、主被写体領域を基準として、主被写体領域以外にシーンに応じてバランス良く階調を割り当てることにより、人間の見た目通りのコントラストと明るさに近づけた画像を出力することができる。
(4-1. A series of operations related to gradation processing)
Next, a series of operations related to gradation processing will be described with reference to FIG. The gradation processing according to the present invention is characterized in that gradation characteristics capable of reducing a luminance step between subject areas are applied to the entire image. Also, by assigning gradations in a well-balanced manner according to the scene other than the main subject area with the main subject area as a reference, an image close to the contrast and brightness as seen by humans can be output.

上述した露光量算出処理により決定された露光量BV_Captureに基づいて光学系101が調整された後、例えばシャッターボタンの全押しによる撮影指示により撮影が行われると、画像処理部104は、撮影された画像に対して階調処理を行う。   After the optical system 101 is adjusted based on the exposure amount BV_Capture determined by the exposure amount calculation process described above, for example, when shooting is performed according to a shooting instruction by fully pressing the shutter button, the image processing unit 104 has been shot. Tone processing is performed on the image.

S701において画像処理部104は、階調処理用に撮影された画像を入力画像として取得する。   In step S701, the image processing unit 104 acquires an image captured for gradation processing as an input image.

S702において被写体領域判別部201は、S701で取得された入力画像に対して、被写体領域の判別処理を行う。被写体領域の判別処理については、S602と同様の処理を行えばよいため、説明は省略する。   In step S <b> 702, the subject region determination unit 201 performs subject region determination processing on the input image acquired in step S <b> 701. The subject area determination process may be performed in the same manner as in S602, and thus the description thereof is omitted.

S703において輝度値算出部203は、S702で判別された被写体領域ごとに代表輝度値を算出する。各被写体領域の代表輝度値の算出処理については、S603と同様の処理を行えばよいため説明は省略する。   In step S703, the luminance value calculation unit 203 calculates a representative luminance value for each subject area determined in step S702. The processing for calculating the representative luminance value of each subject area may be performed in the same manner as in S603, and the description thereof will be omitted.

S704においてヒストグラム算出部202は、被写体領域ごとに輝度信号のヒストグラムを算出する。   In step S <b> 704, the histogram calculation unit 202 calculates a luminance signal histogram for each subject area.

S705において階調特性算出部204は、S703で算出した各代表輝度値と、S704で算出した被写体領域ごとのヒストグラムを入力して、入力画像の輝度信号に対する階調特性を算出する。階調特性は、例えば図13(A)に示すように、横軸を入力信号、縦軸を出力信号として、入力信号に応じた出力信号を示す入出力特性である。例えば、階調特性を補正しない場合は、点線で示す様に、入力信号と出力信号の値が等しい入出力特性になる。本ステップにおける階調特性の算出処理の詳細は、図8A等を参照して別途詳述する。   In step S <b> 705, the gradation characteristic calculation unit 204 receives the representative luminance values calculated in step S <b> 703 and the histogram for each subject area calculated in step S <b> 704, and calculates gradation characteristics for the luminance signal of the input image. For example, as shown in FIG. 13A, the gradation characteristic is an input / output characteristic indicating an output signal corresponding to the input signal, with the horizontal axis representing the input signal and the vertical axis representing the output signal. For example, when the gradation characteristic is not corrected, as shown by the dotted line, the input signal and the output signal have the same input / output characteristic. Details of the gradation characteristic calculation processing in this step will be described in detail with reference to FIG. 8A and the like.

S706においてゲインテーブル算出部205は、S705で算出した輝度信号に対する階調特性に基づいて、ゲインテーブルを算出する。ゲインテーブルは、図13(B)に示す様に横軸を入力信号、縦軸をゲインとする、入力信号に応じたゲインを示すテーブルである。入力信号をx、階調特性によって変換された出力信号をyとすると、ゲインGainは(式4)で表される。   In step S706, the gain table calculation unit 205 calculates a gain table based on the gradation characteristics for the luminance signal calculated in step S705. As shown in FIG. 13B, the gain table is a table indicating the gain according to the input signal, with the horizontal axis representing the input signal and the vertical axis representing the gain. When the input signal is x and the output signal converted by the gradation characteristic is y, the gain Gain is expressed by (Equation 4).

Figure 0006366432
Figure 0006366432

S707においてゲイン処理部206は、S706で算出したゲインテーブルを用いて入力画像にゲインを適用する。図5は、本ステップにおけるゲイン処理に対応するゲイン処理部206内の機能構成例を示している。   In step S707, the gain processing unit 206 applies a gain to the input image using the gain table calculated in step S706. FIG. 5 shows a functional configuration example in the gain processing unit 206 corresponding to the gain processing in this step.

画像の最も左上の画素を(0,0)として、画素位置を(x,y)で示したとき、入力信号Yin(x,y)に対して適用するゲインGain(x,y)は、ゲインテーブルをGainTbl関数で表すと(式5)のようになる。   The gain Gain (x, y) applied to the input signal Yin (x, y) when the pixel position is indicated by (x, y) with the pixel at the top left of the image as (0,0) is the gain When the table is expressed by the GainTbl function, (Formula 5) is obtained.

Figure 0006366432
Figure 0006366432

Gain(x,y)は入力画像の(x,y)に位置する画素に対応するゲインである。ゲインを算出するための入力信号であるYin(x,y)は、ゲイン算出用画像生成部501により、入力画像に基づいて生成されたゲイン算出用画像の信号である。ゲイン算出用画像生成部501は、入力画像の細かいテクスチャに対するゲインの敏感度を下げ、コントラストをより良好に維持するため、入力画像を輝度画像に変換し、平均値処理などのボカし処理を行ってゲイン算出用画像を生成する。   Gain (x, y) is a gain corresponding to the pixel located at (x, y) of the input image. Yin (x, y), which is an input signal for calculating the gain, is a gain calculation image signal generated based on the input image by the gain calculation image generation unit 501. The gain calculation image generation unit 501 converts the input image into a luminance image and performs blurring processing such as average value processing in order to reduce the sensitivity of the gain to the fine texture of the input image and maintain better contrast. To generate an image for gain calculation.

ゲイン変換部502は、ゲイン算出用画像の(x,y)に位置する画素値であるYin(x,y)を、入力画像の(x,y)に位置する画素に適用するゲイン信号に変換する処理、即ち、(式5)で示す処理を行う。ゲイン乗算部503は、ゲイン変換部502で算出したゲインに基づいて、入力画像に対してゲインを乗算する処理を行う。本実施形態では、撮影された入力画像から、既にデモザイキング処理を終えたR,G,B画像に対し、ゲインを乗算する処理を行う。例えば、ゲイン乗算前の(x,y)に位置する画素のR,G,Bの信号をそれぞれRin(x,y)、Gin(x,y)、Bin(x,y)とする。このとき、ゲイン乗算後のR,G,Bの信号Rout (x,y)、Gout (x,y)、Bout(x,y)は、GainTbl関数を用いて(式6)により算出される。   The gain converter 502 converts Yin (x, y), which is a pixel value located at (x, y) of the gain calculation image, into a gain signal to be applied to the pixel located at (x, y) of the input image. That is, the process shown in (Formula 5) is performed. The gain multiplication unit 503 performs processing for multiplying the input image by a gain based on the gain calculated by the gain conversion unit 502. In the present embodiment, a process of multiplying an R, G, B image that has already undergone demosaicing processing from the captured input image by a gain is performed. For example, R, G, and B signals of a pixel located at (x, y) before gain multiplication are Rin (x, y), Gin (x, y), and Bin (x, y), respectively. At this time, R, G, and B signals Rout (x, y), Gout (x, y), and Bout (x, y) after gain multiplication are calculated according to (Equation 6) using the GainTbl function.

Figure 0006366432
Figure 0006366432

ここで、画素位置(x,y)において、R,G,Bのそれぞれの信号にかけるゲインは同じである。なお、本実施形態ではRGB信号に対してゲイン処理を行ったが、YUV信号に対して上記のゲイン処理を行ってもよい。   Here, at the pixel position (x, y), the gains applied to the R, G, and B signals are the same. In the present embodiment, the gain processing is performed on the RGB signals, but the above gain processing may be performed on the YUV signals.

S708において階調圧縮部207は、S707でゲイン処理を行ったR,G,Bのmビットの信号を表示系に合わせるためにγ特性を有する階調圧縮処理を行い、nビット(nはm以下)の信号を出力する。画像処理部104は、階調圧縮処理を行った信号を出力すると、階調処理に係る一連の動作を終了する。   In step S708, the gradation compression unit 207 performs gradation compression processing having γ characteristics to match the R, G, and B m-bit signals that have been subjected to gain processing in step S707 to the display system, and n bits (n is m The following signal is output. When the image processing unit 104 outputs the signal subjected to the gradation compression process, the image processing unit 104 ends a series of operations related to the gradation process.

(4−2.階調特性の算出処理に係る一連の動作)
本発明の主たる特徴である、階調特性の算出処理の一連の動作について、図8Aに示す800を参照して説明する。また、図4には、階調特性の算出処理の一連の動作を実行する、階調特性算出部204の機能構成例を示している。なお、階調特性の算出処理は、上述したS705の処理が呼び出されたときに開始される。
(4-2. A series of operations related to calculation processing of gradation characteristics)
A series of operations for calculating gradation characteristics, which is the main feature of the present invention, will be described with reference to 800 shown in FIG. 8A. FIG. 4 shows a functional configuration example of the gradation characteristic calculation unit 204 that executes a series of operations of the gradation characteristic calculation process. The gradation characteristic calculation process is started when the above-described process of S705 is called.

S810において輝度段差算出部401は、入力した、被写体領域ごとの代表輝度値を用いて被写体領域間の輝度段差を算出する。輝度段差の算出方法については、図11(B)、(C)およびS604において示した処理と同様であり、図12(A)および図12(B)に示すように、0段を基準とした露光量(露出補正量)をゲイン量と置き換えればよい。   In step S810, the luminance level calculation unit 401 calculates the luminance level difference between the subject areas using the input representative luminance value for each subject area. The method for calculating the luminance step is the same as the processing shown in FIGS. 11B, 11C, and S604. As shown in FIGS. 12A and 12B, the zero step is used as a reference. The exposure amount (exposure correction amount) may be replaced with the gain amount.

S820において出力輝度値決定部402は、主被写体に対する出力輝度値を決定する。主被写体の出力輝度値とは、S605における出力輝度値と同様に、最終的に出力したい主被写体領域の輝度値である。また、本実施形態では、上述のように背景領域を主被写体領域として設定する。出力輝度値の算出方法についてはS605において示した処理内容と同様であるため説明は省略する。   In step S820, the output luminance value determination unit 402 determines an output luminance value for the main subject. The output luminance value of the main subject is the luminance value of the main subject area to be finally output, like the output luminance value in S605. In the present embodiment, the background area is set as the main subject area as described above. The calculation method of the output luminance value is the same as the processing content shown in S605, and thus the description is omitted.

S830において階調補正量算出部403は、S810で算出した被写体領域間の輝度段差と、S802で算出した主被写体の出力輝度値を入力として、各被写体領域の階調補正量を算出する。階調補正量とは、本実施形態では対象の被写体領域に一律に適用するゲイン量である。被写体領域ごとの階調補正量の算出方法について、図8Aに示す801および図8Bに示すフローチャートを参照して説明する。   In step S830, the gradation correction amount calculation unit 403 calculates the gradation correction amount of each subject area using the luminance step between the subject areas calculated in step S810 and the output luminance value of the main subject calculated in step S802 as inputs. The gradation correction amount is a gain amount that is uniformly applied to a target subject area in the present embodiment. A method of calculating the gradation correction amount for each subject area will be described with reference to the flowchart 801 shown in FIG. 8A and the flowchart shown in FIG. 8B.

(4−3.階調補正量の決定処理に係る一連の動作)
S831において階調補正量算出部403は、各被写体領域の階調補正量[段]をそれぞれ背景領域のゲイン量(GAIN_BACK)、空領域のゲイン量(GAIN_SKY)とすると、それぞれのゲイン量を(式7)により算出する。これらゲイン量は(式3)で求めた出力露光量と同じものである。なお、BACK_Yは背景領域の代表輝度値、BACK_OUT_Yは主被写体である背景領域の出力輝度値であり、ΔBSは背景領域と空領域間の輝度段差である。
(4-3. Series of operations related to determination processing of gradation correction amount)
In S831, the gradation correction amount calculation unit 403 sets the gradation correction amount [stage] of each subject region as the gain amount of the background region (GAIN_BACK) and the gain amount of the sky region (GAIN_SKY), respectively. It calculates by Formula 7). These gain amounts are the same as the output exposure amounts obtained in (Equation 3). BACK_Y is a representative luminance value of the background area, BACK_OUT_Y is an output luminance value of the background area as the main subject, and ΔBS is a luminance step between the background area and the sky area.

Figure 0006366432
Figure 0006366432

本実施形態では、0段未満のゲイン量に関しては階調補正を適用しないため、(式7)でGAIN_BACK、GAIN_SKYを算出した後、GAIN_BACK、GAIN_SKYのうち、負の値になっているものがあれば、これらの値を0にクリップする。   In this embodiment, tone correction is not applied to gain amounts less than 0. Therefore, after calculating GAIN_BACK and GAIN_SKY in (Equation 7), there may be negative values among GAIN_BACK and GAIN_SKY. For example, these values are clipped to 0.

(4−3.ゲイン量の補正処理に係る一連の動作)
S832においてシーン度合算出部406は、各領域に基づく特徴量を算出して画像の示すシーンの度合いを算出し、S831で算出した各領域のゲイン量をさらに補正する処理を行う。ゲイン量の補正処理に係る、より詳細なステップ(S833〜S838)を、図8Bに示すフローチャートを参照して説明する。
(4-3. Series of operations related to gain amount correction processing)
In S832, the scene degree calculation unit 406 calculates a feature amount based on each region, calculates the degree of the scene indicated by the image, and performs a process of further correcting the gain amount calculated in S831. More detailed steps (S833 to S838) relating to the gain amount correction processing will be described with reference to the flowchart shown in FIG. 8B.

S833においてシーン度合算出部406は、画像において人物が検出されたか否かを判定し、検出されなかった場合には処理をS834へ進め、検出された場合はゲイン量補正処理を終了する。   In step S833, the scene degree calculation unit 406 determines whether or not a person is detected in the image. If no person is detected, the process proceeds to step S834. If the person is detected, the gain amount correction process ends.

S834においてシーン度合算出部406は、被写体領域ごとの画素値および輝度段差に基づいて3つの係数α、β、γ(即ち特徴量)を算出し、これらの係数に基づいて夕景である可能性を示す夕景度Score_Sunsetを算出する。   In S834, the scene degree calculation unit 406 calculates three coefficients α, β, and γ (that is, feature amounts) based on the pixel value and the luminance step for each subject area, and determines the possibility that the scene is an evening scene based on these coefficients. The evening scene score Score_Sunset shown is calculated.

3つの係数の算出方法を、図9を参照して説明する。シーン度合算出部406は、夕景度αを、被写体領域判別部201によって空領域と判別された画素の総数のうち、色相が赤〜黄(色相角:0〜60)を示す画素数が占める割合(夕焼け空割合)に基づいて算出する。図9(A)では、シーン度合算出部406が、夕焼け空割合が大きいほど夕焼け空である可能性が高いと判断するように、夕景度αを大きな値(最大で100)としている。   A method of calculating the three coefficients will be described with reference to FIG. The scene degree calculation unit 406 accounts for the evening scene degree α of the total number of pixels determined to be the sky region by the subject region determination unit 201 and the number of pixels whose hues are red to yellow (hue angle: 0 to 60) Calculate based on (sunset sky ratio). In FIG. 9A, the scene degree calculation unit 406 sets the evening scene degree α to a large value (100 at the maximum) so as to determine that the sunset sky ratio is higher as the sunset sky ratio is higher.

また、シーン度合算出部406は、夕景度βを、被写体領域判別部201によって判別された空領域の明るさ、即ちBv値(Brightness Value:被写体輝度値)が夕景の空らしい値を持っているか否かに基づいて算出する。例えば、空領域のBv値は、S703で算出した空領域の代表輝度値SKY_Yと空領域の目標輝度値SKY_REF_Y(例えば10bitで133)、そして撮影時の露光量BV_Captureを用いて、以下の式により算出される。   Also, the scene degree calculation unit 406 sets the evening scene degree β to the brightness of the sky area determined by the subject area determination unit 201, that is, whether the Bv value (Brightness Value) has a value that seems to be the sky of the evening scene. Calculate based on whether or not. For example, the Bv value of the sky region is calculated by the following equation using the representative brightness value SKY_Y of the sky region calculated in S703, the target brightness value SKY_REF_Y of the sky region (for example, 133 at 10 bits), and the exposure amount BV_Capture at the time of shooting. Calculated.

Figure 0006366432
Figure 0006366432

例えば図9(B)では、シーン度合算出部406が、空領域のBv値が4〜6である場合に、夕景の空である可能性が高いと判断するように、夕景度βを大きな値(最大で100)としている。   For example, in FIG. 9B, when the scene degree calculation unit 406 determines that there is a high possibility of the evening sky when the Bv value of the sky region is 4 to 6, the evening scene degree β is set to a large value. (Maximum 100).

夕景度γの算出において、シーン度合算出部406は、S831で算出した空領域と背景領域の輝度段差ΔBSに基づいて算出される。図9(C)では、シーン度合算出部406が、ΔBSの値が大きいほど、即ち空と背景の輝度段差が大きいほど、夕景の雰囲気を示すシーンである可能性が高いと判断するように、夕景度γを大きな値(最大で100)としている。   In calculating the evening scene degree γ, the scene degree calculating unit 406 is calculated based on the luminance step ΔBS between the sky area and the background area calculated in S831. In FIG. 9C, the scene degree calculation unit 406 determines that the greater the value of ΔBS, that is, the greater the difference in brightness between the sky and the background, the higher the possibility that the scene shows an evening scene atmosphere. The evening scene degree γ is set to a large value (100 at the maximum).

シーン度合算出部406は、算出したαおよびβのうち大きい値を選択し、選択した値にγを乗算した値を最終的な夕景度Score_Sunsetとする。夕景シーンでは、日没前までは空の色相が赤〜黄を示すことが多いことからαが大きな値をとる。一方、日没後は空の色相が赤〜黄を示さない反面、Bv値が日中の晴天時と比較して小さい値をとることからβが大きな値をとるように設定している。従って、本実施形態では、夕景度αおよびβは選択的に用いている。また、後述するように夕景の雰囲気を表す信号として空と背景の明暗の差(輝度段差)を用いることができるため、夕景度γを夕景度の判定に用いている。例えば、入力された画像が日没前の夕景シーンである場合、空の色相が赤〜黄を示す領域を含むために夕景度αの値が大きくなる。そして、太陽を含む空と薄暗い背景とで輝度段差も大きくなることで夕景度γの値が大きくなり、結果的として予め定めた閾値以上の夕景度Score_Sunsetが得られる。   The scene degree calculation unit 406 selects a large value from the calculated α and β, and sets a value obtained by multiplying the selected value by γ as the final evening scene score Score_Sunset. In sunset scenes, α takes a large value because the hue of the sky often shows red to yellow before sunset. On the other hand, after sunset, the hue of the sky does not show red to yellow, but the Bv value is smaller than that in sunny daytime, so β is set to take a large value. Therefore, in the present embodiment, the evening scene degrees α and β are selectively used. Further, as will be described later, since the difference between the brightness of the sky and the background (luminance step) can be used as a signal representing the atmosphere of the evening scene, the evening scene degree γ is used for determining the evening scene degree. For example, when the input image is an evening scene before sunset, the value of the evening scene degree α increases because the sky hue includes an area indicating red to yellow. Then, since the brightness difference between the sky including the sun and the dim background increases, the value of the evening scene degree γ increases, and as a result, the evening scene degree Score_Sunset equal to or higher than a predetermined threshold value is obtained.

S835においてシーン度合算出部406は、S834で算出した夕景度Score_Sunsetが閾値より小さいかを判定し、閾値より小さい場合は処理をS836に進め、閾値以上である場合はS838に処理を進める。   In S835, the scene degree calculation unit 406 determines whether the evening scene score Score_Sunset calculated in S834 is smaller than the threshold. If the threshold is smaller than the threshold, the process proceeds to S836. If the threshold is greater than or equal to the threshold, the process proceeds to S838.

S836においてシーン度合算出部406は、曇天シーンである可能性を示す曇天度Score_Cloudyを算出する。具体的には、夕景時で述べた場合のように係数α2、β2、γ2を算出する。曇天度α2については、シーン度合算出部406は、被写体領域判別部201によって空領域と判別された画素の総数に対する、雲領域と判別された画素の総数の比率(雲の割合)に基づいて算出する。図18(A)に示すように、雲の比率が大きいほど曇り空である可能性が高いと判断するように、α2を大きな値(最大で100)とする。曇天度β2については、夕景時の判断と同様に式8に基づいて算出する。図18(B)に示すように、空のBv値が4〜6であれば曇りの空である可能性が高いと判断するように、曇天度β2を大きな値(最大で100)とする。さらに、曇天度γ2については、夕景時の判断と同様に輝度段差ΔBSに基づいて算出される。図18(C)に示すように、即ち空と背景の輝度段差ΔBSが大きいほど曇天の雰囲気を示すシーンである可能性が高いと判断するようにγ2を大きな値(最大で100)とする。以降の処理も夕景時の判断と同様に、α2、β2のうち大きい値を選択し、それにγ2を乗算した値を最終的な曇天度Score_ Cloudyとする。   In S836, the scene degree calculation unit 406 calculates a cloudy score Score_Cloudy indicating the possibility of a cloudy scene. Specifically, the coefficients α2, β2, and γ2 are calculated as described in the sunset scene. The cloudiness degree α2 is calculated based on the ratio (the ratio of clouds) of the total number of pixels determined as the cloud area to the total number of pixels determined as the sky area by the subject area determination unit 201. To do. As shown in FIG. 18 (A), α2 is set to a large value (100 at the maximum) so as to determine that the larger the cloud ratio, the higher the possibility of being cloudy. The cloudy degree β2 is calculated based on Expression 8 in the same manner as the determination at sunset. As shown in FIG. 18B, the cloudiness β2 is set to a large value (100 at the maximum) so that it is determined that the sky is likely to be cloudy when the sky Bv value is 4-6. Further, the cloudy degree γ2 is calculated based on the luminance step ΔBS in the same manner as in the determination at sunset. As shown in FIG. 18C, that is, γ2 is set to a large value (100 at the maximum) so that it is determined that there is a high possibility that the scene has a cloudy atmosphere as the brightness difference ΔBS between the sky and the background increases. In the subsequent processing, similarly to the determination at the time of sunset, a larger value is selected from α2 and β2, and a value obtained by multiplying it by γ2 is set as the final cloudiness Score_Cloudy.

S827においてシーン度合算出部406は、算出した曇天度Score_ Cloudyが閾値より小さいかを判定し、閾値より小さい場合はゲイン量補正処理を終了させ、閾値以上である場合はS838に処理を進める。   In step S827, the scene degree calculation unit 406 determines whether the calculated cloudiness score Score_Cloudy is smaller than the threshold value. If the calculated cloudy degree Score_Cloudy is smaller than the threshold value, the gain amount correction process is terminated.

S838において階調特性作成部405は、算出した夕景度(あるいは曇天度)に基づいて、S831で算出したゲイン量GAIN_BACK、GAIN_SKYの補正を行う。以降の説明では、夕景度が高い場合について説明するが、曇天度が高い場合にも、夕景時の場合と同様にゲイン量GAIN_BACK、GAIN_SKYの補正を行えばよい。本実施形態に係るゲイン量の補正処理を、図10を参照してさらに説明する。図10(A)は、ゲインを1024階調とした場合の、夕景度に応じて背景領域のゲイン量を補正するための係数(OUT_GAIN)を示し、図10(B)は、夕景度に応じて空領域のゲイン量を補正するための係数COMP_Hを示している。そして、これらの係数を用いて、補正ゲイン量GAIN_BACK2、GAIN_SKY2を以下の式により算出する。   In S838, the gradation characteristic creating unit 405 corrects the gain amounts GAIN_BACK and GAIN_SKY calculated in S831 based on the calculated evening scene degree (or cloudy degree). In the following description, a case where the evening scene degree is high will be described. However, even when the cloudy degree is high, the gain amounts GAIN_BACK and GAIN_SKY may be corrected as in the case of the evening scene. The gain amount correction processing according to the present embodiment will be further described with reference to FIG. FIG. 10A shows a coefficient (OUT_GAIN) for correcting the amount of gain in the background area according to the evening scene when the gain is 1024 gradations, and FIG. 10B shows the coefficient according to the evening scene. The coefficient COMP_H for correcting the gain amount in the sky region is shown. Then, using these coefficients, the correction gain amounts GAIN_BACK2 and GAIN_SKY2 are calculated by the following equations.

Figure 0006366432
Figure 0006366432

夕景度が増加するほどCOMP_Hが大きくなることから、背景領域にかけるゲイン量と空領域にかけるゲイン量の差が増加する。また、夕景度が増加するほどOUT_GAINが小さくなることから、背景領域にかかるゲイン量が減少し、結果として空領域に係るゲインも減少する。即ち、OUT_GAINおよびCOMP_Hを、夕景度に応じて図10に示すように変化する値とすることで、夕景時の雰囲気として空と背景領域の輝度差を残し、かつ両領域の明るさを日中シーンよりもアンダーとすることにつながる。このようにシーンの適合度に応じて各領域のゲイン量を制御することで、シーンの雰囲気を残すことが可能になる。シーン度合算出部406は、ゲイン量の算出処理を完了するとゲイン量補正処理を終了して、処理をS832に戻す。   Since COMP_H increases as the evening scene degree increases, the difference between the gain amount applied to the background region and the gain amount applied to the sky region increases. Further, since the OUT_GAIN decreases as the evening scene degree increases, the gain amount applied to the background area decreases, and as a result, the gain related to the sky area also decreases. That is, by setting OUT_GAIN and COMP_H to values that change as shown in FIG. 10 according to the evening scene degree, the brightness difference between the sky and the background area remains as the atmosphere during the evening scene, and the brightness of both areas is adjusted to the daytime. It leads to an underscene than the scene. In this way, it is possible to leave the atmosphere of the scene by controlling the gain amount of each region according to the degree of suitability of the scene. When the gain degree calculation process is completed, the scene degree calculation unit 406 ends the gain amount correction process and returns the process to S832.

S839において階調特性作成部405は、被写体領域ごとの階調補正量から図14(A)に示す入出力特性を算出する。入力信号をX、出力信号をYとすると、各被写体領域で実現する入出力特性は(式10)で表される。   In S839, the gradation characteristic creating unit 405 calculates the input / output characteristics shown in FIG. 14A from the gradation correction amount for each subject area. When the input signal is X and the output signal is Y, the input / output characteristics realized in each subject area are expressed by (Equation 10).

Figure 0006366432
Figure 0006366432

この式により得られる各被写体領域の入出力特性が、それぞれ、領域別トーンマッピングにおいて被写体領域ごとに適用する階調特性となる。各被写体領域の入出力特性の傾きが、各被写体領域で実現すべきコントラストであり、出力信号は各被写体領域で実現すべき明るさを示している。階調特性作成部405は、入出力特性を算出すると、処理をS840に進める。   The input / output characteristics of each subject area obtained by this equation are the gradation characteristics applied to each subject area in the area-specific tone mapping. The slope of the input / output characteristics of each subject area is the contrast to be realized in each subject area, and the output signal indicates the brightness to be realized in each subject area. After calculating the input / output characteristics, the gradation characteristic creating unit 405 advances the process to S840.

次に、被写体領域ごとの輝度のヒストグラムに基づいて、入力信号の範囲を決定する処理について説明する。   Next, a process for determining the input signal range based on the luminance histogram for each subject area will be described.

S840において適用範囲算出部404は、被写体領域ごとの輝度のヒストグラムに基づいて、S830で算出した被写体領域ごとの階調補正量を適応する入力信号の範囲を決定する。入力信号の範囲について図14(B)を参照して説明する。   In S840, the application range calculation unit 404 determines an input signal range to which the gradation correction amount for each subject area calculated in S830 is applied based on the luminance histogram for each subject area. The range of the input signal will be described with reference to FIG.

図14(B)に示す2つの入出力特性は、(式10)で示した各被写体領域で実現すべき入出力特性である。入出力特性の横軸に記載されているBACK_POINTおよびSKY_POINTは、対応するそれぞれの被写体領域において、入出力特性を適用する入力信号の範囲を決定する指標である。図14(B)のX軸は、例えば、0からBACK _POINTまでの入力信号の範囲を入力範囲141とし、SKY_POINTから最大値までの入力信号の範囲を入力範囲142とした例を示している。入力範囲141は、背景領域に対する入出力特性を適用する入力信号の範囲であり、入力範囲142は空領域に対する入出力特性を適用する入力信号の範囲である。   The two input / output characteristics shown in FIG. 14B are input / output characteristics to be realized in each subject area shown in (Equation 10). BACK_POINT and SKY_POINT described on the horizontal axis of the input / output characteristics are indices that determine the range of the input signal to which the input / output characteristics are applied in each corresponding subject area. The X axis in FIG. 14B shows an example in which the input signal range from 0 to BACK_POINT is the input range 141 and the input signal range from SKY_POINT to the maximum value is the input range 142, for example. The input range 141 is an input signal range to which the input / output characteristics for the background area are applied, and the input range 142 is an input signal range to which the input / output characteristics for the sky area are applied.

BACK_POINT、SKY_POINTの算出は、図15に示すように、被写体領域ごとに算出した輝度ヒストグラムを用いて行う。図15(A)には、入力画像から判別した背景領域における輝度ヒストグラム1501と、入力画像から判別した空領域における輝度ヒストグラム1502を生成した様子を示しており、背景領域および空領域にヒストグラムの偏りが形成されている。各被写体領域のヒストグラムを利用した具体的なBACK_POINT、SKY_POINTの算出処理を図15(B)を参照して説明する。まず、適用範囲算出部404は、背景領域の輝度ヒストグラム1501について、最小の信号値から大きい信号値に向かって、各信号値の頻数を加算する。輝度ヒストグラム1501について、各信号値の頻度を加算した場合の、入力信号値と頻数の累積加算値の関係を1503に示す。適用範囲算出部404は、頻数の累積加算値がある一定の閾値(BACK_TH)以上になった時点で最後に頻数を加算した入力信号の値をBACK_POINTとする。なお、閾値をBACK_THとすると、(式11)の様に表すことができる。ここで、BACK_AREASUMは、背景領域と判別された画素の総数、P_BACKは調整パラメータである。   The calculation of BACK_POINT and SKY_POINT is performed using a luminance histogram calculated for each subject area, as shown in FIG. FIG. 15A shows a state in which a luminance histogram 1501 in the background area determined from the input image and a luminance histogram 1502 in the sky area determined from the input image are generated. Is formed. A specific BACK_POINT and SKY_POINT calculation process using the histogram of each subject area will be described with reference to FIG. First, the application range calculation unit 404 adds the frequency of each signal value from the smallest signal value to the larger signal value in the luminance histogram 1501 of the background region. Regarding the luminance histogram 1501, the relationship between the input signal value and the cumulative addition value of the frequency when the frequency of each signal value is added is shown in 1503. The application range calculation unit 404 sets the value of the input signal to which the frequency is added at the end as the BACK_POINT when the cumulative addition value of the frequency reaches a certain threshold (BACK_TH) or more. When the threshold is BACK_TH, it can be expressed as (Equation 11). Here, BACK_AREASUM is the total number of pixels determined as the background area, and P_BACK is an adjustment parameter.

Figure 0006366432
Figure 0006366432

(式11)では例えば、頻数の加算値が、背景領域の画素の総数に対して所定の割合に達したことをもってBACK_POINTを決定している。   In (Expression 11), for example, the BACK_POINT is determined when the addition value of the frequency reaches a predetermined ratio with respect to the total number of pixels in the background area.

一方、SKY_POINTの算出について適用範囲算出部404は、空領域の輝度ヒストグラム1502に対して、最小の信号値から徐々に大きい信号値に向かって、空領域と判別された画素の総数から各信号値の頻数を減算した値を算出する。そして、減算した値がある一定の閾値(SKY_TH)以下になった時点で、最後に頻数を減算した入力信号の値をSKY_POINTとする。SKY_THの決定については、BACK_THと同様に、空領域の画素の総数の所定の割合に達する値を用いればよい。なお、本実施形態は、空領域が最も明るく、背景領域が最も暗いシーンについて説明を行っているが、反対に、背景領域が最も高輝度被写体であるシーンの場合には、SKY_POINTと同じ算出処理を行えばよい。また、空領域が中間輝度被写体のシーンである場合はBACK_POINTと同様の算出処理を行えばよい。   On the other hand, with respect to the calculation of SKY_POINT, the application range calculation unit 404 determines each signal value from the total number of pixels determined to be a sky region from the minimum signal value toward a larger signal value with respect to the brightness histogram 1502 of the sky region. The value obtained by subtracting the frequency of is calculated. Then, when the subtracted value falls below a certain threshold value (SKY_TH), the value of the input signal from which the frequency is finally subtracted is defined as SKY_POINT. For determination of SKY_TH, a value that reaches a predetermined ratio of the total number of pixels in the sky region may be used as in BACK_TH. In this embodiment, the scene where the sky area is the brightest and the background area is the darkest is described. On the contrary, in the case of the scene where the background area is the brightest subject, the same calculation process as SKY_POINT is performed. Can be done. Further, when the sky area is a scene of an intermediate luminance subject, the calculation process similar to BACK_POINT may be performed.

S850において、階調特性決定部407は、上述した階調補正量および適用範囲を用いて、画像に一様に適用する階調特性を決定する。即ち、S830で算出した階調補正量GAIN_BACK2およびGAIN_SKY2と、S840で算出した階調補正量を適用する範囲の指標(BACK_POINT、SKY_POINT)とを用いて、階調特性を決定する。図16は、本実施形態により生成された階調特性を示している。入力信号Xが0〜BACK_POINTの期間(区間1601)は、背景領域に適用される入出力特性であり、SKY_POINT〜最大値の期間(区間1602)は空領域に適用される入出力特性である。またBACK_POINT〜SKY_POINTの期間は、BACK_POINTおよびSKY_POINTにおける出力値を線形的に変化させた特性とする。このように、画像内の各被写体領域ごとに、撮影シーンに合わせた入出力特性を決定することで、シーンの雰囲気を残した階調補正(例えば、空と背景領域の輝度差を残し、かつ両領域の明るさを日中シーンよりもアンダーとするような階調補正)が可能になる。   In step S850, the gradation characteristic determination unit 407 determines gradation characteristics to be applied uniformly to the image using the above-described gradation correction amount and application range. That is, the tone characteristics are determined using the tone correction amounts GAIN_BACK2 and GAIN_SKY2 calculated in S830 and the index (BACK_POINT, SKY_POINT) of the range to which the tone correction amount calculated in S840 is applied. FIG. 16 shows the gradation characteristics generated by this embodiment. A period (interval 1601) in which the input signal X is 0 to BACK_POINT is an input / output characteristic applied to the background area, and a period from SKY_POINT to the maximum value (interval 1602) is an input / output characteristic applied to the empty area. In the period from BACK_POINT to SKY_POINT, the output values at BACK_POINT and SKY_POINT are linearly changed. In this way, for each subject area in the image, by determining the input / output characteristics according to the shooting scene, tone correction that leaves the scene atmosphere (for example, the brightness difference between the sky and the background area remains, and It is possible to perform gradation correction such that the brightness of both areas is lower than the daytime scene.

画像処理部104は、S850における処理を完了すると、階調特性の算出処理に係る一連の動作を終了してS705に処理を戻す。   When the image processing unit 104 completes the process in S850, the image processing unit 104 ends the series of operations related to the gradation characteristic calculation process and returns the process to S705.

なお本実施形態では、人物を含まないシーンを例に挙げて説明しているが、人物が存在する場合においても本発明は適用可能である。人物が検出された場合には、主被写体である人物の顔領域から目標輝度値および出力輝度値を算出する。その上で背景および空領域に対する階調補正量を本実施形態で述べたような手法で制御すれば良い。また、本実施形態では、階調補正処理において雰囲気を残したいシーンとして、夕景および曇天の2つの例を例示したが、本発明はこれに限られるものではない。例えば、スポットライトを浴びた人物が存在し、この人物の領域が明るく、それ以外の背景領域が暗いようなシーンでは、背景領域にかかるゲイン量を小さくするように階調補正量を制御することで、雰囲気を残すことが可能になる。   In the present embodiment, a scene that does not include a person is described as an example. However, the present invention can be applied even when a person exists. When a person is detected, a target luminance value and an output luminance value are calculated from the face area of the person who is the main subject. Then, the gradation correction amount for the background and sky regions may be controlled by the method described in this embodiment. Further, in the present embodiment, two examples of sunset scene and cloudy sky are illustrated as scenes in which the atmosphere is desired to be left in the gradation correction processing, but the present invention is not limited to this. For example, in a scene where there is a person who is spotlighted, the area of this person is bright, and the background area is dark, the tone correction amount is controlled to reduce the gain applied to the background area. It becomes possible to leave an atmosphere.

以上説明したように本実施形態では、所定の撮影シーンの度合いを算出し、当該度合いに応じて階調特性を算出するようにした。このとき、撮影シーンの度合いに応じて各被写体領域間のゲイン量の差および各被写体領域にかけるゲイン量を設定して、各被写体領域に適用される階調特性が撮影シーンの度合いを介して関連性を有するようにした。このようにすることで、撮影シーンに特徴的な被写体領域間のバランスを考慮した階調処理を行うことが可能になる。換言すれば、撮影シーンが持つ雰囲気を残しながらも、被写体領域ごとに最適なコントラストおよび明るさを持つ画像を生成することが可能となる。   As described above, in this embodiment, the degree of a predetermined shooting scene is calculated, and the gradation characteristics are calculated according to the degree. At this time, the difference in gain amount between the subject areas and the gain amount to be applied to each subject area are set according to the degree of the shooting scene, and the gradation characteristic applied to each subject area depends on the degree of the shooting scene. Relevant. In this way, it is possible to perform gradation processing in consideration of the balance between the subject areas characteristic of the shooting scene. In other words, it is possible to generate an image having optimum contrast and brightness for each subject area while leaving the atmosphere of the shooting scene.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

102…撮像部、104…画像処理部、107…制御部、201…被写体領域判別部、202…ヒストグラム算出部、203…輝度値算出部、204…階調特性算出部、205…ゲインテーブル算出部、406…シーン度合算出部、407…階調特性決定部 DESCRIPTION OF SYMBOLS 102 ... Imaging part, 104 ... Image processing part, 107 ... Control part, 201 ... Subject area discrimination | determination part, 202 ... Histogram calculation part, 203 ... Luminance value calculation part, 204 ... Tone characteristic calculation part, 205 ... Gain table calculation part , 406 ... Scene degree calculation unit, 407 ... Tone characteristic determination unit

Claims (12)

画像から複数の被写体領域を判別する判別手段と、
前記画像から得られる特徴量に基づいて、前記画像が所定の撮影シーンである可能性を示す度合いを算出する度合算出手段と、
前記複数の被写体領域の輝度差に基づいて前記複数の被写体領域のそれぞれに対する階調補正量を算出する算出手段と、
前記階調補正量を、前記度合いに基づいて補正する補正手段と、
前記補正手段が補正した階調補正量を、前記複数の被写体領域に適用する階調処理手段と、を有することを特徴とする画像処理装置。
Discriminating means for discriminating a plurality of subject areas from the image;
A degree calculating means for calculating a degree indicating the possibility that the image is a predetermined shooting scene based on a feature amount obtained from the image;
Calculating means for calculating a gradation correction amount for each of the plurality of subject areas based on a luminance difference between the plurality of subject areas;
Correction means for correcting the gradation correction amount based on the degree;
An image processing apparatus comprising: a gradation processing unit that applies the gradation correction amount corrected by the correction unit to the plurality of subject areas.
前記被写体領域を構成する画素値のヒストグラムを算出し、前記ヒストグラムに応じて、前記階調補正量を適用する前記画素値の範囲を算出する範囲算出手段をさらに備え、
前記階調処理手段は、前記画素値の範囲ごとの前記階調補正量を前記複数の被写体領域に適用することを特徴とする請求項1に記載の画像処理装置。
A range calculation means for calculating a histogram of pixel values constituting the subject area, and calculating a range of the pixel values to which the gradation correction amount is applied according to the histogram;
The image processing apparatus according to claim 1, wherein the gradation processing unit applies the gradation correction amount for each range of the pixel values to the plurality of subject areas.
前記算出手段は、前記複数の被写体領域のうち主被写体領域に対する階調補正量を算出し、前記複数の被写体のうち前記主被写体領域以外の被写体領域については、前記主被写体領域に対する階調補正量と、前記主被写体領域との輝度差とに基づいて、階調補正量を算出することを特徴とする請求項1または2に記載の画像処理装置。   The calculation means calculates a gradation correction amount for a main subject region among the plurality of subject regions, and for a subject region other than the main subject region among the plurality of subjects, a gradation correction amount for the main subject region The image processing apparatus according to claim 1, wherein a gradation correction amount is calculated based on a difference in luminance from the main subject area. 前記算出手段は、前記被写体領域のうち、前記被写体領域を表す輝度値が最も低い前記被写体領域を前記主被写体領域とすることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the calculation unit sets the subject area having the lowest luminance value representing the subject area as the main subject area among the subject areas. 前記判別手段は、前記複数の被写体領域として少なくとも背景領域と空領域を判別することを特徴とする請求項1ないし4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit determines at least a background area and an empty area as the plurality of subject areas. 前記度合算出手段は、所定の前記被写体領域の画素に占める所定の画素の割合に基づいて、前記特徴量を算出すること特徴とする請求項1ないし5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the degree calculation unit calculates the feature amount based on a ratio of a predetermined pixel to a pixel of the predetermined subject area. . 前記度合算出手段は、所定の前記被写体領域を表す輝度値が、前記所定の撮影シーンのために予め定められた輝度値の範囲にあるかに基づいて、前記特徴量を算出することを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。   The degree calculation means calculates the feature amount based on whether a luminance value representing the predetermined subject area is within a predetermined luminance value range for the predetermined shooting scene. The image processing apparatus according to any one of claims 1 to 6. 前記度合算出手段は、前記被写体領域のうちの少なくとも2つの、前記複数の被写体領域の輝度差が、前記所定の撮影シーンのために予め定められた値より大きいかに基づいて、前記特徴量を算出することを特徴とする請求項1ないし7のいずれか1項に記載の画像処理装置。   The degree calculation means calculates the feature amount based on whether a luminance difference between the plurality of subject areas of at least two of the subject areas is larger than a predetermined value for the predetermined shooting scene. The image processing apparatus according to claim 1, wherein the image processing apparatus calculates the image processing apparatus. 前記補正手段は、前記度合いが大きいほど、それぞれの前記被写体領域に対する階調補正量の大きさを減少させ、かつ、所定の2つの前記被写体領域に対する階調補正量の差を増加させることを特徴とする請求項1ないし8のいずれか1項に記載の画像処理装置。   The correction means decreases the magnitude of the gradation correction amount for each of the subject areas and increases the difference between the gradation correction amounts for the two predetermined subject areas as the degree increases. The image processing apparatus according to any one of claims 1 to 8. 前記所定の撮影シーンが、夕景または曇天を含むシーンであることを特徴とする請求項5ないし9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the predetermined shooting scene is a scene including an evening scene or a cloudy sky. 判別手段が、画像から複数の被写体領域を判別する判別工程と、
度合算出手段が、前記画像から得られる特徴量に基づいて、前記画像が所定の撮影シーンである可能性を示す度合いを算出する度合算出工程と、
算出手段が、前記複数の被写体領域の輝度差に基づいて前記複数の被写体領域のそれぞれに対する階調補正量を算出する算出工程と、
補正手段が、前記階調補正量を、前記度合いに基づいて補正する補正工程と、
階調処理手段が、前記補正手段が補正した階調補正量を、前記複数の被写体領域に適用する階調処理工程と、を有することを特徴とする画像処理装置の制御方法。
A determination step of determining a plurality of subject areas from the image;
A degree calculation step in which a degree calculation unit calculates a degree indicating the possibility that the image is a predetermined shooting scene based on a feature amount obtained from the image;
A calculating step for calculating a gradation correction amount for each of the plurality of subject areas based on a luminance difference between the plurality of subject areas;
A correction step in which the correction means corrects the gradation correction amount based on the degree;
A method for controlling an image processing apparatus, comprising: a gradation processing step in which gradation processing means applies the gradation correction amount corrected by the correction means to the plurality of subject areas.
コンピュータを、請求項1ないし10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 thru | or 10.
JP2014178502A 2014-09-02 2014-09-02 Image processing apparatus, control method therefor, and program Active JP6366432B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014178502A JP6366432B2 (en) 2014-09-02 2014-09-02 Image processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014178502A JP6366432B2 (en) 2014-09-02 2014-09-02 Image processing apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2016054355A JP2016054355A (en) 2016-04-14
JP6366432B2 true JP6366432B2 (en) 2018-08-01

Family

ID=55745441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014178502A Active JP6366432B2 (en) 2014-09-02 2014-09-02 Image processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP6366432B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298330B2 (en) * 1994-10-06 2002-07-02 松下電器産業株式会社 Imaging device
JP3468231B2 (en) * 2001-07-02 2003-11-17 ミノルタ株式会社 Image processing apparatus, image quality control method, program, and recording medium
JP2003116049A (en) * 2001-10-04 2003-04-18 Sony Corp Image pickup device
JP2007235204A (en) * 2006-02-27 2007-09-13 Konica Minolta Photo Imaging Inc Imaging apparatus, image processing apparatus, image processing method and image processing program
JP5004305B2 (en) * 2008-09-04 2012-08-22 株式会社リコー Image processing apparatus, image processing method, program, and recording medium
JP6116272B2 (en) * 2013-02-08 2017-04-19 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium

Also Published As

Publication number Publication date
JP2016054355A (en) 2016-04-14

Similar Documents

Publication Publication Date Title
JP6116272B2 (en) Image processing apparatus, image processing method, program, and storage medium
US10171786B2 (en) Lens shading modulation
JP6020199B2 (en) Image processing apparatus, method, program, and imaging apparatus
US8094211B2 (en) Method and apparatus for obtaining image using entropy
US9542734B2 (en) Information processing apparatus, image processing method, and storage medium that determine tone characteristics for respective object signals
JP6824817B2 (en) Image processing device and image processing method
JP6097588B2 (en) Image processing apparatus and image processing method
US20140218559A1 (en) Image pickup apparatus, image processing apparatus, control method for image pickup apparatus, and image processing method
JP6074254B2 (en) Image processing apparatus and control method thereof
JP6083974B2 (en) Image processing apparatus, image processing method, and program
JP6376934B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US20230196530A1 (en) Image processing apparatus, image processing method, and image capture apparatus
JP2019047169A (en) Apparatus, method, and program for generating high dynamic range image
US20170094242A1 (en) Image processing apparatus, image processing method, and storage medium
US9294685B2 (en) Image processing apparatus, electronic camera, and medium storing image processing program
JP2018067190A (en) Image processing device, control method thereof, program, and recording medium
JP6423668B2 (en) Image processing apparatus, control method therefor, and program
JP2007329619A (en) Video signal processor, video signal processing method and video signal processing program
JP6514504B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP2019029833A (en) Imaging apparatus
JP2011100204A (en) Image processor, image processing method, image processing program, imaging apparatus, and electronic device
JP6677222B2 (en) Detection device, image processing device, detection method, and image processing method
JP5932392B2 (en) Image processing apparatus and image processing method
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP6366432B2 (en) Image processing apparatus, control method therefor, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180703

R151 Written notification of patent or utility model registration

Ref document number: 6366432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151