JP6514504B2 - IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM - Google Patents

IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM Download PDF

Info

Publication number
JP6514504B2
JP6514504B2 JP2014265777A JP2014265777A JP6514504B2 JP 6514504 B2 JP6514504 B2 JP 6514504B2 JP 2014265777 A JP2014265777 A JP 2014265777A JP 2014265777 A JP2014265777 A JP 2014265777A JP 6514504 B2 JP6514504 B2 JP 6514504B2
Authority
JP
Japan
Prior art keywords
correction amount
image
subject
processing
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014265777A
Other languages
Japanese (ja)
Other versions
JP2016127388A (en
Inventor
木村 直人
直人 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014265777A priority Critical patent/JP6514504B2/en
Publication of JP2016127388A publication Critical patent/JP2016127388A/en
Application granted granted Critical
Publication of JP6514504B2 publication Critical patent/JP6514504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Description

本発明は、画像処理装置およびその制御方法、ならびにプログラムに関する。 The present invention relates to an image processing apparatus and a control method thereof, and relates to a program.

High Dynamic Range(HDR)撮影や画像を部分的に明るくする覆い焼き等、入力のダイナミックレンジ(Dレンジ)を拡大した信号を出力する段階で階調補正や階調圧縮を行う処理が知られている。   Processing for performing tone correction and tone compression at the stage of outputting a signal with an expanded dynamic range (D range) of input, such as High Dynamic Range (HDR) shooting and dodging to partially brighten an image, is known There is.

階調補正や階調圧縮技術では、高コントラスト・広ダイナミックレンジの特性を有する画像を生成することに加えて、階調補正量に応じたノイズリダクション処理(NR処理あるいはノイズ除去処理ともいう)やエッジ強調処理を行って、SN比の良い画像を生成する技術が望まれている。さらに、複数の被写体を撮影する場合に、被写体領域ごとにノイズ除去やエッジ強調処理を行って印象の良い画像を生成する技術も望まれている。   In tone correction and tone compression techniques, in addition to generating an image having high contrast and wide dynamic range characteristics, noise reduction processing (also referred to as NR processing or noise removal processing) according to the amount of tone correction or A technique for performing edge enhancement processing to generate an image with a good SN ratio is desired. Furthermore, when photographing a plurality of subjects, a technique for performing noise removal and edge enhancement processing for each subject area to generate an impressive image is also desired.

例えば、大きな階調補正量を用いて階調補正された領域Aと、殆ど何もしないに等しい程度の小さな階調補正量を用いて階調補正された領域Bとにおいて、階調補正後の信号値が等しいとする。領域Aは大きく階調補正されている分ノイズが増幅されるため、領域Bと比較してノイズ量が多くなる。一方、領域Aに合わせてノイズ除去の効果が強くなるように処理(即ち、エッジ強調処理の効果が弱くなる)すると、殆ど階調補正されていない領域Bは必要以上に解像感が失われてしまう。   For example, in the area A in which the gradation correction is performed using a large amount of gradation correction and in the area B in which the gradation correction is performed using a small amount of gradation correction equal to almost nothing Suppose that the signal values are equal. The noise in the area A is amplified by the large amount of gradation correction, so the amount of noise is larger than that in the area B. On the other hand, if processing is performed so that the effect of noise removal becomes stronger in accordance with the region A (that is, the effect of edge enhancement processing becomes weaker), the region B hardly subjected to gradation correction loses a sense of resolution more than necessary. It will

このような問題に対して、特許文献1は、階調補正量に基づいて算出した合成比率を用いて、ノイズ除去処理を行った画像とノイズ除去を行う前の画像とを合成した画像を出力する技術を提案している。また、特許文献2には、階調補正量に応じてノイズ除去の強度を変更する技術が提案されている。   With regard to such a problem, Patent Document 1 outputs an image obtained by combining an image subjected to noise removal processing and an image prior to noise removal using a combining ratio calculated based on the tone correction amount. Proposed technology. Further, Patent Document 2 proposes a technique for changing the noise removal strength according to the tone correction amount.

特開2011−15277号公報JP 2011-15277 A 特許04069943号公報Patent No. 04069943

しかしながら、特許文献1で提案された技術は、画像の合成比率を階調補正量に応じて算出する一方、ノイズ除去の強度については階調補正量に応じて変更することを考慮していない。即ち、ノイズ除去前の画像とノイズ除去後の画像の合成比率を階調補正量に応じて調整するのみであるため、階調補正量が領域ごとに極端に変化する画像に対しては、最適なノイズ除去処理の結果を得られない場合がある。   However, while the technique proposed in Patent Document 1 calculates the synthesis ratio of the image according to the gradation correction amount, changing the noise removal intensity according to the gradation correction amount is not considered. That is, since only the synthesis ratio of the image before noise removal and the image after noise removal is adjusted according to the tone correction amount, it is optimal for an image in which the tone correction amount changes extremely for each area. Results may not be obtained.

また、特許文献2で提案された技術は、画像内の局所的な明暗差に応じた階調補正量に応じてノイズ除去の強度を変更する技術であるため、被写体領域に応じてノイズ除去の強度を適切に変更したノイズ除去処理については考慮されていない。   Further, the technique proposed in Patent Document 2 is a technique for changing the noise removal intensity according to the tone correction amount according to the local light / dark difference in the image, so noise removal can be performed according to the subject region. It does not consider about the noise removal process which changed intensity appropriately.

本発明は、上述の従来技術の問題点に鑑みてなされたものであり、階調補正量および被写体領域を考慮してノイズ除去の強度を制御可能な画像処理装置およびその制御方法、ならびにプログラムを提供することを目的とする。 The present invention has been made in view of the problems of prior art described above, the gradation correction amount and intensity controllable image processing apparatus and a control method thereof to noise removal taking into account the subject area, and program Intended to provide.

この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、画像から複数の被写体領域を判別する判別手段と、画像の所定の領域ごとに階調補正するための階調補正量を決定する決定手段と、階調補正量によって階調補正された画像に適用するノイズ除去の強度を、階調補正量と判別された被写体領域とに応じて変更するノイズ除去手段と、ノイズ除去手段によりノイズの除去された画像に適用するエッジ強調の強度を、階調補正量と判別された前記被写体領域とに応じて変更するエッジ強調手段と、を有することを特徴とする。 In order to solve this problem, for example, an image processing apparatus according to the present invention has the following configuration. That is, a determination unit that determines a plurality of subject areas from an image, a determination unit that determines a gradation correction amount for performing gradation correction for each predetermined area of the image, and an image that is gradation-corrected by the gradation correction amount Noise removal means for changing the noise removal strength applied to the image according to the gradation correction amount and the subject area determined, and the edge enhancement strength applied to the image from which noise is removed by the noise removal means. And an edge emphasizing unit that changes according to the subject area determined as the tonality correction amount .

本発明によれば、階調補正量および被写体領域を考慮してノイズ除去の強度を制御することができる。   According to the present invention, it is possible to control the noise removal strength in consideration of the gradation correction amount and the subject area.

本発明の実施形態に係る画像処理装置の一例としてのデジタルカメラの機能構成例を示すブロック図A block diagram showing an example of a functional configuration of a digital camera as an example of an image processing apparatus according to an embodiment of the present invention 実施形態1に係る画像処理部104の機能構成例を示すブロック図Block diagram showing an example of the functional configuration of the image processing unit 104 according to the first embodiment 実施形態1に係る(a)NR処理部205の機能構成例を示すブロック図、(b)閾値調整部302の機能構成例を示すブロック図(A) block diagram showing a functional configuration example of the NR processing unit 205 according to the first embodiment, (b) block diagram showing a functional configuration example of the threshold adjustment unit 302 実施形態1に係る(a)エッジ強調処理部206の機能構成例を示すブロック図、(b)エッジ補正部403の機能構成例を示すブロック図(A) block diagram showing an example of functional configuration of the edge emphasizing processing unit 206 according to the first embodiment; (b) block diagram showing an example of functional configuration of the edge correcting unit 403 実施形態1に係る階調補正処理の一連の動作を示すフローチャートFlowchart showing a series of operations of gradation correction processing according to the first embodiment 実施形態1に係るNR処理の一連の動作を示すフローチャートA flowchart showing a series of operations of the NR process according to the first embodiment 実施形態1に係る(a)閾値算出処理の一連の動作を示すフローチャート、(b)閾値調整処理の一連の動作を示すフローチャートThe flowchart which shows a series of operation | movement of (a) threshold value calculation processing which concerns on Embodiment 1, (b) The flowchart which shows a series of operation | movement of threshold value adjustment processing 実施形態1に係るエッジ強調処理の一連の動作を示すフローチャートA flowchart showing a series of operations of edge enhancement processing according to the first embodiment 実施形態1に係るエッジ補正処理の一連の動作を示すフローチャートFlowchart showing a series of operations of edge correction processing according to the first embodiment (a)NR処理で用いる閾値と輝度信号との対応関係を示す図、(b)NR処理に用いる加重加算係数と輝度信号との対応関係を示す図(A) A diagram showing the correspondence between the threshold used in the NR process and the luminance signal, (b) A diagram showing the correspondence between the weighted addition coefficient used in the NR process and the luminance signal 被写体判別処理において判別される領域の一例を示す図A diagram showing an example of the area determined in the subject determination process 被写体領域に応じた階調特性について説明する図Diagram for explaining the gradation characteristic according to the subject area 階調補正処理で用いる(a)ゲインテーブル、(b)ゲインMAPについて説明する図Diagram for explaining (a) gain table and (b) gain MAP used in tone correction processing (a)エッジ強調処理で用いるコアリング量と輝度信号との対応関係を示す図、(b)エッジ強調処理で用いるエッジゲインと輝度信号との対応関係を示す図(A) A diagram showing the correspondence between the coring amount and the luminance signal used in edge emphasis processing, (b) A diagram showing the correspondence between edge gain and luminance signal used in edge emphasis processing 実施形態2に係る(a)画像処理部104の機能構成例を示すブロック図、(b)NR処理部1501の機能構成例を示すブロック図(A) block diagram showing a functional configuration example of the image processing unit 104 according to the second embodiment, (b) block diagram showing a functional configuration example of the NR processing unit 1501 実施形態2に係る(a)エッジ強調処理部1502の機能構成例を示すブロック図、(b)エッジ補正部1601の機能構成例を示すブロック図(A) block diagram showing an example of functional configuration of the edge emphasizing processing unit 1502 according to the second embodiment; (b) block diagram showing an example of functional configuration of the edge correcting unit 1601 実施形態2に係る階調補正量の算出方法を説明する図A diagram for explaining a method of calculating a gradation correction amount according to the second embodiment 実施形態3に係る(a)適用される入出力特性を説明する図、(b)被写体領域と適用される入出力特性の関係を説明する図(A) A diagram for explaining input / output characteristics to be applied according to the third embodiment, (b) A diagram for explaining the relation between a subject area and the input / output characteristics to be applied 実施形態3に係る画像処理部104の機能構成例を示すブロック図Block diagram showing an example of the functional configuration of the image processing unit 104 according to the third embodiment 実施形態3に係る(a)NR処理部2101の機能構成例を示すブロック図、(b)閾値調整部2203の機能構成例を示すブロック図(A) block diagram showing a functional configuration example of the NR processing unit 2101 according to the third embodiment, (b) block diagram showing a functional configuration example of the threshold adjustment unit 2203 実施形態3に係る(a)エッジ強調処理部2102の機能構成例を示すブロック図、(b)エッジ補正部2301の機能構成例を示すブロック図(A) block diagram showing an example of functional configuration of the edge emphasizing processing unit 2102 according to the third embodiment; (b) block diagram showing an example of functional configuration of the edge correcting unit 2301 実施形態3に係る、被写体領域ごとの階調補正量の算出方法を説明する図A diagram for explaining a method of calculating a gradation correction amount for each subject area according to the third embodiment

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では画像処理装置の一例として、撮影した画像にノイズ除去処理を施すことが可能な任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、撮影機能を有するデジタルカメラに限らず、別途撮影された画像を取得してノイズ除去処理を適用可能な任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, as an example of the image processing apparatus, an example in which the present invention is applied to an arbitrary digital camera capable of performing noise removal processing on a captured image will be described. However, the present invention is not limited to a digital camera having a photographing function, and can be applied to any device to which a separately photographed image can be acquired and noise removal processing can be applied. These devices may include, for example, a mobile phone, a game console, a tablet terminal, a personal computer, and a watch-type or glasses-type information terminal.

なお、後に詳述する本発明に係る階調補正処理は、それぞれ後述する階調特性決定処理、ゲイン処理、NR処理およびエッジ強調処理を含む処理全体を指し、階調処理は、このうちNR処理およびエッジ強調処理を除いた処理を指すものとして説明する。また、本実施形態では、階調補正が最も要求される逆光時の人物シーンを想定し、人物が最も暗く、空が最も明るいシーンを想定した階調補正処理を例に説明する。但し、本発明の適用可能なシーンはこれに限定されない。   Note that tone correction processing according to the present invention, which will be described in detail later, refers to the entire processing including tone characteristic determination processing, gain processing, NR processing, and edge enhancement processing, which will be described later. And the processing other than the edge emphasis processing will be described. Further, in the present embodiment, assuming a person scene in a back light where gradation correction is most required, gradation correction processing in which a person is the darkest and the sky is the brightest is described as an example. However, the applicable scene of the present invention is not limited to this.

(デジタルカメラ100の構成)
図1は、本実施形態の画像処理装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of digital camera 100)
FIG. 1 is a block diagram showing an example of the functional configuration of a digital camera 100 as an example of an image processing apparatus according to this embodiment. Note that one or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or programmable logic array (PLA), or realized by a programmable processor such as a CPU or MPU executing software. May be Also, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as an action subject, the same hardware can be realized as the subject.

光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群であり、絞り調整装置およびシャッター装置を含む。光学系101は、撮像部102に含まれる撮像素子に結像する被写体像の倍率、合焦位置あるいは光量を調整する。撮像部102は、CCDやCMOSセンサ等の撮像素子を含み、光学系101を通過した被写体の光束を光電変換し、得られた電気信号を出力する。A/D変換部103は、入力されたアナログ信号をデジタル信号に変換して、デジタル信号の画像を出力する。   The optical system 101 is a lens group including a zoom lens and a focus lens, and includes an aperture adjustment device and a shutter device. The optical system 101 adjusts the magnification, the in-focus position, or the light amount of the subject image formed on the imaging device included in the imaging unit 102. The imaging unit 102 includes an imaging element such as a CCD or a CMOS sensor, and photoelectrically converts the light flux of the subject having passed through the optical system 101, and outputs the obtained electric signal. The A / D conversion unit 103 converts the input analog signal into a digital signal, and outputs an image of the digital signal.

画像処理部104は、A/D変換部103から出力された画像または記録部110から読み出された画像に対して、ホワイトバランス調整、γ補正などの各種画像処理を行う。また、画像処理部104は、画像に対する例えば顔検出、奥行検出、被写体像のずれ量算出等の処理を行って所定の演算値を算出し、例えばシステム制御部107に出力する。システム制御部107は画像処理部104から得られた演算値に基づいて、例えばAF(オートフォーカス)処理などを行う。さらに、画像処理部104は、後述する本発明に係る階調補正処理を行う。   The image processing unit 104 performs various image processing such as white balance adjustment and γ correction on the image output from the A / D conversion unit 103 or the image read out from the recording unit 110. Further, the image processing unit 104 performs processing such as face detection, depth detection, shift amount calculation of an object image, and the like on the image to calculate a predetermined calculation value, and outputs the calculated value to the system control unit 107, for example. The system control unit 107 performs, for example, an AF (Auto Focus) process based on the calculation value obtained from the image processing unit 104. Further, the image processing unit 104 performs tone correction processing according to the present invention described later.

露光量算出部105は、本発明に係る階調補正処理を行うために最適な入力画像を得るために、撮影時の露光量を算出する部分である。画像処理部104の処理結果を入力して、算出した露光量を露光量制御部106に出力する。   The exposure amount calculation unit 105 is a portion that calculates an exposure amount at the time of shooting in order to obtain an optimal input image for performing the tone correction processing according to the present invention. The processing result of the image processing unit 104 is input, and the calculated exposure amount is output to the exposure amount control unit 106.

露光量制御部106は、露光量算出部105によって算出された露光量を実現するために、光学系101と撮像部102を制御して、絞り、シャッタースピード、センサのアナログゲインを制御する。   The exposure amount control unit 106 controls the optical system 101 and the imaging unit 102 in order to realize the exposure amount calculated by the exposure amount calculation unit 105, and controls the aperture, the shutter speed, and the analog gain of the sensor.

システム制御部107は、例えばCPUあるいはMPUを含み、不図示のROMに格納されたプログラムを不図示のRAMの作業エリアに展開して実行することにより、デジタルカメラ100全体を制御する。また、システム制御部107は、画像処理部104から入力する演算値のほか、操作部108から送信されるユーザ指示に基づいて、光学系101や撮像部102の駆動制御を行う。   The system control unit 107 includes, for example, a CPU or an MPU, and controls the entire digital camera 100 by expanding a program stored in a ROM (not shown) into a work area of a RAM (not shown) and executing the program. Further, the system control unit 107 performs drive control of the optical system 101 and the imaging unit 102 based on a user instruction transmitted from the operation unit 108 in addition to the operation value input from the image processing unit 104.

表示部109は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイを含み、撮像部102で撮影された画像や記録部110から読み出した画像を表示する。記録部110は、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体を含む記録媒体を含み、画像の書き込みおよび読み出しを行って画像処理部104や表示部109に出力する。記録部110は着脱可能に構成されてもよい。   The display unit 109 includes a liquid crystal display and an organic EL (Electro Luminescence) display, and displays an image captured by the imaging unit 102 and an image read out from the recording unit 110. The recording unit 110 includes a recording medium including an information recording medium using a package containing a rotating recording medium such as a memory card or a magneto-optical disk mounted with a semiconductor memory, and performs image processing by writing and reading an image. Output to the unit 104 or the display unit 109. The recording unit 110 may be configured to be removable.

バス111は、デジタル信号の伝送路であり、画像処理部104、システム制御部107、表示部109および記録部110の間で例えば時分割によるデータの送受信を行う。   The bus 111 is a transmission path of digital signals, and performs data transmission and reception among the image processing unit 104, the system control unit 107, the display unit 109, and the recording unit 110 by time division, for example.

(画像処理部104の構成)
次に、画像処理部104の機能構成例について図2を参照して説明する。なお、図2において実線で示した処理の流れは、入力した画像に対して画素値の変更等の直接的な処理を行う流れ(本線系の処理ともいう)を表している。一方、点線で示した矢印は、入力画像に基づいて評価値を算出するための処理の流れ(評価値系の処理ともいう)を表している。当該表記は他のブロック図についても同様とする。
(Configuration of the image processing unit 104)
Next, a functional configuration example of the image processing unit 104 will be described with reference to FIG. The flow of processing indicated by a solid line in FIG. 2 represents a flow (also referred to as processing of a main line system) in which direct processing such as changing of a pixel value is performed on the input image. On the other hand, an arrow shown by a dotted line represents a flow of processing for calculating an evaluation value based on an input image (also referred to as processing of an evaluation value system). The same notation applies to other block diagrams.

撮像部102から出力された画像は、A/D変換部103を介して画像処理部104に入力される。入力された画像は、画像処理部104の内部の被写体判別部201に入力され、被写体判別部201は画像から被写体領域を判別する。   The image output from the imaging unit 102 is input to the image processing unit 104 via the A / D conversion unit 103. The input image is input to a subject discrimination unit 201 inside the image processing unit 104, and the subject discrimination unit 201 discriminates a subject area from the image.

階調特性決定部202は、被写体判別部201が判別した被写体領域に基づいて、階調特性を決定する。決定される階調特性は、例えば図13(a)に示すような入力信号の値に対するゲイン値の特性(ゲインテーブルともいう)である。   The gradation characteristic determination unit 202 determines the gradation characteristic based on the subject area determined by the subject determination unit 201. The gradation characteristic to be determined is, for example, the characteristic (also referred to as a gain table) of the gain value with respect to the value of the input signal as shown in FIG.

ゲインMAP生成部203は、階調特性決定部202が決定した階調特性を用いてゲインMAPを生成する。ゲインMAPは、例えば図13(b)に示すように、左上の座標を(0,0)として各座標位置における画素値がゲインを示すような画像情報である。   The gain MAP generation unit 203 generates a gain MAP using the gradation characteristic determined by the gradation characteristic determination unit 202. For example, as shown in FIG. 13B, the gain MAP is image information in which the pixel value at each coordinate position indicates the gain with the upper left coordinate set as (0, 0).

ゲイン処理部204は、ゲインMAP生成部203により生成されたゲインMAPを用いて、ゲインMAPから得られるゲイン値に応じたゲイン処理を行う。   The gain processing unit 204 performs gain processing according to the gain value obtained from the gain MAP, using the gain MAP generated by the gain MAP generation unit 203.

NR処理部205は、ゲイン処理部204によりゲイン処理された画像に対してノイズ除去処理(NR処理ともいう)を行う。NR処理部205は、NR処理の実行においてゲインMAPを参照することで、画素(領域)ごとの階調補正量に応じたNR処理を実現する。また、エッジ強調処理部206は、NR処理が行われた画像に対してエッジ強調処理を行う。エッジ強調処理部206は、NR処理部205による処理と同様に、エッジ強調処理においてゲインMAPを参照することで、画素(領域)ごとの階調補正量に応じたエッジ強調処理を実現する。   The NR processing unit 205 performs noise removal processing (also referred to as NR processing) on the image subjected to gain processing by the gain processing unit 204. The NR processing unit 205 implements the NR processing according to the gradation correction amount for each pixel (region) by referring to the gain MAP in the execution of the NR processing. Also, the edge enhancement processing unit 206 performs edge enhancement processing on the image on which the NR processing has been performed. The edge emphasis processing unit 206 realizes edge emphasis processing according to the amount of gradation correction for each pixel (area) by referring to the gain MAP in the edge emphasis processing as in the processing by the NR processing unit 205.

(画像処理部104による階調補正処理に係る一連の動作)
次に、図5を参照して、画像処理部104による階調補正処理に係る一連の動作について説明する。なお、本階調補正処理に係る一連の処理は、図2に示す各機能ブロックが対応する処理を実行する。また、図5に示す一連の動作は、例えば操作部108に対するユーザからの撮影指示により撮像素子が露光され、A/D変換部103を介して撮像部102から読み出された画像が画像処理部104に入力した時点から開始される。
(A series of operations related to gradation correction processing by the image processing unit 104)
Next, with reference to FIG. 5, a series of operations relating to the tone correction processing by the image processing unit 104 will be described. The series of processes related to the tone correction process execute processes corresponding to the respective functional blocks shown in FIG. Further, in the series of operations shown in FIG. 5, for example, the image pickup element is exposed by a photographing instruction from the user to the operation unit 108, and an image read from the image pickup unit 102 via the A / D conversion unit 103 is an image processing unit It starts from the time when it is input to 104.

S501において、被写体判別部201は、入力された画像内の被写体領域の判別を行う。例えば図11(a)に示すような被写体の構成で撮影された画像に対して、被写体判別部は、図11(b)に示すように人物の顔領域1101、人物の体領域1102、雲や太陽を含めた空領域1103およびそれ以外の背景領域1104をそれぞれ判別する。被写体領域の判別処理には、例えば特開2006−039666号公報に開示されているエッジや色情報の特徴量、ニューラルネットワークによる学習データを用いた公知の手法を用いることができる。被写体判別部201は、判別処理を完了すると被写体判別結果を階調特性決定部202に出力する。なお、被写体判別結果は、後述するように、画素位置(x,y)ごとに人物領域、空領域、背景領域である度合いを表す数値を含んでいる。これらの度合いは、例えば特徴量や学習データを用いた際の評価値に応じて設定されてもよい。   In step S501, the subject determining unit 201 determines a subject area in the input image. For example, with respect to an image captured with the configuration of the subject as shown in FIG. 11A, the subject discrimination unit makes the face region 1101 of a person, the body region 1102 of a person, a cloud and so on as shown in FIG. The sky area 1103 including the sun and the background area 1104 other than that are respectively determined. For the determination processing of the subject region, it is possible to use a known method using feature amounts of edge or color information disclosed in Japanese Patent Application Laid-Open No. 2006-039666, for example, and learning data by a neural network. When the discrimination process is completed, the subject discrimination unit 201 outputs the subject discrimination result to the gradation characteristic determination unit 202. The subject discrimination result includes, as described later, numerical values representing the degree of being a person area, a sky area, and a background area for each pixel position (x, y). These degrees may be set, for example, in accordance with the feature value or the evaluation value when learning data is used.

S502において、階調特性決定部202は、入力画像とS501において判別した被写体領域とを入力して、階調特性を決定する。なお、階調特性については、別途図12を参照して詳細に説明するが、横軸が入力信号の値、縦軸がゲイン値を表すゲインテーブルを指す。   In step S502, the gradation characteristic determination unit 202 inputs the input image and the subject region determined in step S501, and determines gradation characteristics. The gradation characteristics will be described in detail with reference to FIG. 12 separately, but the horizontal axis indicates the value of the input signal, and the vertical axis indicates the gain table representing the gain value.

なお、本撮影前の露光制御時には、算出した階調特性で階調補正処理を行うための最適な露光量を得るため、当該露光量を算出する際に算出した階調特性が必要となる。このため、階調特性決定部202は、露光制御を行っている最中には、算出した階調特性を露光量算出部105に対して出力する。また、階調特性決定部202は、本撮影時には、決定した階調特性をゲインMAP生成部203に出力して、S503に処理を進める。   Note that, at the time of exposure control before main shooting, in order to obtain an optimal exposure amount for performing tone correction processing with the calculated tone characteristics, the tone characteristics calculated at the time of calculating the exposure amount are required. Therefore, while performing the exposure control, the gradation characteristic determination unit 202 outputs the calculated gradation characteristic to the exposure amount calculation unit 105. Further, at the time of actual shooting, the gradation characteristic determination unit 202 outputs the determined gradation characteristic to the gain MAP generation unit 203, and the process proceeds to S503.

S503において、ゲインMAP生成部203は、画像処理部104に入力された画像と、S502において決定された階調特性に基づいてゲインMAPを生成する。ゲインMAPの生成方法は、本実施形態では、例えば特開2014−154108号公報に開示されているような、入力した画像をもとに生成した縮小サイズの異なる階層画像を用いる公知の方法によりゲインMAPを生成することができる。   In step S503, the gain MAP generation unit 203 generates a gain MAP based on the image input to the image processing unit 104 and the gradation characteristic determined in step S502. In this embodiment, the method of generating the gain MAP is, for example, a known method using hierarchical images of different reduction sizes generated based on an input image as disclosed in, for example, Japanese Patent Laid-Open No. 2014-154108. MAP can be generated.

S504において、ゲイン処理部204は、画像処理部104に入力された入力画像に対してゲイン処理を行う。ゲイン処理部204は、S503において生成されたゲインMAPを入力し、入力画像の各座標の画素値に対して、ゲインMAPの対応する座標のゲイン値を適用する。ゲイン処理部204は、ゲイン処理を完了するとゲイン処理を行った入力画像をNR処理部205に出力する。   In step S504, the gain processing unit 204 performs gain processing on the input image input to the image processing unit 104. The gain processing unit 204 receives the gain MAP generated in S503, and applies the gain value of the corresponding coordinate of the gain MAP to the pixel value of each coordinate of the input image. When the gain processing is completed, the gain processing unit 204 outputs the input image subjected to the gain processing to the NR processing unit 205.

S505において、NR処理部205は、S504においてゲイン処理された画像に対してNR処理を行う。NR処理部205もS503で生成されたゲインMAPを参照してNR処理を行う。NR処理の詳細については後述する。   In step S505, the NR processing unit 205 performs NR processing on the image subjected to gain processing in step S504. The NR processing unit 205 also performs NR processing with reference to the gain MAP generated in S503. Details of the NR process will be described later.

S506において、エッジ強調処理部206は、S505においてNR処理を行った画像に対してエッジ強調処理を行う。エッジ強調処理部206もS503で生成されたゲインMAPを参照してエッジ強調処理を行う。エッジ強調処理の詳細については後述する。エッジ強調処理部206はエッジ強調処理を完了するとエッジ強調処理を行った入力画像を出力し、画像処理部104は本処理の一連の動作を終了する。   In step S506, the edge enhancement processing unit 206 performs edge enhancement processing on the image subjected to the NR processing in step S505. The edge enhancement processing unit 206 also performs edge enhancement processing with reference to the gain MAP generated in S503. Details of the edge emphasis processing will be described later. When the edge enhancement processing is completed, the edge enhancement processing unit 206 outputs the input image subjected to the edge enhancement processing, and the image processing unit 104 ends the series of operations of this processing.

(階調特性決定処理)
以下、S502における階調特性決定処理について、図12を参照して説明する。
(Gradation characteristic determination processing)
The tone characteristic determination process in step S502 will be described below with reference to FIG.

本実施形態では、被写体領域別に階調特性を持たず、画像全体に共通する1つの階調特性(ゲインテーブル)を決定してゲイン処理を行う。当該1つの階調特性は、まず被写体領域別に階調特性を求めたうえで、これらの階調特性に基づいて決定される。このような1つの階調特性を用いることにより、被写体領域間の明るさのバランスを考慮した階調特性を決定することができる。   In the present embodiment, gain processing is performed by determining one tone characteristic (gain table) common to the entire image without having tone characteristics for each subject region. The one gradation characteristic is first determined based on these gradation characteristics after the gradation characteristics are determined for each subject region. By using such one gradation characteristic, it is possible to determine the gradation characteristic in consideration of the balance of brightness among the object areas.

図12(a)は、被写体領域別の階調特性を、横軸が入力信号の値、縦軸が出力信号の値をそれぞれ示す入出力特性で表したものである。点線で示す特性は、入力信号を変更しない(即ち階調補正を行わない)場合の入出力特性を示し、実線で示す特性は、それぞれ人物領域、背景領域、空領域に対する入出力特性(HUMAN_GAIN、BACK_GAIN、SKY_GAIN)を示している。本実施形態に係る各被写体領域に対する入出力特性の算出には、例えば特開2014−155001号公報に開示されているような公知の手法を用いることができるため、各入出力特性の算出方法についての説明は省略する。   FIG. 12A shows the gradation characteristics for each subject area, with input / output characteristics in which the horizontal axis represents the value of the input signal and the vertical axis represents the value of the output signal. The characteristic shown by the dotted line shows the input / output characteristic when the input signal is not changed (ie, gradation correction is not performed), and the characteristic shown by the solid line is the input / output characteristic (HUMAN_GAIN, for person area, background area and sky area) It shows BACK_GAIN and SKY_GAIN). Since the well-known method which is disclosed by Unexamined-Japanese-Patent No. 2014-155001 can be used for calculation of the input-output characteristic with respect to each to-be-photographed object area | region which concerns on this embodiment, for example Description of is omitted.

図12(b)は、図12(a)に示した被写体領域別に与える階調補正に基づいて、画像全体で共通する階調特性を決定するための2種類の入出力特性(Dレンジ優先およびコントラスト優先の入出力特性)を表している。これらの特性は、図12(a)に示す各入出力特性と、各被写体領域が多く分布する輝度範囲に基づいて生成される。入力信号の0から人物領域が多く分布する低輝度側の区間では、人物領域の入出力特性が適用され、反対に入力信号の最大値から空領域が多く分布する高輝度側の区間には空領域の入出力特性が適用される。図12(b)に示すコントラスト優先の入出力特性は、コントラストを強調するための入出力特性であり、その特徴は、図12(a)に示した人物領域の入出力特性に加え、背景領域、空領域の入出力特性の傾きを取り入れている点である。即ち、人物領域は明るさとコントラストを、背景領域および空領域はコントラストを実現することができる。   FIG. 12 (b) shows two types of input / output characteristics (D range priority and priority) for determining the gradation characteristic common to the whole image based on the gradation correction given to each subject area shown in FIG. 12 (a). Represents the input / output characteristics of contrast priority. These characteristics are generated based on each input / output characteristic shown in FIG. 12A and a luminance range in which each subject region is distributed in large numbers. The input / output characteristics of the person area are applied to the low luminance side section where many human areas are distributed from 0 of the input signal, and the sky side is the empty section where many empty areas are distributed from the maximum value of the input signal The input and output characteristics of the region apply. The contrast priority input / output characteristic shown in FIG. 12 (b) is an input / output characteristic for emphasizing the contrast, and its feature is the background area in addition to the input / output characteristic of the person area shown in FIG. 12 (a). , The slope of the input and output characteristics of the empty region. That is, the person area can realize brightness and contrast, and the background area and the sky area can realize contrast.

一方、図12(b)に示すDレンジ優先の入出力特性は、画像全体でダイナミックレンジを確保するための入出力特性である。この入出力特性の特徴は、図12(a)に示した人物領域の入出力特性と、空領域の入出力特性の2つを取り入れている点であり、人物領域と空領域の明るさとコントラストを実現できる。入力信号の0から人物領域が多く分布する低輝度側の区間では、人物領域の入出力特性を用いており、反対に最大値から空領域が多く分布する高輝度側の区間は空領域の入出力特性となっている。これらの各区間の間である中間輝度の区間は、低輝度側の人物の顔領域の入出力特性と、高輝度側の空領域の入出力特性をつなげるような特性となっている。   On the other hand, the input / output characteristic of D range priority shown in FIG. 12B is an input / output characteristic for securing a dynamic range in the entire image. The characteristic of this input / output characteristic is that the input / output characteristic of the person area shown in FIG. 12A and the input / output characteristic of the sky area are taken into consideration. The brightness and the contrast of the person area and the sky area Can be realized. The input / output characteristics of the person area are used in the low luminance side section where many human areas are distributed from 0 of the input signal, while the high luminance section where many empty areas are distributed from the maximum value is the empty area It is an output characteristic. A section of intermediate luminance, which is between these sections, is a characteristic that connects the input / output characteristic of the face area of the person on the low luminance side and the input / output characteristic of the sky area on the high luminance side.

図12(c)は、図12(b)に示す2つの階調特性を加重加算して算出した入出力特性であり、画像全体に共通して適用する1つの階調特性である。なお、図12(b)および図12(c)に示した入出力特性の算出には、例えば特開2014−153959号公報に開示されているような公知の階調算出処理を用いることができる。   FIG. 12C is an input / output characteristic calculated by weighted addition of the two gradation characteristics shown in FIG. 12B, which is one gradation characteristic commonly applied to the entire image. For the calculation of the input / output characteristics shown in FIGS. 12 (b) and 12 (c), known gradation calculation processing as disclosed in, for example, JP-A-2014-153959 can be used. .

図12(d)は、図12(c)の入出力特性に基づいて生成されたゲインテーブルを示しており、縦軸はゲイン値(階調補正量)を、横軸は入力信号をそれぞれ示す。階調特性決定部202は、図12(c)に示す入出力特性を式(1)に代入してゲイン値Gain(X)を算出し、ゲイン値Gain(X)に基づくゲインテーブルを生成する。階調特性決定部202は、ゲインテーブルの生成を終えるとゲインMAP生成部203に結果を出力して階調特性決定処理を終了する。   FIG. 12 (d) shows a gain table generated based on the input / output characteristics of FIG. 12 (c), where the vertical axis shows the gain value (tone correction amount) and the horizontal axis shows the input signal. . The gradation characteristic determination unit 202 substitutes the input / output characteristic shown in FIG. 12C into the equation (1) to calculate the gain value Gain (X), and generates a gain table based on the gain value Gain (X). . When generation of the gain table is completed, the gradation characteristic determination unit 202 outputs the result to the gain MAP generation unit 203 and ends the gradation characteristic determination processing.

Figure 0006514504
Figure 0006514504

(NR処理の概要)
次に、S505におけるNR処理について、より詳細に説明する。
(Outline of NR processing)
Next, the NR process in S505 will be described in more detail.

NR処理は、入力画像に対する閾値付き平均値処理および、閾値付き平均値処理後の画像と入力画像とを合成する画像合成処理の2つの処理から構成される。閾値付き平均値処理は、処理対象画素と相関が強い周辺画素を用いるようにした平均値の算出処理であり、解像感を保持しつつノイズを低減することができる。本実施形態では、閾値付き平均値処理として、例えば式(2)で表すMTM(Modified Trimmed Mean)フィルタを入力画像に適用する。なお、THは閾値、Nは参照画素の範囲、Wはフィルタ係数、pixはフィルタ前の画素値を表し、out_pixをフィルタ後の処理対象画素を指す。また、処理対象画素の座標を(i,j)で表す。   The NR process is composed of two processes: a thresholded average value process for an input image, and an image combining process for combining the image after the thresholded average value process and the input image. The thresholded average value process is an average value calculation process in which peripheral pixels having a strong correlation with the processing target pixel are used, and noise can be reduced while maintaining a sense of resolution. In the present embodiment, as the thresholded average value processing, for example, an MTM (Modified Trimmed Mean) filter represented by Expression (2) is applied to the input image. Note that TH is a threshold, N is a range of reference pixels, W is a filter coefficient, pix is a pixel value before filtering, and out_pix is a pixel to be processed after filtering. Further, the coordinates of the processing target pixel are represented by (i, j).

Figure 0006514504
Figure 0006514504

一方、式(2)で示した平均値処理のみを適用して画像を生成する場合、ノイズ低減の効果が領域に応じて異なるため、画像内に不自然なムラが残り得る。このような画像内のムラの発生を防止するため、式(2)に示す平均値処理後の画像と平均値処理前の画像とを合成する画像合成処理を行う。NR処理部205は、式(3)に従って、各画像の同一座標の画素値を加重加算し、自然なNR処理後の画像を生成する。なお、prepixは平均値処理前の画素値、postpixは平均値処理後の画素値、zは平均値処理後の画像に対する加重加算係数を表す。また、処理対象画素の座標を(i,j)で表す。   On the other hand, when an image is generated by applying only the average value processing shown in Equation (2), since the effect of noise reduction differs depending on the region, unnatural unevenness may remain in the image. In order to prevent the occurrence of such unevenness in the image, an image combining process is performed to combine the image after the average value processing shown in Equation (2) with the image before the average value processing. The NR processing unit 205 performs weighted addition of pixel values at the same coordinates of each image according to Equation (3), and generates a natural NR-processed image. Note that prepix is a pixel value before average value processing, postpix is a pixel value after average value processing, and z is a weighted addition coefficient to the image after average value processing. Further, the coordinates of the processing target pixel are represented by (i, j).

Figure 0006514504
Figure 0006514504

式(2)に示した閾値付き平均値処理の閾値THと、式(3)に示した画像合成処理の加重加算係数zの値は、例えば図10(a)および図10(b)に示す特性を持つようにしてもよい。それぞれの図の横軸は、ともに処理対象の画素位置(i,j)の画素値(ここでは輝度信号)を表している。また、図10(a)の縦軸は閾値THの値を、図10(b)の縦軸は画像合成処理の加重加算係数zの値をそれぞれ表している。例えば、閾値THは画素値(ここでは輝度信号)に対して対数関数のカーブで表わされる特性を示し、加重加算係数zは画素値に対して逆ガンマ特性のカーブで表される特性を示している。   The threshold value TH of the thresholded average value process shown in the equation (2) and the value of the weighted addition coefficient z of the image combining process shown in the equation (3) are shown, for example, in FIGS. 10 (a) and 10 (b). You may make it have a characteristic. The horizontal axes of the respective drawings each represent a pixel value (here, a luminance signal) of the pixel position (i, j) to be processed. The vertical axis in FIG. 10A represents the value of the threshold TH, and the vertical axis in FIG. 10B represents the value of the weighted addition coefficient z of the image combining process. For example, the threshold TH indicates a characteristic represented by a logarithmic function curve with respect to a pixel value (here, luminance signal), and the weighted addition coefficient z indicates a characteristic represented by a curve with an inverse gamma characteristic with respect to the pixel value. There is.

(NR処理に係る一連の動作)
上述したように、階調補正量が大きい場合には、階調補正処理によってノイズが増幅される影響が現れる。このため、階調補正量に応じて閾値付き平均値処理の閾値THと画像合成処理の加重加算係数zの値を適宜調整する必要がある。以下では、図6および図7を参照してNR処理の一連の動作を説明しながら、閾値THの算出処理と加重加算係数zの値の算出処理について説明する。なお、図6に示すNR処理の一連の動作は、図3(a)および(b)に示す各機能ブロックが動作主体として対応する処理を実行することで実現される。このため、図6に示す各ステップの説明においてはこれらの各動作主体を適宜参照しながら説明する。また、図3(a)に示す実線および点線で示した矢印は、図2と同様にそれぞれ本線系の処理および評価値系の処理の流れを示している。
(A series of operations related to NR processing)
As described above, when the gradation correction amount is large, the influence of amplification of noise by the gradation correction processing appears. Therefore, it is necessary to appropriately adjust the threshold value TH of the threshold value-based average value processing and the value of the weighted addition coefficient z of the image combining processing according to the gradation correction amount. Hereinafter, the process of calculating the threshold TH and the process of calculating the value of the weighted addition coefficient z will be described while describing a series of operations of the NR process with reference to FIGS. 6 and 7. Note that a series of operations of the NR process shown in FIG. 6 are realized by executing processes corresponding to the respective functional blocks shown in FIGS. 3A and 3B. Therefore, in the description of each step shown in FIG. Further, arrows shown by solid lines and dotted lines shown in FIG. 3A indicate flows of processing of the main line system and processing of the evaluation value system, as in FIG.

また、NR処理部205は、処理対象画素の位置(x,y)を順次変更して全ての画素に対して以下に説明する処理を行う。   In addition, the NR processing unit 205 sequentially changes the position (x, y) of the processing target pixel and performs the processing described below on all the pixels.

S601において、NR処理部205は、処理対象の画素位置(x,y)を始点(0,0)に初期化する。   In step S601, the NR processing unit 205 initializes the pixel position (x, y) to be processed to the start point (0, 0).

S602において、閾値付き平均値処理を行うための閾値TH(x,y)を、式(2)に基づいて算出する。本ステップに係る閾値TH(x,y)の算出処理(閾値算出処理ともいう)については、さらに図7(a)を参照して説明する。なお、本ステップに係る閾値算出処理は、輝度別閾値算出部301と、図3(b)に示す閾値調整部302がそれぞれ対応する処理を実行することにより実現される。   In S602, a threshold TH (x, y) for performing thresholded average value processing is calculated based on Expression (2). The calculation process (also referred to as a threshold calculation process) of the threshold TH (x, y) according to this step will be further described with reference to FIG. 7 (a). The threshold calculation process according to this step is realized by executing processes respectively corresponding to the brightness-based threshold calculation unit 301 and the threshold adjustment unit 302 shown in FIG. 3B.

S701において、輝度別閾値算出部301は、処理対象の画素位置(x,y)の入力信号に基づいて、輝度別閾値TH_y(x,y)を算出する。本実施形態において、輝度別閾値算出部301は、図10(a)に示した特性を参照して輝度別閾値TH_y(x,y)を算出する。即ち、輝度別閾値算出部301は、全ての画素位置(x,y)の輝度信号Yについて、対応するTH_yを取得する。   In S701, the by-luminance threshold calculation unit 301 calculates by-luminance threshold TH_y (x, y) based on an input signal of the pixel position (x, y) to be processed. In the present embodiment, the luminance-based threshold calculation unit 301 calculates the luminance-based threshold TH_y (x, y) with reference to the characteristics shown in FIG. That is, the threshold calculation unit for each luminance 301 obtains corresponding TH_y for luminance signals Y at all pixel positions (x, y).

S702において、閾値調整部302は、S701で算出した輝度別閾値TH_y(x,y)、S502において決定された階調補正量および被写体判別結果を入力して、階調補正量および被写体領域を反映させた閾値TH (x,y)を算出する。なお、本処理を閾値調整処理ともいう。   In step S702, the threshold adjustment unit 302 receives the threshold TH_y (x, y) for luminance calculated in step S701, the gradation correction amount determined in step S502, and the subject discrimination result, and reflects the gradation correction amount and the subject area. The calculated threshold value TH (x, y) is calculated. This process is also referred to as threshold adjustment process.

閾値調整部302による閾値調整処理を、図7(b)を参照してより詳細に説明する。なお、閾値調整部302は、図3(b)に示すように、信頼度算出部310、階調補正量調整部311および被写体別調整部312から構成され、1点鎖線の枠内はそれぞれ階調補正量調整部311、被写体別調整部312の内部をさらに表している。   The threshold adjustment processing by the threshold adjustment unit 302 will be described in more detail with reference to FIG. 7 (b). As shown in FIG. 3B, the threshold adjustment unit 302 includes a reliability calculation unit 310, a gradation correction amount adjustment unit 311, and a subject-by-subject adjustment unit 312. The inside of the tone correction amount adjustment unit 311 and the subject-by-subject adjustment unit 312 is further illustrated.

S703において、階調補正量調整部311は、処理対象の画素位置(x,y)の階調補正量Gain(x,y)を取得する。本実施形態では、階調補正量Gain(x,y)は、式(4)に示すように、対応するゲインMAPの画素位置(x,y)を参照して階調補正量を取得する。ここで、GainMap(x,y)はゲインMAPの処理対象の画素位置(x,y)の値を表す。   In S703, the gradation correction amount adjustment unit 311 acquires the gradation correction amount Gain (x, y) of the pixel position (x, y) to be processed. In the present embodiment, the gradation correction amount Gain (x, y) acquires the gradation correction amount with reference to the pixel position (x, y) of the corresponding gain MAP as shown in the equation (4). Here, GainMap (x, y) represents the value of the pixel position (x, y) for which the gain MAP is to be processed.

Figure 0006514504
Figure 0006514504

S704において、階調補正量調整部311は、入力された閾値TH_y(x,y)に対して、式(5)に示す階調補正量Gain(x,y)および固定パラメータkを乗算することにより、閾値TH_g(x,y)を算出する。ここで、固定パラメータkは、階調補正量Gain(x,y)を反映する量を調整するためのパラメータであり、予め実験等によって求めた階調補正量に対して最適な値を用いればよい。   In S704, the gradation correction amount adjustment unit 311 multiplies the input threshold value TH_y (x, y) by the gradation correction amount Gain (x, y) and the fixed parameter k shown in Expression (5). Thus, the threshold TH_g (x, y) is calculated. Here, the fixed parameter k is a parameter for adjusting the amount of reflecting the gradation correction amount Gain (x, y), and if an optimum value is used for the gradation correction amount previously obtained by experiment etc. Good.

Figure 0006514504
Figure 0006514504

このように、階調補正量が大きいほど閾値が大きくなるように閾値を算出する。このような閾値を算出すれば、階調補正量が大きいほど、式(2)に示す平均化において輝度差の大きな画素を含むように画素が選択される。すなわち、階調補正量の大きさに応じて平均化される画素値の幅あるいは画素数を変動させることができ、階調補正量の大きさに応じてノイズ除去の強度を変更することができる。   As described above, the threshold value is calculated such that the threshold value increases as the gradation correction amount increases. If such a threshold value is calculated, pixels are selected so as to include pixels having a large luminance difference in the averaging shown in equation (2) as the gradation correction amount is larger. That is, the width or the number of pixels of the pixel value to be averaged can be changed according to the magnitude of the gradation correction amount, and the noise removal intensity can be changed according to the magnitude of the gradation correction amount .

S705において、信頼度算出部310は、S501において算出された被写体判別結果dis(x,y)を取得して、各被写体領域である可能性を示す信頼度を算出する。本実施形態では、被写体判別結果dis(x,y)は、空領域度合、背景領域度合、人物領域度合を示し、度合を0から1023までの値で表わされる。信頼度算出部310は、被写体判別結果dis(x,y)を正規化することにより、各画像位置(x,y)について式(6)を満たす人物領域の信頼度をα、背景領域の信頼度をβ、空領域の信頼度をγとする各信頼度を算出する。   In step S705, the reliability calculation unit 310 obtains the subject determination result dis (x, y) calculated in step S501, and calculates the reliability indicating the possibility of each subject region. In the present embodiment, the subject determination result dis (x, y) indicates the sky area degree, the background area degree, and the person area degree, and the degree is represented by a value from 0 to 1023. The reliability calculation unit 310 normalizes the subject discrimination result dis (x, y) to obtain the reliability of the human region satisfying equation (6) for each image position (x, y) α, and the reliability of the background region. Each degree of reliability is calculated, where the degree is β and the reliability of the empty area is γ.

Figure 0006514504
Figure 0006514504

なお、本実施形態では3つの被写体領域の信頼度を算出しているが、人物領域を顔領域と体領域とに区別して、顔領域および体領域の信頼度をそれぞれ算出しても良い。   Although the reliability of the three subject areas is calculated in the present embodiment, the human area may be divided into the face area and the body area, and the reliability of the face area and the body area may be calculated.

S706において、被写体別調整部312は、S704で算出された閾値TH_g(x,y)に対して各被写体領域用の調整パラメータ(即ち重み付け)を反映させ、被写体領域ごとの閾値を算出する。本実施形態では、式(7)のように人物領域の閾値TH_human(x,y)、背景領域の閾値TH_back(x,y)、空領域の閾値TH_sky(x,y)を算出する。なお、human_adj、back_adj、sky_adjはそれぞれ、人物領域、背景領域、空領域用の調整パラメータである。   In S706, the by-subject adjustment unit 312 reflects the adjustment parameter (that is, weighting) for each subject area on the threshold TH_g (x, y) calculated at S704, and calculates the threshold for each subject area. In the present embodiment, the threshold TH_human (x, y) of the person area, the threshold TH_back (x, y) of the background area, and the threshold TH_sky (x, y) of the sky area are calculated as in equation (7). Note that human_adj, back_adj, and sky_adj are adjustment parameters for a person area, a background area, and a sky area, respectively.

Figure 0006514504
Figure 0006514504

このように各々の被写体領域用の調整パラメータを反映させることにより、同じ階調補正量においても被写体領域ごとに適用する閾値を調整することができる。具体的には、人物領域および空領域では、背景領域に比べてNR処理の強度を強めつつ、エッジ強調の強度を弱めるように調整することにより、人物領域および空領域ではノイズが少なく、背景領域では解像感の高い、印象の良い画像を生成することができる。なお、本実施形態では、3つの被写体領域の調整パラメータを用いて閾値を算出したが、人物領域を顔領域と体領域に分け、4つの調整パラメータで閾値を算出しても良い。   As described above, by reflecting the adjustment parameter for each subject area, it is possible to adjust the threshold applied to each subject area even with the same gradation correction amount. Specifically, in the person area and the sky area, noise is reduced in the person area and the sky area by making adjustments so as to weaken the intensity of the edge enhancement while increasing the strength of the NR process compared to the background area. In this case, it is possible to generate an impressive image with high resolution. In the present embodiment, the threshold is calculated using the adjustment parameters of the three subject areas, but the human area may be divided into the face area and the body area, and the threshold may be calculated using four adjustment parameters.

S707において、被写体別調整部312は、S705で算出された各被写体領域の信頼度と、S706で算出した各被写体領域の閾値に基づいて、最終的な閾値TH(x,y)を算出する。本実施形態では、式(8)のように加重平均をとることにより閾値TH(x,y)を算出する。ここで、TH_human(x,y)、TH_back(x,y)、TH_sky(x,y)は、それぞれ人物領域、背景領域、空領域の閾値であり、α、β、γはそれぞれ人物領域、背景領域、空領域の信頼度である。   In step S707, the adjustment unit for each subject 312 calculates a final threshold TH (x, y) based on the reliability of each subject area calculated in step S705 and the threshold value of each subject area calculated in step S706. In the present embodiment, the threshold TH (x, y) is calculated by taking a weighted average as shown in equation (8). Here, TH_human (x, y), TH_back (x, y), and TH_sky (x, y) are the person area, background area, and sky area thresholds, respectively, and α, β, and γ are person area and background, respectively. It is the reliability of the area and the empty area.

Figure 0006514504
Figure 0006514504

このように、階調補正量に応じた閾値を、信頼度に応じて調整することで、さらに被写体領域に応じて、式(2)において平均化される画素値の幅あるいは画素数を変動させることができ、被写体領域に応じてノイズ除去の強度を変更することができる。   As described above, by adjusting the threshold according to the gradation correction amount according to the reliability, the width or the number of pixels of the pixel value averaged in equation (2) is changed according to the subject area. It is possible to change the noise removal intensity according to the subject area.

閾値調整部302は、閾値調整処理を完了すると、読出し元であるS602に処理を戻す。   When the threshold adjustment process is completed, the threshold adjustment unit 302 returns the process to S602 that is the read source.

S603において、平均値処理部303は、S602で算出した閾値TH(x,y)を用いて、式(2)に基づく閾値付き平均値処理を実行し、処理後の入力画像を合成処理部306に出力する。   In S603, the average value processing unit 303 executes thresholded average value processing based on Expression (2) using the threshold value TH (x, y) calculated in S602, and combines the processed input image with the combination processing unit 306. Output to

S604において、輝度別加重加算係数算出部304および加重加算係数調整部305は、式(3)に基づく画像合成処理を行うための加重加算係数zを算出する。加重加算係数zの算出方法は、NR処理の閾値TH(x,y)の算出方法と同様に、階調補正量および被写体判別結果を用いて算出することができるため、詳細な説明は省略する。なお、加重加算係数の算出においては、上記閾値の算出方法における閾値部分を加重加算係数に置き換えて、閾値TH(x,y)と同様に、画素位置(x,y)に応じた加重加算係数z(x,y)を算出する。まず輝度別加重加算係数算出部304は、図10(b)に示す加重加算係数を参照して輝度別加重加算係数を算出する。そして加重加算係数調整部305は、更に階調補正量Gain(x,y)、被写体領域用の調整パラメータおよび各被写体領域の信頼度(あるいは被写体判別結果)を用いて加重加算係数z(x,y)を算出すればよい。   In S604, the luminance-based weighted addition coefficient calculation unit 304 and the weighted addition coefficient adjustment unit 305 calculate a weighted addition coefficient z for performing the image combining process based on Expression (3). The method of calculating the weighted addition coefficient z can be calculated using the gradation correction amount and the object discrimination result as in the method of calculating the threshold value TH (x, y) of the NR process, and thus detailed description will be omitted. . In addition, in the calculation of the weighted addition coefficient, the threshold value part in the above calculation method of the threshold value is replaced with the weighted addition coefficient, and the weighted addition coefficient according to the pixel position (x, y) is similar to the threshold value TH (x, y) Calculate z (x, y). First, the luminance-based weighted addition coefficient calculation unit 304 calculates the luminance-based weighted addition coefficient with reference to the weighted addition coefficient shown in FIG. The weighted addition coefficient adjustment unit 305 further uses the gradation correction amount Gain (x, y), the adjustment parameter for the subject region, and the reliability of each subject region (or the result of the subject determination) to add the weighted addition coefficient z (x, y) should be calculated.

S605において、合成処理部306は、S604で算出された加重加算係数z(x,y)(単にzとも表す)を用いて、式(3)に基づいて平均値処理前の画素値と平均値処理後の画素値を合成して画像合成処理を行う。合成処理部306は、NR処理の結果として合成後の画素値を出力する。   In step S605, the composition processing unit 306 uses the weighted addition coefficient z (x, y) (also simply referred to as z) calculated in step S604 to calculate the pixel value and the average value before the average value processing based on equation (3). Image composition processing is performed by combining the pixel values after processing. The composition processing unit 306 outputs the pixel value after composition as a result of the NR process.

S606において、NR処理部205は、上述したS602〜S605の処理を画像の全ての画素に対して行うため、全ての画素について処理を行ったかを判定する。NR処理部205は、全ての画素に対する処理を完了していない場合には、再びS602に処理を戻すためにS607に処理を進め、全ての画素に対して処理を完了している場合には、本処理に係る一連の動作を完了する。   In step S606, the NR processing unit 205 determines whether processing has been performed on all pixels in order to perform the processing of steps S602 to S605 described above on all pixels of the image. If the NR processing unit 205 has not completed the processing for all the pixels, it proceeds the processing to S607 to return the processing to S602 again, and if the processing has been completed for all the pixels, A series of operations related to this process are completed.

S607において、NR処理部205は、処理対象の画素位置(x,y)を更新して、再びS602から一連の動作を実行する。   In S607, the NR processing unit 205 updates the pixel position (x, y) to be processed, and executes the series of operations from S602 again.

(エッジ強調処理)
次に、S507に示したエッジ強調処理についてより詳細に説明する。本実施形態に係るエッジ強調処理は、まず入力画像から高周波成分を抽出したAC信号と高周波成分を除いたDC信号とを生成し、さらに生成したAC信号およびDC信号に別々の信号処理を行ったうえで、これらの信号を加算した画像を生成する。
(Edge emphasis processing)
Next, the edge emphasizing process shown in S507 will be described in more detail. In the edge enhancement processing according to the present embodiment, first, an AC signal obtained by extracting a high frequency component from an input image and a DC signal obtained by removing the high frequency component are generated, and separate signal processing is performed on the generated AC signal and DC signal. In addition, an image is generated by adding these signals.

以下では、図8および図9を参照してエッジ強調処理の一連の動作を説明しながら、各信号の生成処理やエッジ補正処理について説明する。なお、図8に示すエッジ強調処理の一連の動作は、図4(a)および(b)に示す各機能ブロックが動作主体として対応する処理を実行することで実現される。このため、図8に示す各ステップの説明においてはこれらの各動作主体を適宜参照しながら説明する。また、図4(a)に示す実線および点線で示した矢印は、図2と同様にそれぞれ本線系の処理および評価値系の処理の流れを示している。   In the following, generation processing of each signal and edge correction processing will be described while describing a series of operations of the edge enhancement processing with reference to FIG. 8 and FIG. Note that a series of operations of the edge enhancement process shown in FIG. 8 are realized by executing processes corresponding to the respective functional blocks shown in FIGS. 4A and 4B. Therefore, in the description of each step shown in FIG. Further, arrows shown by solid lines and dotted lines shown in FIG. 4A indicate flows of processing of the main line system and processing of the evaluation value system, as in FIG.

また、エッジ強調処理部206は、処理対象画素の位置(x,y)を順次変更して全ての画素に対して以下に説明する処理を行う。   Also, the edge emphasis processing unit 206 sequentially changes the position (x, y) of the processing target pixel and performs the processing described below on all the pixels.

S801において、エッジ強調処理部206は、例えば入力画像の左上の画素の座標を始点とするため処理対象の画素位置(x,y)を(0,0)に初期化する。   In step S801, the edge emphasis processing unit 206 initializes the pixel position (x, y) to be processed to (0, 0), for example, in order to set the coordinates of the upper left pixel of the input image as the start point.

S802において、AC・DC信号生成部401は、入力画像の信号in(x,y)に基づいて、高周波成分を抽出したAC信号AC_in(x,y)と高周波成分を除いたDC信号DC_in(x,y)を生成する。AC・DC信号生成部401は、信号の生成方法について、例えば特開2012−39603号公報に開示されているような公知のバンドパスフィルタを用いた手法を用いることができる。このため、信号の生成方法についての詳細な説明は省略する。   In step S802, the AC / DC signal generation unit 401 extracts an AC signal AC_in (x, y) from which the high frequency component is extracted based on the signal in (x, y) of the input image, and a DC signal DC_in (x) from which the high frequency component is removed. , y). The AC / DC signal generation unit 401 can use, for example, a method using a known band pass filter as disclosed in JP 2012-39603 A as a signal generation method. Therefore, the detailed description of the signal generation method is omitted.

S803において、エッジ補正部403は、S802で生成したAC信号AC_in(x,y)を入力してエッジ補正処理を行った信号AC_out(x,y)を算出する。エッジ補正処理については後述する。   In step S803, the edge correction unit 403 receives the AC signal AC_in (x, y) generated in step S802 and calculates a signal AC_out (x, y) subjected to the edge correction process. The edge correction processing will be described later.

S804において、γ処理部402は、S802で生成したDC信号DC_in(x,y)を入力してγ処理を行った信号DC_out(x,y)を算出する。γ処理は、信号値を表示系の特性に合わせるための公知の方法を用いることができ、γ処理部402は、例えばγ特性のカーブによってm+nビットからmビットに圧縮する処理(m,n≧0)を行う。   In step S804, the γ processing unit 402 receives the DC signal DC_in (x, y) generated in step S802 and calculates a signal DC_out (x, y) subjected to the γ processing. The γ processing can use a known method for matching the signal value to the characteristics of the display system, and the γ processing unit 402 performs processing for compressing m + n bits to m bits according to, for example, a curve of γ characteristics (m, Do n ≧ 0).

S805において、信号加算部404は、S803で算出されたAC_out(x,y)とS804で算出されたDC_out(x,y)を加算して、エッジ強調処理後の信号out(x,y)を生成する。   In step S805, the signal addition unit 404 adds the AC_out (x, y) calculated in step S803 and the DC_out (x, y) calculated in step S804, and outputs the signal out (x, y) after edge enhancement processing. Generate

S806において、エッジ強調処理部206は、画像の全ての画素に対してS805までの処理を完了したかを判定する。全ての画素に対する処理を完了している場合、エッジ強調処理に係る一連の動作を終了し、一方、全ての画素に対する処理を完了していない場合はS807に処理を進める。   In step S806, the edge emphasis processing unit 206 determines whether the processing up to step S805 has been completed for all the pixels of the image. If the processing for all the pixels is completed, the series of operations related to the edge enhancement processing is ended, while if the processing for all the pixels is not completed, the processing proceeds to S807.

S807において、エッジ強調処理部206は、処理対象の画素位置(x,y)を更新して再びS802に処理を進める。   In step S807, the edge emphasis processing unit 206 updates the pixel position (x, y) to be processed, and the process proceeds to step S802 again.

(エッジ補正処理の概要)
次に、上述したS803におけるエッジ補正処理について説明する。本実施形態におけるエッジ補正処理では、エッジコアリング処理とエッジゲイン処理とを行う。なお、本実施形態では、エッジ強調によって発生するノイズ成分を低減するコアリング処理を適用するにあたって、例えば特開2011−49965号公報に開示されるようなエッジコアリング処理を行う。より具体的には、高周波信号に含まれる微小なノイズ成分をカットするために、式(9)を用いて入力信号から算出したコアリング量を減算する。なお、BCはコアリング量、AC_inは入力信号、AC_BCはコアリング処理後の信号である。
(Outline of edge correction processing)
Next, the edge correction processing in step S803 described above will be described. In the edge correction processing in the present embodiment, edge coring processing and edge gain processing are performed. In addition, in this embodiment, when applying the coring process which reduces the noise component generate | occur | produced by edge emphasis, the edge coring process which is disclosed by Unexamined-Japanese-Patent No. 2011-49965, for example is performed. More specifically, in order to cut off a minute noise component included in the high frequency signal, the coring amount calculated from the input signal using Expression (9) is subtracted. Here, BC is a coring amount, AC_in is an input signal, and AC_BC is a signal after coring processing.

Figure 0006514504
Figure 0006514504

また、エッジゲイン処理では、式(10)を用いてコアリング処理後の高周波信号にゲインを乗算して高周波信号を強調する。AC_BCはコアリング処理後の信号、AC_outはエッジのゲイン処理後の信号、APCGainはエッジのゲイン量である。   Further, in the edge gain processing, the high frequency signal after the coring processing is multiplied by the gain using the equation (10) to emphasize the high frequency signal. AC_BC is a signal after coring processing, AC_out is a signal after edge gain processing, and APCGain is an edge gain amount.

Figure 0006514504
Figure 0006514504

式(9)のエッジコアリング処理のコアリング量BCと式(10)のエッジゲイン処理のゲイン量APC_Gainの値は、それぞれ図14(a)および(b)で表される。なお、図14の横軸は入力信号(CD信号から生成した輝度信号Y)の値を、縦軸はそれぞれコアリング量およびエッジゲイン値を示している。エッジコアリング処理のコアリング量BCは、例えば図14(a)に示すように対数関数のカーブで表され、画像合成処理の加重加算係数APC_Gainは図14(b)のように逆ガンマ特性のカーブで表される。   The values of the coring amount BC of the edge coring processing of equation (9) and the gain amount APC_Gain of the edge gain processing of equation (10) are represented by FIGS. 14 (a) and (b), respectively. The horizontal axis in FIG. 14 indicates the value of the input signal (luminance signal Y generated from the CD signal), and the vertical axis indicates the coring amount and the edge gain value, respectively. The coring amount BC of the edge coring processing is represented by, for example, a curve of a logarithmic function as shown in FIG. 14 (a), and the weighted addition coefficient APC_Gain of the image combining processing has an inverse gamma characteristic as shown in FIG. 14 (b). Represented by a curve.

(エッジ補正処理に係る一連の動作)
さらに、本実施形態に係るエッジ補正処理の一連の動作について、図9を参照して説明する。本実施形態では、階調補正処理によりノイズが増幅する影響があるため、階調補正量に応じて式(9)のエッジコアリング処理のコアリング量BCおよび、式(10)のエッジゲイン処理のゲイン量APC_Gainの値を制御する。
(A series of operations related to edge correction processing)
Furthermore, a series of operations of the edge correction process according to the present embodiment will be described with reference to FIG. In the present embodiment, since the noise is affected by the tone correction processing, the coring amount BC of the edge coring processing of equation (9) and the edge gain processing of equation (10) according to the tone correction amount. Control the value of the gain amount APC_Gain of

以下では、エッジ補正処理の一連の動作を説明しながら、コアリング量の算出処理とエッジゲイン処理におけるゲイン量の算出処理について説明する。なお、図9に示すエッジ補正処理の一連の動作は、図4(a)および(b)に示す各機能ブロックが動作主体として対応する処理を実行することで実現される。このため、図9に示す各ステップの説明においてはこれらの各動作主体を適宜参照しながら説明する。また、図4(a)および(b)に示す実線および点線で示した矢印は、図2と同様にそれぞれ本線系の処理および評価値系の処理の流れを示している。   Hereinafter, the process of calculating the amount of coring and the process of calculating the amount of gain in the edge gain process will be described while describing a series of operations of the edge correction process. The series of operations of the edge correction process shown in FIG. 9 are realized by executing processes corresponding to the respective functional blocks shown in FIGS. 4A and 4B. Therefore, in the description of each step shown in FIG. 9, the description will be made by appropriately referring to each of these operation subjects. Further, arrows shown by solid lines and dotted lines shown in FIGS. 4A and 4B indicate the flows of the processing of the main line system and the processing of the evaluation value system, as in FIG.

S901において、輝度別コアリング量算出部411およびコアリング量調整部412は、式(9)のエッジコアリング処理に用いるコアリング量BC(x,y)を算出する。コアリング量BC(x,y)の算出については、上述したNR処理の閾値TH(x,y)の算出方法と同様に行うことができる。例えば、まず輝度別コアリング量算出部411が、図14(a)に示すコアリング量を参照して輝度別のコアリング量を算出する。そして、コアリング量調整部412が、階調補正量Gain(x,y)、被写体領域用の調整パラメータおよび各被写体領域の信頼度(あるいは被写体判別結果)を用いて加重平均されたコアリング量BC(x,y)を得ればよい。   In S901, the luminance-based coring amount calculation unit 411 and the coring amount adjustment unit 412 calculate a coring amount BC (x, y) used for the edge coring processing of Expression (9). The calculation of the coring amount BC (x, y) can be performed in the same manner as the calculation method of the threshold value TH (x, y) of the NR processing described above. For example, the coring amount by luminance calculating unit 411 calculates the coring amount by luminance with reference to the coring amount illustrated in FIG. Then, the coring amount adjustment unit 412 performs weighted averaging using the gradation correction amount Gain (x, y), the adjustment parameter for the subject area, and the reliability of each subject area (or the result of the subject determination). It suffices to obtain BC (x, y).

S902において、コアリング処理部413は、入力したAC信号AC_in(x,y)に対してエッジコアリング処理を行い、コアリング処理後の信号AC_BC(x,y)を出力する。具体的には、AC信号とS901で算出されたコアリング量BC(x,y)とを用いて、式(9)に従うエッジコアリング処理を行ってAC_BC(x,y)をゲイン乗算部416に出力する。   In S902, the coring processing unit 413 performs edge coring processing on the input AC signal AC_in (x, y), and outputs a signal AC_BC (x, y) after the coring processing. Specifically, edge coring processing according to equation (9) is performed using an AC signal and the coring amount BC (x, y) calculated in step S901 to obtain AC_BC (x, y) as a gain multiplication unit 416. Output to

S903において、輝度別エッジゲイン算出部414およびエッジゲイン調整部415は、エッジゲイン処理に用いる(即ち式(10)で用いる)ゲイン量APCGain(x,y)を算出する。なお、エッジゲイン処理のゲイン量APCGain(x,y)の算出についても、NR処理の閾値TH(x,y)の算出方法と同様に行うことができる。例えば、まず輝度別エッジゲイン算出部414は、図14(a)に示すエッジゲインを参照して輝度別エッジゲインを算出する。さらにエッジゲイン調整部415は、階調補正量Gain(x,y)、被写体領域用の調整パラメータおよび各被写体領域の信頼度(あるいは被写体判別結果)を用いて加重平均されたAPCGain(x,y)を算出すればよい。   In step S 903, the luminance edge gain calculator 414 and the edge gain adjuster 415 calculate a gain amount APCGain (x, y) used for edge gain processing (that is, used in equation (10)). The calculation of the gain amount APCGain (x, y) of the edge gain processing can also be performed in the same manner as the calculation method of the threshold value TH (x, y) of the NR processing. For example, first, the luminance-based edge gain calculation unit 414 calculates the luminance-based edge gain with reference to the edge gain illustrated in FIG. Further, the edge gain adjustment unit 415 performs weighted averaging of APCGain (x, y) using the gradation correction amount Gain (x, y), the adjustment parameter for the subject area, and the reliability of each subject area (or the result of the subject determination). ) Should be calculated.

このように、階調補正量が大きいほどエッジゲイン処理のゲイン量が大きくなるように当該処理のゲイン量を算出する。このようなゲイン量を算出すれば、階調補正量が大きいほど、式(10)に示す先鋭化において大きなゲインが与えられる。すなわち、階調補正量の大きさに応じてエッジの補正量を変動させることができ、階調補正量の大きさに応じてエッジ強調の強度を変更することができる。さらに、階調補正量に応じたエッジの補正量を、信頼度に応じて調整することで、さらに被写体領域に応じてエッジの補正量を変動させることができ、被写体領域に応じてエッジ強調の強度を変更することができる。   Thus, the gain amount of the processing is calculated so that the gain amount of the edge gain processing becomes larger as the gradation correction amount is larger. If such a gain amount is calculated, the larger the gradation correction amount is, the larger the gain is given in the sharpening shown in the equation (10). That is, the edge correction amount can be varied according to the magnitude of the gradation correction amount, and the strength of the edge enhancement can be changed according to the magnitude of the gradation correction amount. Furthermore, by adjusting the edge correction amount according to the gradation correction amount according to the reliability, the edge correction amount can be further varied according to the subject area, and edge enhancement is performed according to the subject area. The strength can be changed.

S904において、ゲイン乗算部416は、S902で算出されたAC_BC(x,y)とS903で算出されたゲイン量APCGain(x,y)とを用いて、式(10)に従うエッジゲイン処理を行う。ゲイン乗算部416は、エッジゲイン処理後(補正後)の信号AC_out(x,y)をエッジ補正処理後の信号として出力する。エッジ補正部403は、当該補正後のAC信号が出力されるとエッジ補正処理に係る一連の処理を終了する。   In step S904, the gain multiplication unit 416 performs edge gain processing according to equation (10) using AC_BC (x, y) calculated in step S902 and the gain amount APCGain (x, y) calculated in step S903. The gain multiplication unit 416 outputs the signal AC_out (x, y) after edge gain processing (after correction) as a signal after edge correction processing. When the AC signal after the correction is output, the edge correction unit 403 ends the series of processes related to the edge correction process.

以上説明したように本実施形態では、NR処理において、閾値付き平均化処理における閾値および加重加算係数を階調補正量および被写体領域に応じて調整するようにした。また、エッジ強調処理においても同様に、コアリング量およびエッジゲインを階調補正量および被写体領域に応じて調整するようにした。このようにすることで、階調補正量および被写体領域を考慮してノイズ除去およびエッジ強調の強度を制御することが可能になる。従って、被写体領域の特性に応じた、高コントラスト、広ダイナミックレンジかつSN比の高い画像を生成することができる。   As described above, in the present embodiment, in the NR process, the threshold value and the weighted addition coefficient in the thresholding averaging process are adjusted in accordance with the gradation correction amount and the subject area. In addition, also in the edge emphasizing process, the coring amount and the edge gain are adjusted in accordance with the gradation correction amount and the subject region. By doing this, it is possible to control the noise removal and the edge emphasis in consideration of the gradation correction amount and the subject area. Therefore, it is possible to generate an image with high contrast, wide dynamic range, and high SN ratio according to the characteristics of the subject area.

(実施形態2)
次に、実施形態2について説明する。実施形態2では、実施形態1と同様に、階調補正量および被写体領域に応じたNRおよびエッジ強調処理を行う。しかし、本実施形態では、NR処理およびエッジ強調処理に用いる階調補正量はゲインMAPからでは無く、ゲインテーブルから算出する点が異なる。即ち、図15(a)に示すNR処理部1501とエッジ強調処理部1502は、ゲインMAP生成部203で生成したゲインMAPではなく、階調特性決定部202で決定した階調特性を入力してそれぞれの処理を行う点が異なる。このようにすることで、入力画像と同サイズのゲインMAPをNR、エッジ強調処理を行うまでメモリに記録する必要が無くなり、メモリ使用量の効率化が図られる利点がある。
Second Embodiment
Next, the second embodiment will be described. In the second embodiment, as in the first embodiment, NR and edge enhancement processing are performed according to the tone correction amount and the subject area. However, in the present embodiment, the gradation correction amount used for the NR process and the edge enhancement process is not from the gain MAP but different from the point of calculation from the gain table. That is, the NR processing unit 1501 and the edge enhancement processing unit 1502 shown in FIG. 15A receive not the gain MAP generated by the gain MAP generation unit 203 but the gradation characteristic determined by the gradation characteristic determination unit 202. The point of performing each processing is different. By doing this, it is not necessary to record the gain MAP having the same size as that of the input image in the memory until NR and edge enhancement processing, and there is an advantage that the memory usage can be made more efficient.

なお、NR処理部1501とエッジ強調処理部1502以外の構成は実施形態1と同一であるため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。   The configuration other than the NR processing unit 1501 and the edge enhancement processing unit 1502 is the same as that of the first embodiment, and therefore the same components are denoted by the same reference numerals and redundant description will be omitted. explain.

図15(a)に示すように、本実施形態に係るNR処理部1501とエッジ強調処理部1502は、階調特性決定部202から出力される階調特性が入力されるように構成されている。   As shown in FIG. 15A, the NR processing unit 1501 and the edge enhancement processing unit 1502 according to the present embodiment are configured to receive the gradation characteristic output from the gradation characteristic determining unit 202. .

本実施形態に係るNR処理部1501の機能構成例について、図15(b)を参照して説明する。本実施形態では、NR処理部1501は、階調特性決定部202で決定された階調特性を入力して、階調補正量推定部1503において新たな処理を行う。実施形態1では、式(4)に従ってゲインMAPから直接、階調補正量を取得していたのに対して、本実施形態では階調特性決定部202で決定した階調特性を用いて、式(11)に従って階調補正量を取得する。ここで、Gainは階調補正量、in(x,y)は参照用の入力信号、GainTbl_afterはゲイン後の入力信号を対象としたゲインテーブルである。また参照用の入力信号は、NR処理部1501に入力した画像(ゲイン処理部204によって階調補正された画像)である。   An exemplary functional configuration of the NR processing unit 1501 according to the present embodiment will be described with reference to FIG. In the present embodiment, the NR processing unit 1501 inputs the gradation characteristic determined by the gradation characteristic determination unit 202, and performs new processing in the gradation correction amount estimation unit 1503. In the first embodiment, although the tone correction amount is obtained directly from the gain MAP according to the equation (4), in the present embodiment, the equation using the tone characteristics determined by the tone characteristic determination unit 202 is used. Gradation correction amount is acquired according to (11). Here, Gain is a tone correction amount, in (x, y) is an input signal for reference, and GainTbl_after is a gain table for the input signal after gain. Also, the input signal for reference is an image (image subjected to gradation correction by the gain processing unit 204) input to the NR processing unit 1501.

Figure 0006514504
Figure 0006514504

式(11)のゲイン後の入力信号を対象としたゲインテーブルGainTbl_afterについて、図17を参照して説明する。図17(a)は、階調特性決定部202で決定した階調特性を示しており、ゲイン前の入力信号Xを対象としたゲインテーブルである。このゲインテーブルは、式(12)で表すように、GainTbl_preと階調補正量Gainの関係で表される。   The gain table GainTbl_after for the input signal after the gain of Expression (11) will be described with reference to FIG. FIG. 17A shows the gradation characteristic determined by the gradation characteristic determination unit 202, and is a gain table for the input signal X before gain. This gain table is represented by the relationship between GainTbl_pre and the gradation correction amount Gain as represented by equation (12).

Figure 0006514504
Figure 0006514504

一方、図17(b)は、ゲイン後の入力信号X ’を対象としたゲインテーブルである。このゲインテーブルをGainTbl_afterとすると、ゲイン前の入力信号Xを対象としたゲインテーブルGainTbl_preとの関係は式(13)のようになる。   On the other hand, FIG. 17B is a gain table for the input signal X 'after gain. Assuming that this gain table is GainTbl_after, the relationship with the gain table GainTbl_pre for the input signal X before gaining is as shown in Expression (13).

Figure 0006514504
Figure 0006514504

このように、階調補正量推定部1503は、ゲインテーブルGainTbl_preを入力して、ゲイン後の入力信号を対象としたゲインテーブルGainTbl_afterを作成したうえで、参照用の入力信号に基づいて階調補正量Gainを算出する。   As described above, the gradation correction amount estimation unit 1503 receives the gain table GainTbl_pre, creates the gain table GainTbl_after for the input signal after gaining, and performs the gradation correction based on the reference input signal. Calculate the amount Gain.

階調補正量推定部1503は、算出した階調補正量を閾値調整部302および加重加算係数調整部305に出力し、これらの機能ブロックは入力した階調補正量を用いて実施形態1で上述した各処理を行う。   The gradation correction amount estimation unit 1503 outputs the calculated gradation correction amount to the threshold value adjustment unit 302 and the weighted addition coefficient adjustment unit 305, and these functional blocks use the input gradation correction amount as described above in the first embodiment. Perform each process you

さらに、エッジ強調処理部1502の機能構成例について、図16(a)および図16(b)を参照して説明する。上述したように、エッジ強調処理部1502は、NR処理部1501と同様に階調特性決定部202で決定された階調特性を入力する。入力された階調特性は、エッジ補正部1601に入力されるように構成されている。また、図16(b)に示す階調補正量推定部1602は、入力した階調特性に基づいて階調補正量を算出する。この階調補正量推定部1602は、NR処理部1501に備わる階調補正量推定部1503と同一の処理を行うものである。なお、階調補正量推定部1602以外の構成は実施形態1と同様である。   Furthermore, a functional configuration example of the edge enhancement processing unit 1502 will be described with reference to FIGS. 16 (a) and 16 (b). As described above, the edge emphasis processing unit 1502 inputs the gradation characteristic determined by the gradation characteristic determination unit 202 in the same manner as the NR processing unit 1501. The input gradation characteristic is configured to be input to the edge correction unit 1601. Also, the gradation correction amount estimation unit 1602 shown in FIG. 16B calculates the gradation correction amount based on the input gradation characteristic. The tone correction amount estimation unit 1602 performs the same processing as the tone correction amount estimation unit 1503 provided in the NR processing unit 1501. The configuration other than the tone correction amount estimation unit 1602 is the same as that of the first embodiment.

以上説明したように本実施形態では、階調特性決定部202で決定した階調特性を用いて、NR処理およびエッジ強調処理を行うようにした。このようにして、ゲインテーブルから階調補正量を算出することで、さらにメモリ使用の効率化を図ることが可能になる。   As described above, in the present embodiment, NR processing and edge enhancement processing are performed using the gradation characteristic determined by the gradation characteristic determination unit 202. In this manner, by calculating the gradation correction amount from the gain table, it is possible to further improve the efficiency of memory usage.

(実施形態3)
さらに実施形態3について説明する。本発明の第3の実施形態は、被写体領域ごとに複数の階調特性を用いた階調処理を行い、この階調処理に応じたNR処理およびエッジ強調処理を行う。このため、実施形態1および実施形態2とは、主に階調特性決定処理、NR処理およびエッジ強調処理において、当該複数の階調特性を扱う点が異なる。その他の構成は実施形態2と同一であるため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 3)
The third embodiment will be further described. In the third embodiment of the present invention, tone processing using a plurality of tone characteristics is performed for each subject region, and NR processing and edge enhancement processing according to the tone processing are performed. For this reason, the second embodiment differs from the first and second embodiments in that the plurality of gradation characteristics are mainly handled in the gradation characteristic determination processing, the NR processing, and the edge enhancement processing. Since the other configuration is the same as that of the second embodiment, the same reference numerals are given to the same configuration, and the redundant description will be omitted, and differences will be mainly described.

まず、本実施形態の階調処理である領域別トーンマッピング処理について、図18を参照して説明する。   First, region-specific tone mapping processing, which is gradation processing of the present embodiment, will be described with reference to FIG.

図18(a)は、階調特性を説明した図12(a)と同様に、被写体領域ごとに与える場合の階調特性を入出力特性で表している。上述した実施形態では、図12(a)のような被写体の構成で撮影された画像に階調特性を適用する場合、各被写体領域に対応する階調特性に基づいて画面全体共通の階調特性(ゲインテーブル)を生成し、階調処理を行った。一方、本実施形態では、図18(b)に示すように、被写体領域ごとに異なる階調特性(ゲインテーブル)を用いることにより階調処理を行う。例えば、人物領域には、人物領域に対する入出力特性2001を適用し、背景領域および空領域にもそれぞれ入出力特性2002および2003がそれぞれ適用される。即ち、人物領域、背景領域および空領域に対してそれぞれゲインテーブルが生成されて階調処理が行われる。このように被写体領域ごとに異なる階調特性を適用することにより、同一の被写体領域内であれば入力信号の範囲によらず一定の入出力特性を適用することができる利点がある。   FIG. 18A shows, in the same manner as FIG. 12A showing the gradation characteristics, the gradation characteristics in the case of giving each object region as input / output characteristics. In the embodiment described above, when the gradation characteristic is applied to the image photographed with the configuration of the object as shown in FIG. 12A, the gradation characteristic common to the whole screen is based on the gradation characteristic corresponding to each object region. (Gain table) was generated and gradation processing was performed. On the other hand, in the present embodiment, as shown in FIG. 18B, tone processing is performed by using different tone characteristics (gain table) for each subject region. For example, the input / output characteristics 2001 for the person area is applied to the person area, and the input / output characteristics 2002 and 2003 are applied to the background area and the sky area, respectively. That is, gain tables are generated for the person area, the background area, and the sky area, respectively, and gradation processing is performed. As described above, by applying different gradation characteristics to each subject area, it is possible to apply a constant input / output characteristic regardless of the range of the input signal within the same subject area.

また、本実施形態は、階調特性から階調補正量を算出する点で実施形態2と共通するが、階調特性が被写体領域ごとに存在するため、これらから階調補正量を算出する点が異なる。   Further, the present embodiment is the same as the second embodiment in that the gradation correction amount is calculated from the gradation characteristic, but since the gradation characteristic exists for each object region, the gradation correction amount is calculated from these Is different.

次に、本実施形態における画像処理部104の機能構成例について、図19を参照して説明する。本実施形態では、階調特性決定部2103は、図18(a)に示した被写体領域別に異なる階調特性を出力し、ゲインMAP生成部203、NR処理部2101およびエッジ強調処理部2102に入力される。NR処理部2101およびエッジ強調処理部2102は、上述したように入力した被写体領域ごとの階調特性から階調補正量を生成する。   Next, a functional configuration example of the image processing unit 104 in the present embodiment will be described with reference to FIG. In the present embodiment, the gradation characteristic determination unit 2103 outputs different gradation characteristics for each subject region shown in FIG. 18A, and inputs them to the gain MAP generation unit 203, the NR processing unit 2101, and the edge emphasis processing unit 2102. Be done. The NR processing unit 2101 and the edge enhancement processing unit 2102 generate a gradation correction amount from the gradation characteristic for each subject area input as described above.

ゲインMAP生成部203は、被写体判別部201の出力である被写体判別結果を入力する。ゲインMAP生成部は、入力した被写体判別結果を用いて被写体領域を特定し、対応する階調特性を適用することでゲインMAPを生成する。   The gain MAP generation unit 203 receives an object determination result which is an output of the object determination unit 201. The gain MAP generation unit specifies the subject area using the input subject discrimination result, and generates the gain MAP by applying the corresponding gradation characteristic.

さらに、NR処理部2101について図20(a)を参照して説明する。被写体別階調補正量推定部2201は、階調特性決定部2103から出力された被写体領域別の階調特性を入力して、被写体領域ごとの階調補正量を算出する。被写体別階調補正量推定部2201は、算出した階調補正量を被写体領域ごとに加重加算係数調整部2202および閾値調整部2203に出力する。被写体領域ごとに階調補正量を算出する点以外については、実施形態2と同様である。   Further, the NR processing unit 2101 will be described with reference to FIG. The subject-specific tone correction amount estimation unit 2201 inputs the tone characteristics for each subject area output from the tone characteristic determination unit 2103 and calculates the tone correction amount for each subject area. The gradation correction amount estimation unit for each subject 2201 outputs the calculated gradation correction amount to the weighted addition coefficient adjustment unit 2202 and the threshold adjustment unit 2203 for each object region. The second embodiment is the same as the second embodiment except that the gradation correction amount is calculated for each subject region.

被写体ごとの階調特性に基づいて被写体ごとの階調補正量を算出する方法について、図22を参照して説明する。   A method of calculating the gradation correction amount for each subject based on the gradation characteristic for each subject will be described with reference to FIG.

図22(a)には、階調特性決定部2103で決定される階調特性であり、ゲイン前の入力信号Xに対する被写体領域ごとのゲインテーブルを示している。人物領域、背景領域、空領域のゲインテーブルをそれぞれGainTbl_pre_human、GainTbl_pre_back、GainTbl_pre_skyとし、人物領域、背景領域、空領域の階調補正量をそれぞれGain_human, Gain_back, Gain_skyとする。ゲインテーブルと階調補正量の関係は、式(14)に表すようになる。   FIG. 22A shows the tone characteristics determined by the tone characteristics determination unit 2103, and shows a gain table for each subject region with respect to the input signal X before gain. The gain tables of the human region, background region, and sky region are GainTbl_pre_human, GainTbl_pre_back, and GainTbl_pre_sky, respectively, and the tone correction amounts of the human region, background region, and sky region are Gain_human, Gain_back, and Gain_sky, respectively. The relationship between the gain table and the gradation correction amount is expressed by equation (14).

Figure 0006514504
Figure 0006514504

これに対して、図22(b)には、ゲイン後の入力信号X ’を対象としたゲインテーブルを示している。人物領域、背景領域、空領域のゲインテーブルをそれぞれGainTbl_after_human、GainTbl_after_back、GainTbl_after_skyとし、ゲイン前の入力信号Xを対象としたゲインテーブルGainTbl_pre_human、GainTbl_pre_back、GainTbl_pre_skyとすると、これらの関係は、式(15)に表すようになる。   On the other hand, FIG. 22 (b) shows a gain table for the input signal X 'after gain. Assuming that gain tables for the human region, background region, and empty region are GainTbl_after_human, GainTbl_after_back, and GainTbl_after_sky, and gain tables GainTbl_pre_human, GainTbl_pre_back, and GainTbl_pre_sky for the input signal X before gain, these relationships are given by It will be expressed.

Figure 0006514504
Figure 0006514504

なお、式(15)は人物領域のゲインテーブルの関係を表しているが、背景領域、空領域のゲインテーブルについても同様である。   Although Equation (15) represents the relationship between the gain tables of the person area, the same applies to the gain tables of the background area and the sky area.

被写体別階調補正量推定部2201は、被写体領域ごとのゲインテーブルGainTbl_pre_human、GainTbl_pre_back、GainTbl_pre_skyを階調特性決定部2103から入力して、ゲイン後の入力信号を対象とした被写体領域別のゲインテーブルGainTbl_after_human、GainTbl_after_back、GainTbl_after_skyを作成する。そして、被写体領域ごとの階調補正量Gain_human, Gain_back, Gain_skyを参照用の入力信号に基づいて算出する。   A subject-specific tone correction amount estimation unit 2201 receives gain tables GainTbl_pre_human, GainTbl_pre_back, and GainTbl_pre_sky for each subject region from the tone characteristic determination unit 2103, and gain tables GainTbl_after_human for each subject region for the input signal after gaining. , GainTbl_after_back, GainTbl_after_sky are created. Then, the tone correction amounts Gain_human, Gain_back, and Gain_sky for each subject area are calculated based on the input signal for reference.

次に、被写体領域ごとの階調補正量を入力する閾値調整部2203の機能構成例について、図20(b)を参照して説明する。本実施形態に係る閾値調整部2203では、輝度別閾値THと被写体領域ごとの階調補正量を入力する。そして、階調補正量調整部2205が輝度別閾値THに対して被写体領域ごとの階調補正量Gain_human, Gain_back, Gain_skyと固定値k,l,mを式(16)のように乗算する。なお、TH_human, TH_back, TH_skyは各被写体領域の階調補正量により調整された閾値である。   Next, a functional configuration example of the threshold value adjustment unit 2203 that inputs the gradation correction amount for each subject region will be described with reference to FIG. The threshold adjustment unit 2203 according to the present embodiment inputs the threshold TH for luminance and the gradation correction amount for each subject region. Then, the gradation correction amount adjustment unit 2205 multiplies the gradation correction amounts Gain_human, Gain_back, and Gain_sky for each object region by the fixed values k and l, m with the threshold value TH for each luminance as in Expression (16). Note that TH_human, TH_back, and TH_sky are thresholds adjusted by the gradation correction amount of each subject area.

Figure 0006514504
Figure 0006514504

被写体別階調補正量推定部2201から閾値TH_human, TH_back, TH_skyが出力された後の処理については、実施形態1および実施形態2と同様である。また、閾値調整部2203の処理を例に説明したが、加重加算係数調整部2202の処理についても同様に被写体領域ごとの階調補正量を入力した処理を行う。   The processing after the thresholds TH_human, TH_back, and TH_sky are output from the subject-specific tone correction amount estimation unit 2201 is the same as in the first embodiment and the second embodiment. Also, although the processing of the threshold adjustment unit 2203 has been described as an example, the processing of the weighted addition coefficient adjustment unit 2202 similarly performs processing in which the amount of gradation correction for each subject region is input.

さらに、本実施形態に係るエッジ強調処理部2102の機能構成例について、図21(a)を参照して説明する。本実施形態に係るエッジ強調処理部2102は、NR処理部2101と同様に、階調特性決定部2103で決定された被写体ごとの階調特性を入力してエッジ強調処理を行う。   Furthermore, a functional configuration example of the edge emphasis processing unit 2102 according to the present embodiment will be described with reference to FIG. The edge enhancement processing unit 2102 according to the present embodiment performs edge enhancement processing by inputting the tone characteristic for each subject determined by the tone characteristic determination unit 2103 as in the NR processing unit 2101.

さらに、エッジ強調処理部2102に含まれるエッジ補正部2301について、図21(b)を参照して説明する。エッジ補正部2301は、階調特性決定部2103で決定された被写体領域ごとの階調特性、被写体判別結果およびDC/AC信号を入力する。被写体別階調補正量推定部2302は、入力された被写体領域ごとの階調特性に応じて被写体領域ごとの階調補正量を出力する。そして、エッジゲイン調整部415およびコアリング量調整部412は、被写体領域ごとの階調補正量を入力してゲイン量およびコアリング量を出力する。   Further, the edge correction unit 2301 included in the edge enhancement processing unit 2102 will be described with reference to FIG. The edge correction unit 2301 inputs the gradation characteristic for each object area, the object discrimination result, and the DC / AC signal determined by the gradation characteristic determination unit 2103. A subject-specific tone correction amount estimation unit 2302 outputs a tone correction amount for each subject region according to the input tone characteristic of each subject region. Then, the edge gain adjustment unit 415 and the coring amount adjustment unit 412 input the gradation correction amount for each subject region and output the gain amount and the coring amount.

以上説明したように本実施形態では、被写体領域ごとの階調特性を用いて、被写体領域ごとに階調補正量を算出し、各階調補正量に応じたNR処理およびエッジ強調処理を行うようにした。このようにすることで、被写体領域ごとに適用された階調補正量に応じて、即ち階調補正量および被写体領域を考慮してノイズ除去およびエッジ強調の強度を制御することが可能になる。従って、被写体領域の特性に応じた、高コントラスト、広ダイナミックレンジかつSN比の高い画像を生成することができる。   As described above, in the present embodiment, the tone correction amount is calculated for each subject region using the tone characteristics for each subject region, and NR processing and edge enhancement processing according to each tone correction amount are performed. did. By doing this, it is possible to control the noise removal and the edge emphasis in accordance with the gradation correction amount applied to each object region, that is, in consideration of the gradation correction amount and the object region. Therefore, it is possible to generate an image with high contrast, wide dynamic range, and high SN ratio according to the characteristics of the subject area.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

104…画像処理部、201…被写体判別部、202…階調特性決定部、204…ゲイン処理部、205…NR処理部、206…エッジ強調処理部 104: image processing unit, 201: subject determination unit, 202: gradation characteristic determination unit, 204: gain processing unit, 205: NR processing unit, 206: edge enhancement processing unit

Claims (13)

画像から複数の被写体領域を判別する判別手段と、
前記画像の所定の領域ごとに階調補正するための階調補正量を決定する決定手段と、
前記階調補正量によって階調補正された画像に適用するノイズ除去の強度を、前記階調補正量と前記判別された被写体領域とに応じて変更するノイズ除去手段と、
前記ノイズ除去手段によりノイズの除去された画像に適用するエッジ強調の強度を、前記階調補正量と前記判別された前記被写体領域とに応じて変更するエッジ強調手段と、
を有することを特徴とする画像処理装置。
Determining means for determining a plurality of subject areas from the image;
Determining means for determining a gradation correction amount for performing gradation correction for each predetermined area of the image;
Noise removing means for changing the noise removal intensity to be applied to the image subjected to tone correction by the tone correction amount according to the tone correction amount and the determined subject area;
Edge emphasizing means for changing the intensity of edge emphasis to be applied to the image from which noise has been removed by the noise removing means in accordance with the gradation correction amount and the subject area determined as described above;
An image processing apparatus comprising:
前記ノイズ除去手段は、ノイズを除去するための画素値の平均化において、前記平均化に用いる画素値の幅を、前記階調補正量に応じて変動させるとともに前記判別された被写体領域ごとに該変動の大きさを調整することによってノイズ除去の強度を変更することを特徴とする請求項1に記載の画像処理装置。 The noise removal means varies the width of the pixel value used for the averaging according to the gradation correction amount in averaging the pixel values for removing noise, and for each of the determined subject regions. The image processing apparatus according to claim 1, wherein the noise removal intensity is changed by adjusting the magnitude of the variation. 前記ノイズ除去手段は、前記階調補正量が大きいほど前記平均化に含まれる画素値の幅が大きくなるように前記平均化に用いる画素を選択して、前記平均化を行うことを特徴とする請求項に記載の画像処理装置。 The noise removal means performs the averaging by selecting pixels used for the averaging so that the width of the pixel value included in the averaging becomes larger as the gradation correction amount becomes larger. The image processing apparatus according to claim 2 . 前記ノイズ除去手段は、前記階調補正量に応じた変動の大きさに対する所定の被写体ごとの重み付けを行って、前記被写体に応じて前記平均化に用いる画素値の幅を変動させることによってノイズ除去の強度を変更することを特徴とする請求項に記載の画像処理装置。 The noise removal unit performs weighting on a predetermined subject for the magnitude of the change according to the gradation correction amount, thereby removing noise by changing the width of the pixel value used for the averaging according to the subject. The image processing apparatus according to claim 3 , wherein the intensity of the image is changed. 前記判別手段が判別する被写体領域は、前記画像内の人物領域、空領域および背景領域の少なくとも2つの領域を含み、
前記ノイズ除去手段は、前記重み付けされた画素値の幅を、前記判別された複数の被写体領域がそれぞれの被写体領域である可能性を示す信頼度に応じて加重平均し、前記加重平均された画素値の幅を用いて前記平均化を行うことを特徴とする請求項に記載の画像処理装置。
The subject area determined by the determining means includes at least two areas of a person area, an empty area, and a background area in the image;
The noise removing unit performs weighted averaging on the width of the weighted pixel value according to the reliability indicating the possibility that the plurality of determined subject regions are the respective subject regions, and the weighted averaged pixel The image processing apparatus according to claim 4 , wherein the averaging is performed using a range of values.
前記エッジ強調手段は、高周波信号を強調するための補正量を、前記階調補正量に応じて変動させるとともに前記判別された被写体領域ごとに該変動の大きさを調整することによってエッジ強調の強度を変更することを特徴とする請求項1に記載の画像処理装置。   The edge emphasizing means varies the correction amount for emphasizing the high frequency signal according to the gradation correction amount, and adjusts the magnitude of the edge emphasis by adjusting the magnitude of the fluctuation for each of the determined subject regions. The image processing apparatus according to claim 1, wherein 前記エッジ強調手段は、前記階調補正量が大きいほど、前記高周波信号を強調するための補正量を大きくすることによってエッジ強調の強度を変更することを特徴とする請求項に記載の画像処理装置。 7. The image processing according to claim 6 , wherein the edge emphasizing means changes the strength of the edge emphasis by increasing the correction amount for emphasizing the high frequency signal as the gradation correction amount is larger. apparatus. 前記エッジ強調手段は、前記階調補正量に応じた変動の大きさに対する所定の被写体ごとの重み付けを行って、前記被写体に応じて前記高周波信号を強調するための補正量を変動させることによってエッジ強調の強度を変更することを特徴とする請求項に記載の画像処理装置。 The edge emphasizing means performs weighting for each predetermined subject on the magnitude of the change according to the gradation correction amount, thereby changing the amount of correction for emphasizing the high frequency signal according to the subject. The image processing apparatus according to claim 7 , wherein the strength of the emphasis is changed. 前記判別手段が判別する被写体領域は、人物領域、空領域または背景領域の少なくとも2つの領域を含み、
前記エッジ強調手段は、前記重み付けされた高周波信号を強調するための補正量を、前記判別された複数の被写体領域がそれぞれの領域である可能性を示す信頼度に応じて加重平均し、前記加重平均された高周波信号を強調するための補正量を用いてエッジ強調の強度を変更することを特徴とする請求項に記載の画像処理装置。
The subject area determined by the determining means includes at least two areas of a person area, a sky area, and a background area,
The edge emphasizing means performs weighted averaging of the correction amount for emphasizing the weighted high-frequency signal according to the reliability indicating the possibility that the plurality of determined subject regions are the respective regions, and the weighting is performed. 9. The image processing apparatus according to claim 8 , wherein the intensity of the edge enhancement is changed using a correction amount for enhancing the averaged high frequency signal.
前記ノイズ除去手段は、前記階調補正された画像を入力して、該画像に基づいて前記階調補正量を推定し、前記推定された階調補正量に応じてノイズ除去の強度を変更することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 The noise removal means inputs the image subjected to the tone correction, estimates the tone correction amount based on the image, and changes the noise removal intensity according to the estimated tone correction amount. The image processing apparatus according to any one of claims 1 to 9 , characterized in that: 前記決定手段は、前記判別された被写体領域ごとに前記階調補正量を決定し、
前記ノイズ除去手段は、前記ノイズ除去の強度を、前記被写体領域ごとの階調補正量と前記判別された被写体領域に応じて変更することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
The determination means determines the gradation correction amount for each of the determined subject areas.
11. The apparatus according to any one of claims 1 to 10 , wherein the noise removal unit changes the noise removal strength according to the gradation correction amount for each of the subject regions and the determined subject region. Image processing apparatus as described.
判別手段が、画像から複数の被写体領域を判別する判別工程と、
決定手段が、前記画像の所定の領域ごとに階調補正するための階調補正量を決定する決定工程と、
ノイズ除去手段が、前記階調補正量によって階調補正された画像に適用するノイズ除去の強度を、前記階調補正量と前記判別された被写体領域に応じて変更するノイズ除去工程と、
エッジ強調手段が、前記ノイズ除去工程においてノイズの除去された画像に適用するエッジ強調の強度を、前記階調補正量と前記判別された前記被写体領域とに応じて変更するエッジ強調工程と、
を有することを特徴とする画像処理装置の制御方法。
A determining step of determining a plurality of subject areas from an image;
A determining step of determining a tone correction amount for tone correction for each predetermined area of the image;
A noise removing step of changing noise removal intensity applied to the image tone-corrected by the tone correction amount according to the tone correction amount and the subject region determined by the noise removing means;
An edge emphasizing step of changing an edge emphasizing intensity to be applied to the image from which noise has been removed in the noise removing step in accordance with the gradation correction amount and the subject region determined in the noise removing step;
And a control method of an image processing apparatus.
コンピュータを、請求項1から11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 11 .
JP2014265777A 2014-12-26 2014-12-26 IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM Active JP6514504B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014265777A JP6514504B2 (en) 2014-12-26 2014-12-26 IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014265777A JP6514504B2 (en) 2014-12-26 2014-12-26 IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2016127388A JP2016127388A (en) 2016-07-11
JP6514504B2 true JP6514504B2 (en) 2019-05-15

Family

ID=56358133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014265777A Active JP6514504B2 (en) 2014-12-26 2014-12-26 IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6514504B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6817779B2 (en) * 2016-10-20 2021-01-20 キヤノン株式会社 Image processing equipment, its control method, programs and recording media
JP7222723B2 (en) * 2019-01-17 2023-02-15 株式会社ジャパンディスプレイ Display device
WO2022059490A1 (en) * 2020-09-18 2022-03-24 カシオ計算機株式会社 Image processing device, and image processing method
WO2024203227A1 (en) * 2023-03-29 2024-10-03 富士フイルム株式会社 Display control device, display control method, imaging system, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4411879B2 (en) * 2003-07-01 2010-02-10 株式会社ニコン Signal processing apparatus, signal processing program, and electronic camera
JP2010193384A (en) * 2009-02-20 2010-09-02 Olympus Corp Image processing apparatus, method and program
JP2011015277A (en) * 2009-07-03 2011-01-20 Olympus Corp Image processing device, image processing method, image processing program, and recording medium recording image processing program

Also Published As

Publication number Publication date
JP2016127388A (en) 2016-07-11

Similar Documents

Publication Publication Date Title
US10997696B2 (en) Image processing method, apparatus and device
JP6116272B2 (en) Image processing apparatus, image processing method, program, and storage medium
CN109255810B (en) Image processing apparatus and image processing method
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
US9542734B2 (en) Information processing apparatus, image processing method, and storage medium that determine tone characteristics for respective object signals
JP6421794B2 (en) Image processing apparatus, image processing method, and program
CN106575434B (en) Image processing apparatus, imaging apparatus, and image processing method
JP6514504B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP2018117288A (en) Image processing device and image processing method
JP2019047169A (en) Apparatus, method, and program for generating high dynamic range image
US10218953B2 (en) Image processing apparatus, image processing method, and storage medium
JP2011228807A (en) Image processing program, image processing apparatus, and image processing method
JP7277158B2 (en) Setting device and method, program, storage medium
JP6423668B2 (en) Image processing apparatus, control method therefor, and program
JP2017147568A (en) Image processing apparatus, imaging apparatus, control method, and program
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
KR20180138530A (en) Detection apparatus, image processing apparatus, detection method, and image processing method
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP5561389B2 (en) Image processing program, image processing apparatus, electronic camera, and image processing method
JP6949494B2 (en) Image processing equipment and image processing methods, imaging equipment, programs
JP6554009B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM
JP5282533B2 (en) Image processing apparatus, imaging apparatus, and program
JP2009258284A (en) Image processing device, imaging apparatus, image processing method, and program
JP6514577B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGING APPARATUS
JP6386843B2 (en) Image processing apparatus, image processing method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190412

R151 Written notification of patent or utility model registration

Ref document number: 6514504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151