JP6514504B2 - IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM - Google Patents
IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM Download PDFInfo
- Publication number
- JP6514504B2 JP6514504B2 JP2014265777A JP2014265777A JP6514504B2 JP 6514504 B2 JP6514504 B2 JP 6514504B2 JP 2014265777 A JP2014265777 A JP 2014265777A JP 2014265777 A JP2014265777 A JP 2014265777A JP 6514504 B2 JP6514504 B2 JP 6514504B2
- Authority
- JP
- Japan
- Prior art keywords
- correction amount
- image
- subject
- processing
- gain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 288
- 238000000034 method Methods 0.000 title claims description 89
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012937 correction Methods 0.000 claims description 173
- 238000012935 Averaging Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 65
- 238000004364 calculation method Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 28
- 238000003384 imaging method Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
Description
本発明は、画像処理装置およびその制御方法、ならびにプログラムに関する。 The present invention relates to an image processing apparatus and a control method thereof, and relates to a program.
High Dynamic Range(HDR)撮影や画像を部分的に明るくする覆い焼き等、入力のダイナミックレンジ(Dレンジ)を拡大した信号を出力する段階で階調補正や階調圧縮を行う処理が知られている。 Processing for performing tone correction and tone compression at the stage of outputting a signal with an expanded dynamic range (D range) of input, such as High Dynamic Range (HDR) shooting and dodging to partially brighten an image, is known There is.
階調補正や階調圧縮技術では、高コントラスト・広ダイナミックレンジの特性を有する画像を生成することに加えて、階調補正量に応じたノイズリダクション処理(NR処理あるいはノイズ除去処理ともいう)やエッジ強調処理を行って、SN比の良い画像を生成する技術が望まれている。さらに、複数の被写体を撮影する場合に、被写体領域ごとにノイズ除去やエッジ強調処理を行って印象の良い画像を生成する技術も望まれている。 In tone correction and tone compression techniques, in addition to generating an image having high contrast and wide dynamic range characteristics, noise reduction processing (also referred to as NR processing or noise removal processing) according to the amount of tone correction or A technique for performing edge enhancement processing to generate an image with a good SN ratio is desired. Furthermore, when photographing a plurality of subjects, a technique for performing noise removal and edge enhancement processing for each subject area to generate an impressive image is also desired.
例えば、大きな階調補正量を用いて階調補正された領域Aと、殆ど何もしないに等しい程度の小さな階調補正量を用いて階調補正された領域Bとにおいて、階調補正後の信号値が等しいとする。領域Aは大きく階調補正されている分ノイズが増幅されるため、領域Bと比較してノイズ量が多くなる。一方、領域Aに合わせてノイズ除去の効果が強くなるように処理(即ち、エッジ強調処理の効果が弱くなる)すると、殆ど階調補正されていない領域Bは必要以上に解像感が失われてしまう。 For example, in the area A in which the gradation correction is performed using a large amount of gradation correction and in the area B in which the gradation correction is performed using a small amount of gradation correction equal to almost nothing Suppose that the signal values are equal. The noise in the area A is amplified by the large amount of gradation correction, so the amount of noise is larger than that in the area B. On the other hand, if processing is performed so that the effect of noise removal becomes stronger in accordance with the region A (that is, the effect of edge enhancement processing becomes weaker), the region B hardly subjected to gradation correction loses a sense of resolution more than necessary. It will
このような問題に対して、特許文献1は、階調補正量に基づいて算出した合成比率を用いて、ノイズ除去処理を行った画像とノイズ除去を行う前の画像とを合成した画像を出力する技術を提案している。また、特許文献2には、階調補正量に応じてノイズ除去の強度を変更する技術が提案されている。 With regard to such a problem, Patent Document 1 outputs an image obtained by combining an image subjected to noise removal processing and an image prior to noise removal using a combining ratio calculated based on the tone correction amount. Proposed technology. Further, Patent Document 2 proposes a technique for changing the noise removal strength according to the tone correction amount.
しかしながら、特許文献1で提案された技術は、画像の合成比率を階調補正量に応じて算出する一方、ノイズ除去の強度については階調補正量に応じて変更することを考慮していない。即ち、ノイズ除去前の画像とノイズ除去後の画像の合成比率を階調補正量に応じて調整するのみであるため、階調補正量が領域ごとに極端に変化する画像に対しては、最適なノイズ除去処理の結果を得られない場合がある。 However, while the technique proposed in Patent Document 1 calculates the synthesis ratio of the image according to the gradation correction amount, changing the noise removal intensity according to the gradation correction amount is not considered. That is, since only the synthesis ratio of the image before noise removal and the image after noise removal is adjusted according to the tone correction amount, it is optimal for an image in which the tone correction amount changes extremely for each area. Results may not be obtained.
また、特許文献2で提案された技術は、画像内の局所的な明暗差に応じた階調補正量に応じてノイズ除去の強度を変更する技術であるため、被写体領域に応じてノイズ除去の強度を適切に変更したノイズ除去処理については考慮されていない。 Further, the technique proposed in Patent Document 2 is a technique for changing the noise removal intensity according to the tone correction amount according to the local light / dark difference in the image, so noise removal can be performed according to the subject region. It does not consider about the noise removal process which changed intensity appropriately.
本発明は、上述の従来技術の問題点に鑑みてなされたものであり、階調補正量および被写体領域を考慮してノイズ除去の強度を制御可能な画像処理装置およびその制御方法、ならびにプログラムを提供することを目的とする。 The present invention has been made in view of the problems of prior art described above, the gradation correction amount and intensity controllable image processing apparatus and a control method thereof to noise removal taking into account the subject area, and program Intended to provide.
この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、画像から複数の被写体領域を判別する判別手段と、画像の所定の領域ごとに階調補正するための階調補正量を決定する決定手段と、階調補正量によって階調補正された画像に適用するノイズ除去の強度を、階調補正量と判別された被写体領域とに応じて変更するノイズ除去手段と、ノイズ除去手段によりノイズの除去された画像に適用するエッジ強調の強度を、階調補正量と判別された前記被写体領域とに応じて変更するエッジ強調手段と、を有することを特徴とする。 In order to solve this problem, for example, an image processing apparatus according to the present invention has the following configuration. That is, a determination unit that determines a plurality of subject areas from an image, a determination unit that determines a gradation correction amount for performing gradation correction for each predetermined area of the image, and an image that is gradation-corrected by the gradation correction amount Noise removal means for changing the noise removal strength applied to the image according to the gradation correction amount and the subject area determined, and the edge enhancement strength applied to the image from which noise is removed by the noise removal means. And an edge emphasizing unit that changes according to the subject area determined as the tonality correction amount .
本発明によれば、階調補正量および被写体領域を考慮してノイズ除去の強度を制御することができる。 According to the present invention, it is possible to control the noise removal strength in consideration of the gradation correction amount and the subject area.
(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では画像処理装置の一例として、撮影した画像にノイズ除去処理を施すことが可能な任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、撮影機能を有するデジタルカメラに限らず、別途撮影された画像を取得してノイズ除去処理を適用可能な任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, as an example of the image processing apparatus, an example in which the present invention is applied to an arbitrary digital camera capable of performing noise removal processing on a captured image will be described. However, the present invention is not limited to a digital camera having a photographing function, and can be applied to any device to which a separately photographed image can be acquired and noise removal processing can be applied. These devices may include, for example, a mobile phone, a game console, a tablet terminal, a personal computer, and a watch-type or glasses-type information terminal.
なお、後に詳述する本発明に係る階調補正処理は、それぞれ後述する階調特性決定処理、ゲイン処理、NR処理およびエッジ強調処理を含む処理全体を指し、階調処理は、このうちNR処理およびエッジ強調処理を除いた処理を指すものとして説明する。また、本実施形態では、階調補正が最も要求される逆光時の人物シーンを想定し、人物が最も暗く、空が最も明るいシーンを想定した階調補正処理を例に説明する。但し、本発明の適用可能なシーンはこれに限定されない。 Note that tone correction processing according to the present invention, which will be described in detail later, refers to the entire processing including tone characteristic determination processing, gain processing, NR processing, and edge enhancement processing, which will be described later. And the processing other than the edge emphasis processing will be described. Further, in the present embodiment, assuming a person scene in a back light where gradation correction is most required, gradation correction processing in which a person is the darkest and the sky is the brightest is described as an example. However, the applicable scene of the present invention is not limited to this.
(デジタルカメラ100の構成)
図1は、本実施形態の画像処理装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of digital camera 100)
FIG. 1 is a block diagram showing an example of the functional configuration of a digital camera 100 as an example of an image processing apparatus according to this embodiment. Note that one or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or programmable logic array (PLA), or realized by a programmable processor such as a CPU or MPU executing software. May be Also, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as an action subject, the same hardware can be realized as the subject.
光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群であり、絞り調整装置およびシャッター装置を含む。光学系101は、撮像部102に含まれる撮像素子に結像する被写体像の倍率、合焦位置あるいは光量を調整する。撮像部102は、CCDやCMOSセンサ等の撮像素子を含み、光学系101を通過した被写体の光束を光電変換し、得られた電気信号を出力する。A/D変換部103は、入力されたアナログ信号をデジタル信号に変換して、デジタル信号の画像を出力する。
The
画像処理部104は、A/D変換部103から出力された画像または記録部110から読み出された画像に対して、ホワイトバランス調整、γ補正などの各種画像処理を行う。また、画像処理部104は、画像に対する例えば顔検出、奥行検出、被写体像のずれ量算出等の処理を行って所定の演算値を算出し、例えばシステム制御部107に出力する。システム制御部107は画像処理部104から得られた演算値に基づいて、例えばAF(オートフォーカス)処理などを行う。さらに、画像処理部104は、後述する本発明に係る階調補正処理を行う。
The
露光量算出部105は、本発明に係る階調補正処理を行うために最適な入力画像を得るために、撮影時の露光量を算出する部分である。画像処理部104の処理結果を入力して、算出した露光量を露光量制御部106に出力する。
The exposure
露光量制御部106は、露光量算出部105によって算出された露光量を実現するために、光学系101と撮像部102を制御して、絞り、シャッタースピード、センサのアナログゲインを制御する。
The exposure
システム制御部107は、例えばCPUあるいはMPUを含み、不図示のROMに格納されたプログラムを不図示のRAMの作業エリアに展開して実行することにより、デジタルカメラ100全体を制御する。また、システム制御部107は、画像処理部104から入力する演算値のほか、操作部108から送信されるユーザ指示に基づいて、光学系101や撮像部102の駆動制御を行う。
The
表示部109は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイを含み、撮像部102で撮影された画像や記録部110から読み出した画像を表示する。記録部110は、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体を含む記録媒体を含み、画像の書き込みおよび読み出しを行って画像処理部104や表示部109に出力する。記録部110は着脱可能に構成されてもよい。
The
バス111は、デジタル信号の伝送路であり、画像処理部104、システム制御部107、表示部109および記録部110の間で例えば時分割によるデータの送受信を行う。
The
(画像処理部104の構成)
次に、画像処理部104の機能構成例について図2を参照して説明する。なお、図2において実線で示した処理の流れは、入力した画像に対して画素値の変更等の直接的な処理を行う流れ(本線系の処理ともいう)を表している。一方、点線で示した矢印は、入力画像に基づいて評価値を算出するための処理の流れ(評価値系の処理ともいう)を表している。当該表記は他のブロック図についても同様とする。
(Configuration of the image processing unit 104)
Next, a functional configuration example of the
撮像部102から出力された画像は、A/D変換部103を介して画像処理部104に入力される。入力された画像は、画像処理部104の内部の被写体判別部201に入力され、被写体判別部201は画像から被写体領域を判別する。
The image output from the
階調特性決定部202は、被写体判別部201が判別した被写体領域に基づいて、階調特性を決定する。決定される階調特性は、例えば図13(a)に示すような入力信号の値に対するゲイン値の特性(ゲインテーブルともいう)である。
The gradation
ゲインMAP生成部203は、階調特性決定部202が決定した階調特性を用いてゲインMAPを生成する。ゲインMAPは、例えば図13(b)に示すように、左上の座標を(0,0)として各座標位置における画素値がゲインを示すような画像情報である。
The gain
ゲイン処理部204は、ゲインMAP生成部203により生成されたゲインMAPを用いて、ゲインMAPから得られるゲイン値に応じたゲイン処理を行う。
The
NR処理部205は、ゲイン処理部204によりゲイン処理された画像に対してノイズ除去処理(NR処理ともいう)を行う。NR処理部205は、NR処理の実行においてゲインMAPを参照することで、画素(領域)ごとの階調補正量に応じたNR処理を実現する。また、エッジ強調処理部206は、NR処理が行われた画像に対してエッジ強調処理を行う。エッジ強調処理部206は、NR処理部205による処理と同様に、エッジ強調処理においてゲインMAPを参照することで、画素(領域)ごとの階調補正量に応じたエッジ強調処理を実現する。
The
(画像処理部104による階調補正処理に係る一連の動作)
次に、図5を参照して、画像処理部104による階調補正処理に係る一連の動作について説明する。なお、本階調補正処理に係る一連の処理は、図2に示す各機能ブロックが対応する処理を実行する。また、図5に示す一連の動作は、例えば操作部108に対するユーザからの撮影指示により撮像素子が露光され、A/D変換部103を介して撮像部102から読み出された画像が画像処理部104に入力した時点から開始される。
(A series of operations related to gradation correction processing by the image processing unit 104)
Next, with reference to FIG. 5, a series of operations relating to the tone correction processing by the
S501において、被写体判別部201は、入力された画像内の被写体領域の判別を行う。例えば図11(a)に示すような被写体の構成で撮影された画像に対して、被写体判別部は、図11(b)に示すように人物の顔領域1101、人物の体領域1102、雲や太陽を含めた空領域1103およびそれ以外の背景領域1104をそれぞれ判別する。被写体領域の判別処理には、例えば特開2006−039666号公報に開示されているエッジや色情報の特徴量、ニューラルネットワークによる学習データを用いた公知の手法を用いることができる。被写体判別部201は、判別処理を完了すると被写体判別結果を階調特性決定部202に出力する。なお、被写体判別結果は、後述するように、画素位置(x,y)ごとに人物領域、空領域、背景領域である度合いを表す数値を含んでいる。これらの度合いは、例えば特徴量や学習データを用いた際の評価値に応じて設定されてもよい。
In step S501, the
S502において、階調特性決定部202は、入力画像とS501において判別した被写体領域とを入力して、階調特性を決定する。なお、階調特性については、別途図12を参照して詳細に説明するが、横軸が入力信号の値、縦軸がゲイン値を表すゲインテーブルを指す。
In step S502, the gradation
なお、本撮影前の露光制御時には、算出した階調特性で階調補正処理を行うための最適な露光量を得るため、当該露光量を算出する際に算出した階調特性が必要となる。このため、階調特性決定部202は、露光制御を行っている最中には、算出した階調特性を露光量算出部105に対して出力する。また、階調特性決定部202は、本撮影時には、決定した階調特性をゲインMAP生成部203に出力して、S503に処理を進める。
Note that, at the time of exposure control before main shooting, in order to obtain an optimal exposure amount for performing tone correction processing with the calculated tone characteristics, the tone characteristics calculated at the time of calculating the exposure amount are required. Therefore, while performing the exposure control, the gradation
S503において、ゲインMAP生成部203は、画像処理部104に入力された画像と、S502において決定された階調特性に基づいてゲインMAPを生成する。ゲインMAPの生成方法は、本実施形態では、例えば特開2014−154108号公報に開示されているような、入力した画像をもとに生成した縮小サイズの異なる階層画像を用いる公知の方法によりゲインMAPを生成することができる。
In step S503, the gain
S504において、ゲイン処理部204は、画像処理部104に入力された入力画像に対してゲイン処理を行う。ゲイン処理部204は、S503において生成されたゲインMAPを入力し、入力画像の各座標の画素値に対して、ゲインMAPの対応する座標のゲイン値を適用する。ゲイン処理部204は、ゲイン処理を完了するとゲイン処理を行った入力画像をNR処理部205に出力する。
In step S504, the
S505において、NR処理部205は、S504においてゲイン処理された画像に対してNR処理を行う。NR処理部205もS503で生成されたゲインMAPを参照してNR処理を行う。NR処理の詳細については後述する。
In step S505, the
S506において、エッジ強調処理部206は、S505においてNR処理を行った画像に対してエッジ強調処理を行う。エッジ強調処理部206もS503で生成されたゲインMAPを参照してエッジ強調処理を行う。エッジ強調処理の詳細については後述する。エッジ強調処理部206はエッジ強調処理を完了するとエッジ強調処理を行った入力画像を出力し、画像処理部104は本処理の一連の動作を終了する。
In step S506, the edge
(階調特性決定処理)
以下、S502における階調特性決定処理について、図12を参照して説明する。
(Gradation characteristic determination processing)
The tone characteristic determination process in step S502 will be described below with reference to FIG.
本実施形態では、被写体領域別に階調特性を持たず、画像全体に共通する1つの階調特性(ゲインテーブル)を決定してゲイン処理を行う。当該1つの階調特性は、まず被写体領域別に階調特性を求めたうえで、これらの階調特性に基づいて決定される。このような1つの階調特性を用いることにより、被写体領域間の明るさのバランスを考慮した階調特性を決定することができる。 In the present embodiment, gain processing is performed by determining one tone characteristic (gain table) common to the entire image without having tone characteristics for each subject region. The one gradation characteristic is first determined based on these gradation characteristics after the gradation characteristics are determined for each subject region. By using such one gradation characteristic, it is possible to determine the gradation characteristic in consideration of the balance of brightness among the object areas.
図12(a)は、被写体領域別の階調特性を、横軸が入力信号の値、縦軸が出力信号の値をそれぞれ示す入出力特性で表したものである。点線で示す特性は、入力信号を変更しない(即ち階調補正を行わない)場合の入出力特性を示し、実線で示す特性は、それぞれ人物領域、背景領域、空領域に対する入出力特性(HUMAN_GAIN、BACK_GAIN、SKY_GAIN)を示している。本実施形態に係る各被写体領域に対する入出力特性の算出には、例えば特開2014−155001号公報に開示されているような公知の手法を用いることができるため、各入出力特性の算出方法についての説明は省略する。 FIG. 12A shows the gradation characteristics for each subject area, with input / output characteristics in which the horizontal axis represents the value of the input signal and the vertical axis represents the value of the output signal. The characteristic shown by the dotted line shows the input / output characteristic when the input signal is not changed (ie, gradation correction is not performed), and the characteristic shown by the solid line is the input / output characteristic (HUMAN_GAIN, for person area, background area and sky area) It shows BACK_GAIN and SKY_GAIN). Since the well-known method which is disclosed by Unexamined-Japanese-Patent No. 2014-155001 can be used for calculation of the input-output characteristic with respect to each to-be-photographed object area | region which concerns on this embodiment, for example Description of is omitted.
図12(b)は、図12(a)に示した被写体領域別に与える階調補正に基づいて、画像全体で共通する階調特性を決定するための2種類の入出力特性(Dレンジ優先およびコントラスト優先の入出力特性)を表している。これらの特性は、図12(a)に示す各入出力特性と、各被写体領域が多く分布する輝度範囲に基づいて生成される。入力信号の0から人物領域が多く分布する低輝度側の区間では、人物領域の入出力特性が適用され、反対に入力信号の最大値から空領域が多く分布する高輝度側の区間には空領域の入出力特性が適用される。図12(b)に示すコントラスト優先の入出力特性は、コントラストを強調するための入出力特性であり、その特徴は、図12(a)に示した人物領域の入出力特性に加え、背景領域、空領域の入出力特性の傾きを取り入れている点である。即ち、人物領域は明るさとコントラストを、背景領域および空領域はコントラストを実現することができる。 FIG. 12 (b) shows two types of input / output characteristics (D range priority and priority) for determining the gradation characteristic common to the whole image based on the gradation correction given to each subject area shown in FIG. 12 (a). Represents the input / output characteristics of contrast priority. These characteristics are generated based on each input / output characteristic shown in FIG. 12A and a luminance range in which each subject region is distributed in large numbers. The input / output characteristics of the person area are applied to the low luminance side section where many human areas are distributed from 0 of the input signal, and the sky side is the empty section where many empty areas are distributed from the maximum value of the input signal The input and output characteristics of the region apply. The contrast priority input / output characteristic shown in FIG. 12 (b) is an input / output characteristic for emphasizing the contrast, and its feature is the background area in addition to the input / output characteristic of the person area shown in FIG. 12 (a). , The slope of the input and output characteristics of the empty region. That is, the person area can realize brightness and contrast, and the background area and the sky area can realize contrast.
一方、図12(b)に示すDレンジ優先の入出力特性は、画像全体でダイナミックレンジを確保するための入出力特性である。この入出力特性の特徴は、図12(a)に示した人物領域の入出力特性と、空領域の入出力特性の2つを取り入れている点であり、人物領域と空領域の明るさとコントラストを実現できる。入力信号の0から人物領域が多く分布する低輝度側の区間では、人物領域の入出力特性を用いており、反対に最大値から空領域が多く分布する高輝度側の区間は空領域の入出力特性となっている。これらの各区間の間である中間輝度の区間は、低輝度側の人物の顔領域の入出力特性と、高輝度側の空領域の入出力特性をつなげるような特性となっている。 On the other hand, the input / output characteristic of D range priority shown in FIG. 12B is an input / output characteristic for securing a dynamic range in the entire image. The characteristic of this input / output characteristic is that the input / output characteristic of the person area shown in FIG. 12A and the input / output characteristic of the sky area are taken into consideration. The brightness and the contrast of the person area and the sky area Can be realized. The input / output characteristics of the person area are used in the low luminance side section where many human areas are distributed from 0 of the input signal, while the high luminance section where many empty areas are distributed from the maximum value is the empty area It is an output characteristic. A section of intermediate luminance, which is between these sections, is a characteristic that connects the input / output characteristic of the face area of the person on the low luminance side and the input / output characteristic of the sky area on the high luminance side.
図12(c)は、図12(b)に示す2つの階調特性を加重加算して算出した入出力特性であり、画像全体に共通して適用する1つの階調特性である。なお、図12(b)および図12(c)に示した入出力特性の算出には、例えば特開2014−153959号公報に開示されているような公知の階調算出処理を用いることができる。 FIG. 12C is an input / output characteristic calculated by weighted addition of the two gradation characteristics shown in FIG. 12B, which is one gradation characteristic commonly applied to the entire image. For the calculation of the input / output characteristics shown in FIGS. 12 (b) and 12 (c), known gradation calculation processing as disclosed in, for example, JP-A-2014-153959 can be used. .
図12(d)は、図12(c)の入出力特性に基づいて生成されたゲインテーブルを示しており、縦軸はゲイン値(階調補正量)を、横軸は入力信号をそれぞれ示す。階調特性決定部202は、図12(c)に示す入出力特性を式(1)に代入してゲイン値Gain(X)を算出し、ゲイン値Gain(X)に基づくゲインテーブルを生成する。階調特性決定部202は、ゲインテーブルの生成を終えるとゲインMAP生成部203に結果を出力して階調特性決定処理を終了する。
FIG. 12 (d) shows a gain table generated based on the input / output characteristics of FIG. 12 (c), where the vertical axis shows the gain value (tone correction amount) and the horizontal axis shows the input signal. . The gradation
(NR処理の概要)
次に、S505におけるNR処理について、より詳細に説明する。
(Outline of NR processing)
Next, the NR process in S505 will be described in more detail.
NR処理は、入力画像に対する閾値付き平均値処理および、閾値付き平均値処理後の画像と入力画像とを合成する画像合成処理の2つの処理から構成される。閾値付き平均値処理は、処理対象画素と相関が強い周辺画素を用いるようにした平均値の算出処理であり、解像感を保持しつつノイズを低減することができる。本実施形態では、閾値付き平均値処理として、例えば式(2)で表すMTM(Modified Trimmed Mean)フィルタを入力画像に適用する。なお、THは閾値、Nは参照画素の範囲、Wはフィルタ係数、pixはフィルタ前の画素値を表し、out_pixをフィルタ後の処理対象画素を指す。また、処理対象画素の座標を(i,j)で表す。 The NR process is composed of two processes: a thresholded average value process for an input image, and an image combining process for combining the image after the thresholded average value process and the input image. The thresholded average value process is an average value calculation process in which peripheral pixels having a strong correlation with the processing target pixel are used, and noise can be reduced while maintaining a sense of resolution. In the present embodiment, as the thresholded average value processing, for example, an MTM (Modified Trimmed Mean) filter represented by Expression (2) is applied to the input image. Note that TH is a threshold, N is a range of reference pixels, W is a filter coefficient, pix is a pixel value before filtering, and out_pix is a pixel to be processed after filtering. Further, the coordinates of the processing target pixel are represented by (i, j).
一方、式(2)で示した平均値処理のみを適用して画像を生成する場合、ノイズ低減の効果が領域に応じて異なるため、画像内に不自然なムラが残り得る。このような画像内のムラの発生を防止するため、式(2)に示す平均値処理後の画像と平均値処理前の画像とを合成する画像合成処理を行う。NR処理部205は、式(3)に従って、各画像の同一座標の画素値を加重加算し、自然なNR処理後の画像を生成する。なお、prepixは平均値処理前の画素値、postpixは平均値処理後の画素値、zは平均値処理後の画像に対する加重加算係数を表す。また、処理対象画素の座標を(i,j)で表す。
On the other hand, when an image is generated by applying only the average value processing shown in Equation (2), since the effect of noise reduction differs depending on the region, unnatural unevenness may remain in the image. In order to prevent the occurrence of such unevenness in the image, an image combining process is performed to combine the image after the average value processing shown in Equation (2) with the image before the average value processing. The
式(2)に示した閾値付き平均値処理の閾値THと、式(3)に示した画像合成処理の加重加算係数zの値は、例えば図10(a)および図10(b)に示す特性を持つようにしてもよい。それぞれの図の横軸は、ともに処理対象の画素位置(i,j)の画素値(ここでは輝度信号)を表している。また、図10(a)の縦軸は閾値THの値を、図10(b)の縦軸は画像合成処理の加重加算係数zの値をそれぞれ表している。例えば、閾値THは画素値(ここでは輝度信号)に対して対数関数のカーブで表わされる特性を示し、加重加算係数zは画素値に対して逆ガンマ特性のカーブで表される特性を示している。 The threshold value TH of the thresholded average value process shown in the equation (2) and the value of the weighted addition coefficient z of the image combining process shown in the equation (3) are shown, for example, in FIGS. 10 (a) and 10 (b). You may make it have a characteristic. The horizontal axes of the respective drawings each represent a pixel value (here, a luminance signal) of the pixel position (i, j) to be processed. The vertical axis in FIG. 10A represents the value of the threshold TH, and the vertical axis in FIG. 10B represents the value of the weighted addition coefficient z of the image combining process. For example, the threshold TH indicates a characteristic represented by a logarithmic function curve with respect to a pixel value (here, luminance signal), and the weighted addition coefficient z indicates a characteristic represented by a curve with an inverse gamma characteristic with respect to the pixel value. There is.
(NR処理に係る一連の動作)
上述したように、階調補正量が大きい場合には、階調補正処理によってノイズが増幅される影響が現れる。このため、階調補正量に応じて閾値付き平均値処理の閾値THと画像合成処理の加重加算係数zの値を適宜調整する必要がある。以下では、図6および図7を参照してNR処理の一連の動作を説明しながら、閾値THの算出処理と加重加算係数zの値の算出処理について説明する。なお、図6に示すNR処理の一連の動作は、図3(a)および(b)に示す各機能ブロックが動作主体として対応する処理を実行することで実現される。このため、図6に示す各ステップの説明においてはこれらの各動作主体を適宜参照しながら説明する。また、図3(a)に示す実線および点線で示した矢印は、図2と同様にそれぞれ本線系の処理および評価値系の処理の流れを示している。
(A series of operations related to NR processing)
As described above, when the gradation correction amount is large, the influence of amplification of noise by the gradation correction processing appears. Therefore, it is necessary to appropriately adjust the threshold value TH of the threshold value-based average value processing and the value of the weighted addition coefficient z of the image combining processing according to the gradation correction amount. Hereinafter, the process of calculating the threshold TH and the process of calculating the value of the weighted addition coefficient z will be described while describing a series of operations of the NR process with reference to FIGS. 6 and 7. Note that a series of operations of the NR process shown in FIG. 6 are realized by executing processes corresponding to the respective functional blocks shown in FIGS. 3A and 3B. Therefore, in the description of each step shown in FIG. Further, arrows shown by solid lines and dotted lines shown in FIG. 3A indicate flows of processing of the main line system and processing of the evaluation value system, as in FIG.
また、NR処理部205は、処理対象画素の位置(x,y)を順次変更して全ての画素に対して以下に説明する処理を行う。
In addition, the
S601において、NR処理部205は、処理対象の画素位置(x,y)を始点(0,0)に初期化する。
In step S601, the
S602において、閾値付き平均値処理を行うための閾値TH(x,y)を、式(2)に基づいて算出する。本ステップに係る閾値TH(x,y)の算出処理(閾値算出処理ともいう)については、さらに図7(a)を参照して説明する。なお、本ステップに係る閾値算出処理は、輝度別閾値算出部301と、図3(b)に示す閾値調整部302がそれぞれ対応する処理を実行することにより実現される。
In S602, a threshold TH (x, y) for performing thresholded average value processing is calculated based on Expression (2). The calculation process (also referred to as a threshold calculation process) of the threshold TH (x, y) according to this step will be further described with reference to FIG. 7 (a). The threshold calculation process according to this step is realized by executing processes respectively corresponding to the brightness-based
S701において、輝度別閾値算出部301は、処理対象の画素位置(x,y)の入力信号に基づいて、輝度別閾値TH_y(x,y)を算出する。本実施形態において、輝度別閾値算出部301は、図10(a)に示した特性を参照して輝度別閾値TH_y(x,y)を算出する。即ち、輝度別閾値算出部301は、全ての画素位置(x,y)の輝度信号Yについて、対応するTH_yを取得する。
In S701, the by-luminance
S702において、閾値調整部302は、S701で算出した輝度別閾値TH_y(x,y)、S502において決定された階調補正量および被写体判別結果を入力して、階調補正量および被写体領域を反映させた閾値TH (x,y)を算出する。なお、本処理を閾値調整処理ともいう。
In step S702, the
閾値調整部302による閾値調整処理を、図7(b)を参照してより詳細に説明する。なお、閾値調整部302は、図3(b)に示すように、信頼度算出部310、階調補正量調整部311および被写体別調整部312から構成され、1点鎖線の枠内はそれぞれ階調補正量調整部311、被写体別調整部312の内部をさらに表している。
The threshold adjustment processing by the
S703において、階調補正量調整部311は、処理対象の画素位置(x,y)の階調補正量Gain(x,y)を取得する。本実施形態では、階調補正量Gain(x,y)は、式(4)に示すように、対応するゲインMAPの画素位置(x,y)を参照して階調補正量を取得する。ここで、GainMap(x,y)はゲインMAPの処理対象の画素位置(x,y)の値を表す。
In S703, the gradation correction
S704において、階調補正量調整部311は、入力された閾値TH_y(x,y)に対して、式(5)に示す階調補正量Gain(x,y)および固定パラメータkを乗算することにより、閾値TH_g(x,y)を算出する。ここで、固定パラメータkは、階調補正量Gain(x,y)を反映する量を調整するためのパラメータであり、予め実験等によって求めた階調補正量に対して最適な値を用いればよい。
In S704, the gradation correction
このように、階調補正量が大きいほど閾値が大きくなるように閾値を算出する。このような閾値を算出すれば、階調補正量が大きいほど、式(2)に示す平均化において輝度差の大きな画素を含むように画素が選択される。すなわち、階調補正量の大きさに応じて平均化される画素値の幅あるいは画素数を変動させることができ、階調補正量の大きさに応じてノイズ除去の強度を変更することができる。 As described above, the threshold value is calculated such that the threshold value increases as the gradation correction amount increases. If such a threshold value is calculated, pixels are selected so as to include pixels having a large luminance difference in the averaging shown in equation (2) as the gradation correction amount is larger. That is, the width or the number of pixels of the pixel value to be averaged can be changed according to the magnitude of the gradation correction amount, and the noise removal intensity can be changed according to the magnitude of the gradation correction amount .
S705において、信頼度算出部310は、S501において算出された被写体判別結果dis(x,y)を取得して、各被写体領域である可能性を示す信頼度を算出する。本実施形態では、被写体判別結果dis(x,y)は、空領域度合、背景領域度合、人物領域度合を示し、度合を0から1023までの値で表わされる。信頼度算出部310は、被写体判別結果dis(x,y)を正規化することにより、各画像位置(x,y)について式(6)を満たす人物領域の信頼度をα、背景領域の信頼度をβ、空領域の信頼度をγとする各信頼度を算出する。
In step S705, the
なお、本実施形態では3つの被写体領域の信頼度を算出しているが、人物領域を顔領域と体領域とに区別して、顔領域および体領域の信頼度をそれぞれ算出しても良い。 Although the reliability of the three subject areas is calculated in the present embodiment, the human area may be divided into the face area and the body area, and the reliability of the face area and the body area may be calculated.
S706において、被写体別調整部312は、S704で算出された閾値TH_g(x,y)に対して各被写体領域用の調整パラメータ(即ち重み付け)を反映させ、被写体領域ごとの閾値を算出する。本実施形態では、式(7)のように人物領域の閾値TH_human(x,y)、背景領域の閾値TH_back(x,y)、空領域の閾値TH_sky(x,y)を算出する。なお、human_adj、back_adj、sky_adjはそれぞれ、人物領域、背景領域、空領域用の調整パラメータである。
In S706, the by-
このように各々の被写体領域用の調整パラメータを反映させることにより、同じ階調補正量においても被写体領域ごとに適用する閾値を調整することができる。具体的には、人物領域および空領域では、背景領域に比べてNR処理の強度を強めつつ、エッジ強調の強度を弱めるように調整することにより、人物領域および空領域ではノイズが少なく、背景領域では解像感の高い、印象の良い画像を生成することができる。なお、本実施形態では、3つの被写体領域の調整パラメータを用いて閾値を算出したが、人物領域を顔領域と体領域に分け、4つの調整パラメータで閾値を算出しても良い。 As described above, by reflecting the adjustment parameter for each subject area, it is possible to adjust the threshold applied to each subject area even with the same gradation correction amount. Specifically, in the person area and the sky area, noise is reduced in the person area and the sky area by making adjustments so as to weaken the intensity of the edge enhancement while increasing the strength of the NR process compared to the background area. In this case, it is possible to generate an impressive image with high resolution. In the present embodiment, the threshold is calculated using the adjustment parameters of the three subject areas, but the human area may be divided into the face area and the body area, and the threshold may be calculated using four adjustment parameters.
S707において、被写体別調整部312は、S705で算出された各被写体領域の信頼度と、S706で算出した各被写体領域の閾値に基づいて、最終的な閾値TH(x,y)を算出する。本実施形態では、式(8)のように加重平均をとることにより閾値TH(x,y)を算出する。ここで、TH_human(x,y)、TH_back(x,y)、TH_sky(x,y)は、それぞれ人物領域、背景領域、空領域の閾値であり、α、β、γはそれぞれ人物領域、背景領域、空領域の信頼度である。 In step S707, the adjustment unit for each subject 312 calculates a final threshold TH (x, y) based on the reliability of each subject area calculated in step S705 and the threshold value of each subject area calculated in step S706. In the present embodiment, the threshold TH (x, y) is calculated by taking a weighted average as shown in equation (8). Here, TH_human (x, y), TH_back (x, y), and TH_sky (x, y) are the person area, background area, and sky area thresholds, respectively, and α, β, and γ are person area and background, respectively. It is the reliability of the area and the empty area.
このように、階調補正量に応じた閾値を、信頼度に応じて調整することで、さらに被写体領域に応じて、式(2)において平均化される画素値の幅あるいは画素数を変動させることができ、被写体領域に応じてノイズ除去の強度を変更することができる。 As described above, by adjusting the threshold according to the gradation correction amount according to the reliability, the width or the number of pixels of the pixel value averaged in equation (2) is changed according to the subject area. It is possible to change the noise removal intensity according to the subject area.
閾値調整部302は、閾値調整処理を完了すると、読出し元であるS602に処理を戻す。
When the threshold adjustment process is completed, the
S603において、平均値処理部303は、S602で算出した閾値TH(x,y)を用いて、式(2)に基づく閾値付き平均値処理を実行し、処理後の入力画像を合成処理部306に出力する。
In S603, the average
S604において、輝度別加重加算係数算出部304および加重加算係数調整部305は、式(3)に基づく画像合成処理を行うための加重加算係数zを算出する。加重加算係数zの算出方法は、NR処理の閾値TH(x,y)の算出方法と同様に、階調補正量および被写体判別結果を用いて算出することができるため、詳細な説明は省略する。なお、加重加算係数の算出においては、上記閾値の算出方法における閾値部分を加重加算係数に置き換えて、閾値TH(x,y)と同様に、画素位置(x,y)に応じた加重加算係数z(x,y)を算出する。まず輝度別加重加算係数算出部304は、図10(b)に示す加重加算係数を参照して輝度別加重加算係数を算出する。そして加重加算係数調整部305は、更に階調補正量Gain(x,y)、被写体領域用の調整パラメータおよび各被写体領域の信頼度(あるいは被写体判別結果)を用いて加重加算係数z(x,y)を算出すればよい。
In S604, the luminance-based weighted addition
S605において、合成処理部306は、S604で算出された加重加算係数z(x,y)(単にzとも表す)を用いて、式(3)に基づいて平均値処理前の画素値と平均値処理後の画素値を合成して画像合成処理を行う。合成処理部306は、NR処理の結果として合成後の画素値を出力する。
In step S605, the
S606において、NR処理部205は、上述したS602〜S605の処理を画像の全ての画素に対して行うため、全ての画素について処理を行ったかを判定する。NR処理部205は、全ての画素に対する処理を完了していない場合には、再びS602に処理を戻すためにS607に処理を進め、全ての画素に対して処理を完了している場合には、本処理に係る一連の動作を完了する。
In step S606, the
S607において、NR処理部205は、処理対象の画素位置(x,y)を更新して、再びS602から一連の動作を実行する。
In S607, the
(エッジ強調処理)
次に、S507に示したエッジ強調処理についてより詳細に説明する。本実施形態に係るエッジ強調処理は、まず入力画像から高周波成分を抽出したAC信号と高周波成分を除いたDC信号とを生成し、さらに生成したAC信号およびDC信号に別々の信号処理を行ったうえで、これらの信号を加算した画像を生成する。
(Edge emphasis processing)
Next, the edge emphasizing process shown in S507 will be described in more detail. In the edge enhancement processing according to the present embodiment, first, an AC signal obtained by extracting a high frequency component from an input image and a DC signal obtained by removing the high frequency component are generated, and separate signal processing is performed on the generated AC signal and DC signal. In addition, an image is generated by adding these signals.
以下では、図8および図9を参照してエッジ強調処理の一連の動作を説明しながら、各信号の生成処理やエッジ補正処理について説明する。なお、図8に示すエッジ強調処理の一連の動作は、図4(a)および(b)に示す各機能ブロックが動作主体として対応する処理を実行することで実現される。このため、図8に示す各ステップの説明においてはこれらの各動作主体を適宜参照しながら説明する。また、図4(a)に示す実線および点線で示した矢印は、図2と同様にそれぞれ本線系の処理および評価値系の処理の流れを示している。 In the following, generation processing of each signal and edge correction processing will be described while describing a series of operations of the edge enhancement processing with reference to FIG. 8 and FIG. Note that a series of operations of the edge enhancement process shown in FIG. 8 are realized by executing processes corresponding to the respective functional blocks shown in FIGS. 4A and 4B. Therefore, in the description of each step shown in FIG. Further, arrows shown by solid lines and dotted lines shown in FIG. 4A indicate flows of processing of the main line system and processing of the evaluation value system, as in FIG.
また、エッジ強調処理部206は、処理対象画素の位置(x,y)を順次変更して全ての画素に対して以下に説明する処理を行う。
Also, the edge
S801において、エッジ強調処理部206は、例えば入力画像の左上の画素の座標を始点とするため処理対象の画素位置(x,y)を(0,0)に初期化する。
In step S801, the edge
S802において、AC・DC信号生成部401は、入力画像の信号in(x,y)に基づいて、高周波成分を抽出したAC信号AC_in(x,y)と高周波成分を除いたDC信号DC_in(x,y)を生成する。AC・DC信号生成部401は、信号の生成方法について、例えば特開2012−39603号公報に開示されているような公知のバンドパスフィルタを用いた手法を用いることができる。このため、信号の生成方法についての詳細な説明は省略する。
In step S802, the AC / DC
S803において、エッジ補正部403は、S802で生成したAC信号AC_in(x,y)を入力してエッジ補正処理を行った信号AC_out(x,y)を算出する。エッジ補正処理については後述する。
In step S803, the
S804において、γ処理部402は、S802で生成したDC信号DC_in(x,y)を入力してγ処理を行った信号DC_out(x,y)を算出する。γ処理は、信号値を表示系の特性に合わせるための公知の方法を用いることができ、γ処理部402は、例えばγ特性のカーブによってm+nビットからmビットに圧縮する処理(m,n≧0)を行う。
In step S804, the
S805において、信号加算部404は、S803で算出されたAC_out(x,y)とS804で算出されたDC_out(x,y)を加算して、エッジ強調処理後の信号out(x,y)を生成する。
In step S805, the
S806において、エッジ強調処理部206は、画像の全ての画素に対してS805までの処理を完了したかを判定する。全ての画素に対する処理を完了している場合、エッジ強調処理に係る一連の動作を終了し、一方、全ての画素に対する処理を完了していない場合はS807に処理を進める。
In step S806, the edge
S807において、エッジ強調処理部206は、処理対象の画素位置(x,y)を更新して再びS802に処理を進める。
In step S807, the edge
(エッジ補正処理の概要)
次に、上述したS803におけるエッジ補正処理について説明する。本実施形態におけるエッジ補正処理では、エッジコアリング処理とエッジゲイン処理とを行う。なお、本実施形態では、エッジ強調によって発生するノイズ成分を低減するコアリング処理を適用するにあたって、例えば特開2011−49965号公報に開示されるようなエッジコアリング処理を行う。より具体的には、高周波信号に含まれる微小なノイズ成分をカットするために、式(9)を用いて入力信号から算出したコアリング量を減算する。なお、BCはコアリング量、AC_inは入力信号、AC_BCはコアリング処理後の信号である。
(Outline of edge correction processing)
Next, the edge correction processing in step S803 described above will be described. In the edge correction processing in the present embodiment, edge coring processing and edge gain processing are performed. In addition, in this embodiment, when applying the coring process which reduces the noise component generate | occur | produced by edge emphasis, the edge coring process which is disclosed by Unexamined-Japanese-Patent No. 2011-49965, for example is performed. More specifically, in order to cut off a minute noise component included in the high frequency signal, the coring amount calculated from the input signal using Expression (9) is subtracted. Here, BC is a coring amount, AC_in is an input signal, and AC_BC is a signal after coring processing.
また、エッジゲイン処理では、式(10)を用いてコアリング処理後の高周波信号にゲインを乗算して高周波信号を強調する。AC_BCはコアリング処理後の信号、AC_outはエッジのゲイン処理後の信号、APCGainはエッジのゲイン量である。 Further, in the edge gain processing, the high frequency signal after the coring processing is multiplied by the gain using the equation (10) to emphasize the high frequency signal. AC_BC is a signal after coring processing, AC_out is a signal after edge gain processing, and APCGain is an edge gain amount.
式(9)のエッジコアリング処理のコアリング量BCと式(10)のエッジゲイン処理のゲイン量APC_Gainの値は、それぞれ図14(a)および(b)で表される。なお、図14の横軸は入力信号(CD信号から生成した輝度信号Y)の値を、縦軸はそれぞれコアリング量およびエッジゲイン値を示している。エッジコアリング処理のコアリング量BCは、例えば図14(a)に示すように対数関数のカーブで表され、画像合成処理の加重加算係数APC_Gainは図14(b)のように逆ガンマ特性のカーブで表される。 The values of the coring amount BC of the edge coring processing of equation (9) and the gain amount APC_Gain of the edge gain processing of equation (10) are represented by FIGS. 14 (a) and (b), respectively. The horizontal axis in FIG. 14 indicates the value of the input signal (luminance signal Y generated from the CD signal), and the vertical axis indicates the coring amount and the edge gain value, respectively. The coring amount BC of the edge coring processing is represented by, for example, a curve of a logarithmic function as shown in FIG. 14 (a), and the weighted addition coefficient APC_Gain of the image combining processing has an inverse gamma characteristic as shown in FIG. 14 (b). Represented by a curve.
(エッジ補正処理に係る一連の動作)
さらに、本実施形態に係るエッジ補正処理の一連の動作について、図9を参照して説明する。本実施形態では、階調補正処理によりノイズが増幅する影響があるため、階調補正量に応じて式(9)のエッジコアリング処理のコアリング量BCおよび、式(10)のエッジゲイン処理のゲイン量APC_Gainの値を制御する。
(A series of operations related to edge correction processing)
Furthermore, a series of operations of the edge correction process according to the present embodiment will be described with reference to FIG. In the present embodiment, since the noise is affected by the tone correction processing, the coring amount BC of the edge coring processing of equation (9) and the edge gain processing of equation (10) according to the tone correction amount. Control the value of the gain amount APC_Gain of
以下では、エッジ補正処理の一連の動作を説明しながら、コアリング量の算出処理とエッジゲイン処理におけるゲイン量の算出処理について説明する。なお、図9に示すエッジ補正処理の一連の動作は、図4(a)および(b)に示す各機能ブロックが動作主体として対応する処理を実行することで実現される。このため、図9に示す各ステップの説明においてはこれらの各動作主体を適宜参照しながら説明する。また、図4(a)および(b)に示す実線および点線で示した矢印は、図2と同様にそれぞれ本線系の処理および評価値系の処理の流れを示している。 Hereinafter, the process of calculating the amount of coring and the process of calculating the amount of gain in the edge gain process will be described while describing a series of operations of the edge correction process. The series of operations of the edge correction process shown in FIG. 9 are realized by executing processes corresponding to the respective functional blocks shown in FIGS. 4A and 4B. Therefore, in the description of each step shown in FIG. 9, the description will be made by appropriately referring to each of these operation subjects. Further, arrows shown by solid lines and dotted lines shown in FIGS. 4A and 4B indicate the flows of the processing of the main line system and the processing of the evaluation value system, as in FIG.
S901において、輝度別コアリング量算出部411およびコアリング量調整部412は、式(9)のエッジコアリング処理に用いるコアリング量BC(x,y)を算出する。コアリング量BC(x,y)の算出については、上述したNR処理の閾値TH(x,y)の算出方法と同様に行うことができる。例えば、まず輝度別コアリング量算出部411が、図14(a)に示すコアリング量を参照して輝度別のコアリング量を算出する。そして、コアリング量調整部412が、階調補正量Gain(x,y)、被写体領域用の調整パラメータおよび各被写体領域の信頼度(あるいは被写体判別結果)を用いて加重平均されたコアリング量BC(x,y)を得ればよい。
In S901, the luminance-based coring
S902において、コアリング処理部413は、入力したAC信号AC_in(x,y)に対してエッジコアリング処理を行い、コアリング処理後の信号AC_BC(x,y)を出力する。具体的には、AC信号とS901で算出されたコアリング量BC(x,y)とを用いて、式(9)に従うエッジコアリング処理を行ってAC_BC(x,y)をゲイン乗算部416に出力する。
In S902, the
S903において、輝度別エッジゲイン算出部414およびエッジゲイン調整部415は、エッジゲイン処理に用いる(即ち式(10)で用いる)ゲイン量APCGain(x,y)を算出する。なお、エッジゲイン処理のゲイン量APCGain(x,y)の算出についても、NR処理の閾値TH(x,y)の算出方法と同様に行うことができる。例えば、まず輝度別エッジゲイン算出部414は、図14(a)に示すエッジゲインを参照して輝度別エッジゲインを算出する。さらにエッジゲイン調整部415は、階調補正量Gain(x,y)、被写体領域用の調整パラメータおよび各被写体領域の信頼度(あるいは被写体判別結果)を用いて加重平均されたAPCGain(x,y)を算出すればよい。
In step S 903, the luminance
このように、階調補正量が大きいほどエッジゲイン処理のゲイン量が大きくなるように当該処理のゲイン量を算出する。このようなゲイン量を算出すれば、階調補正量が大きいほど、式(10)に示す先鋭化において大きなゲインが与えられる。すなわち、階調補正量の大きさに応じてエッジの補正量を変動させることができ、階調補正量の大きさに応じてエッジ強調の強度を変更することができる。さらに、階調補正量に応じたエッジの補正量を、信頼度に応じて調整することで、さらに被写体領域に応じてエッジの補正量を変動させることができ、被写体領域に応じてエッジ強調の強度を変更することができる。 Thus, the gain amount of the processing is calculated so that the gain amount of the edge gain processing becomes larger as the gradation correction amount is larger. If such a gain amount is calculated, the larger the gradation correction amount is, the larger the gain is given in the sharpening shown in the equation (10). That is, the edge correction amount can be varied according to the magnitude of the gradation correction amount, and the strength of the edge enhancement can be changed according to the magnitude of the gradation correction amount. Furthermore, by adjusting the edge correction amount according to the gradation correction amount according to the reliability, the edge correction amount can be further varied according to the subject area, and edge enhancement is performed according to the subject area. The strength can be changed.
S904において、ゲイン乗算部416は、S902で算出されたAC_BC(x,y)とS903で算出されたゲイン量APCGain(x,y)とを用いて、式(10)に従うエッジゲイン処理を行う。ゲイン乗算部416は、エッジゲイン処理後(補正後)の信号AC_out(x,y)をエッジ補正処理後の信号として出力する。エッジ補正部403は、当該補正後のAC信号が出力されるとエッジ補正処理に係る一連の処理を終了する。
In step S904, the
以上説明したように本実施形態では、NR処理において、閾値付き平均化処理における閾値および加重加算係数を階調補正量および被写体領域に応じて調整するようにした。また、エッジ強調処理においても同様に、コアリング量およびエッジゲインを階調補正量および被写体領域に応じて調整するようにした。このようにすることで、階調補正量および被写体領域を考慮してノイズ除去およびエッジ強調の強度を制御することが可能になる。従って、被写体領域の特性に応じた、高コントラスト、広ダイナミックレンジかつSN比の高い画像を生成することができる。 As described above, in the present embodiment, in the NR process, the threshold value and the weighted addition coefficient in the thresholding averaging process are adjusted in accordance with the gradation correction amount and the subject area. In addition, also in the edge emphasizing process, the coring amount and the edge gain are adjusted in accordance with the gradation correction amount and the subject region. By doing this, it is possible to control the noise removal and the edge emphasis in consideration of the gradation correction amount and the subject area. Therefore, it is possible to generate an image with high contrast, wide dynamic range, and high SN ratio according to the characteristics of the subject area.
(実施形態2)
次に、実施形態2について説明する。実施形態2では、実施形態1と同様に、階調補正量および被写体領域に応じたNRおよびエッジ強調処理を行う。しかし、本実施形態では、NR処理およびエッジ強調処理に用いる階調補正量はゲインMAPからでは無く、ゲインテーブルから算出する点が異なる。即ち、図15(a)に示すNR処理部1501とエッジ強調処理部1502は、ゲインMAP生成部203で生成したゲインMAPではなく、階調特性決定部202で決定した階調特性を入力してそれぞれの処理を行う点が異なる。このようにすることで、入力画像と同サイズのゲインMAPをNR、エッジ強調処理を行うまでメモリに記録する必要が無くなり、メモリ使用量の効率化が図られる利点がある。
Second Embodiment
Next, the second embodiment will be described. In the second embodiment, as in the first embodiment, NR and edge enhancement processing are performed according to the tone correction amount and the subject area. However, in the present embodiment, the gradation correction amount used for the NR process and the edge enhancement process is not from the gain MAP but different from the point of calculation from the gain table. That is, the
なお、NR処理部1501とエッジ強調処理部1502以外の構成は実施形態1と同一であるため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
The configuration other than the
図15(a)に示すように、本実施形態に係るNR処理部1501とエッジ強調処理部1502は、階調特性決定部202から出力される階調特性が入力されるように構成されている。
As shown in FIG. 15A, the
本実施形態に係るNR処理部1501の機能構成例について、図15(b)を参照して説明する。本実施形態では、NR処理部1501は、階調特性決定部202で決定された階調特性を入力して、階調補正量推定部1503において新たな処理を行う。実施形態1では、式(4)に従ってゲインMAPから直接、階調補正量を取得していたのに対して、本実施形態では階調特性決定部202で決定した階調特性を用いて、式(11)に従って階調補正量を取得する。ここで、Gainは階調補正量、in(x,y)は参照用の入力信号、GainTbl_afterはゲイン後の入力信号を対象としたゲインテーブルである。また参照用の入力信号は、NR処理部1501に入力した画像(ゲイン処理部204によって階調補正された画像)である。
An exemplary functional configuration of the
式(11)のゲイン後の入力信号を対象としたゲインテーブルGainTbl_afterについて、図17を参照して説明する。図17(a)は、階調特性決定部202で決定した階調特性を示しており、ゲイン前の入力信号Xを対象としたゲインテーブルである。このゲインテーブルは、式(12)で表すように、GainTbl_preと階調補正量Gainの関係で表される。
The gain table GainTbl_after for the input signal after the gain of Expression (11) will be described with reference to FIG. FIG. 17A shows the gradation characteristic determined by the gradation
一方、図17(b)は、ゲイン後の入力信号X ’を対象としたゲインテーブルである。このゲインテーブルをGainTbl_afterとすると、ゲイン前の入力信号Xを対象としたゲインテーブルGainTbl_preとの関係は式(13)のようになる。 On the other hand, FIG. 17B is a gain table for the input signal X 'after gain. Assuming that this gain table is GainTbl_after, the relationship with the gain table GainTbl_pre for the input signal X before gaining is as shown in Expression (13).
このように、階調補正量推定部1503は、ゲインテーブルGainTbl_preを入力して、ゲイン後の入力信号を対象としたゲインテーブルGainTbl_afterを作成したうえで、参照用の入力信号に基づいて階調補正量Gainを算出する。
As described above, the gradation correction
階調補正量推定部1503は、算出した階調補正量を閾値調整部302および加重加算係数調整部305に出力し、これらの機能ブロックは入力した階調補正量を用いて実施形態1で上述した各処理を行う。
The gradation correction
さらに、エッジ強調処理部1502の機能構成例について、図16(a)および図16(b)を参照して説明する。上述したように、エッジ強調処理部1502は、NR処理部1501と同様に階調特性決定部202で決定された階調特性を入力する。入力された階調特性は、エッジ補正部1601に入力されるように構成されている。また、図16(b)に示す階調補正量推定部1602は、入力した階調特性に基づいて階調補正量を算出する。この階調補正量推定部1602は、NR処理部1501に備わる階調補正量推定部1503と同一の処理を行うものである。なお、階調補正量推定部1602以外の構成は実施形態1と同様である。
Furthermore, a functional configuration example of the edge
以上説明したように本実施形態では、階調特性決定部202で決定した階調特性を用いて、NR処理およびエッジ強調処理を行うようにした。このようにして、ゲインテーブルから階調補正量を算出することで、さらにメモリ使用の効率化を図ることが可能になる。
As described above, in the present embodiment, NR processing and edge enhancement processing are performed using the gradation characteristic determined by the gradation
(実施形態3)
さらに実施形態3について説明する。本発明の第3の実施形態は、被写体領域ごとに複数の階調特性を用いた階調処理を行い、この階調処理に応じたNR処理およびエッジ強調処理を行う。このため、実施形態1および実施形態2とは、主に階調特性決定処理、NR処理およびエッジ強調処理において、当該複数の階調特性を扱う点が異なる。その他の構成は実施形態2と同一であるため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 3)
The third embodiment will be further described. In the third embodiment of the present invention, tone processing using a plurality of tone characteristics is performed for each subject region, and NR processing and edge enhancement processing according to the tone processing are performed. For this reason, the second embodiment differs from the first and second embodiments in that the plurality of gradation characteristics are mainly handled in the gradation characteristic determination processing, the NR processing, and the edge enhancement processing. Since the other configuration is the same as that of the second embodiment, the same reference numerals are given to the same configuration, and the redundant description will be omitted, and differences will be mainly described.
まず、本実施形態の階調処理である領域別トーンマッピング処理について、図18を参照して説明する。 First, region-specific tone mapping processing, which is gradation processing of the present embodiment, will be described with reference to FIG.
図18(a)は、階調特性を説明した図12(a)と同様に、被写体領域ごとに与える場合の階調特性を入出力特性で表している。上述した実施形態では、図12(a)のような被写体の構成で撮影された画像に階調特性を適用する場合、各被写体領域に対応する階調特性に基づいて画面全体共通の階調特性(ゲインテーブル)を生成し、階調処理を行った。一方、本実施形態では、図18(b)に示すように、被写体領域ごとに異なる階調特性(ゲインテーブル)を用いることにより階調処理を行う。例えば、人物領域には、人物領域に対する入出力特性2001を適用し、背景領域および空領域にもそれぞれ入出力特性2002および2003がそれぞれ適用される。即ち、人物領域、背景領域および空領域に対してそれぞれゲインテーブルが生成されて階調処理が行われる。このように被写体領域ごとに異なる階調特性を適用することにより、同一の被写体領域内であれば入力信号の範囲によらず一定の入出力特性を適用することができる利点がある。
FIG. 18A shows, in the same manner as FIG. 12A showing the gradation characteristics, the gradation characteristics in the case of giving each object region as input / output characteristics. In the embodiment described above, when the gradation characteristic is applied to the image photographed with the configuration of the object as shown in FIG. 12A, the gradation characteristic common to the whole screen is based on the gradation characteristic corresponding to each object region. (Gain table) was generated and gradation processing was performed. On the other hand, in the present embodiment, as shown in FIG. 18B, tone processing is performed by using different tone characteristics (gain table) for each subject region. For example, the input /
また、本実施形態は、階調特性から階調補正量を算出する点で実施形態2と共通するが、階調特性が被写体領域ごとに存在するため、これらから階調補正量を算出する点が異なる。 Further, the present embodiment is the same as the second embodiment in that the gradation correction amount is calculated from the gradation characteristic, but since the gradation characteristic exists for each object region, the gradation correction amount is calculated from these Is different.
次に、本実施形態における画像処理部104の機能構成例について、図19を参照して説明する。本実施形態では、階調特性決定部2103は、図18(a)に示した被写体領域別に異なる階調特性を出力し、ゲインMAP生成部203、NR処理部2101およびエッジ強調処理部2102に入力される。NR処理部2101およびエッジ強調処理部2102は、上述したように入力した被写体領域ごとの階調特性から階調補正量を生成する。
Next, a functional configuration example of the
ゲインMAP生成部203は、被写体判別部201の出力である被写体判別結果を入力する。ゲインMAP生成部は、入力した被写体判別結果を用いて被写体領域を特定し、対応する階調特性を適用することでゲインMAPを生成する。
The gain
さらに、NR処理部2101について図20(a)を参照して説明する。被写体別階調補正量推定部2201は、階調特性決定部2103から出力された被写体領域別の階調特性を入力して、被写体領域ごとの階調補正量を算出する。被写体別階調補正量推定部2201は、算出した階調補正量を被写体領域ごとに加重加算係数調整部2202および閾値調整部2203に出力する。被写体領域ごとに階調補正量を算出する点以外については、実施形態2と同様である。
Further, the
被写体ごとの階調特性に基づいて被写体ごとの階調補正量を算出する方法について、図22を参照して説明する。 A method of calculating the gradation correction amount for each subject based on the gradation characteristic for each subject will be described with reference to FIG.
図22(a)には、階調特性決定部2103で決定される階調特性であり、ゲイン前の入力信号Xに対する被写体領域ごとのゲインテーブルを示している。人物領域、背景領域、空領域のゲインテーブルをそれぞれGainTbl_pre_human、GainTbl_pre_back、GainTbl_pre_skyとし、人物領域、背景領域、空領域の階調補正量をそれぞれGain_human, Gain_back, Gain_skyとする。ゲインテーブルと階調補正量の関係は、式(14)に表すようになる。
FIG. 22A shows the tone characteristics determined by the tone
これに対して、図22(b)には、ゲイン後の入力信号X ’を対象としたゲインテーブルを示している。人物領域、背景領域、空領域のゲインテーブルをそれぞれGainTbl_after_human、GainTbl_after_back、GainTbl_after_skyとし、ゲイン前の入力信号Xを対象としたゲインテーブルGainTbl_pre_human、GainTbl_pre_back、GainTbl_pre_skyとすると、これらの関係は、式(15)に表すようになる。 On the other hand, FIG. 22 (b) shows a gain table for the input signal X 'after gain. Assuming that gain tables for the human region, background region, and empty region are GainTbl_after_human, GainTbl_after_back, and GainTbl_after_sky, and gain tables GainTbl_pre_human, GainTbl_pre_back, and GainTbl_pre_sky for the input signal X before gain, these relationships are given by It will be expressed.
なお、式(15)は人物領域のゲインテーブルの関係を表しているが、背景領域、空領域のゲインテーブルについても同様である。 Although Equation (15) represents the relationship between the gain tables of the person area, the same applies to the gain tables of the background area and the sky area.
被写体別階調補正量推定部2201は、被写体領域ごとのゲインテーブルGainTbl_pre_human、GainTbl_pre_back、GainTbl_pre_skyを階調特性決定部2103から入力して、ゲイン後の入力信号を対象とした被写体領域別のゲインテーブルGainTbl_after_human、GainTbl_after_back、GainTbl_after_skyを作成する。そして、被写体領域ごとの階調補正量Gain_human, Gain_back, Gain_skyを参照用の入力信号に基づいて算出する。
A subject-specific tone correction
次に、被写体領域ごとの階調補正量を入力する閾値調整部2203の機能構成例について、図20(b)を参照して説明する。本実施形態に係る閾値調整部2203では、輝度別閾値THと被写体領域ごとの階調補正量を入力する。そして、階調補正量調整部2205が輝度別閾値THに対して被写体領域ごとの階調補正量Gain_human, Gain_back, Gain_skyと固定値k,l,mを式(16)のように乗算する。なお、TH_human, TH_back, TH_skyは各被写体領域の階調補正量により調整された閾値である。
Next, a functional configuration example of the threshold
被写体別階調補正量推定部2201から閾値TH_human, TH_back, TH_skyが出力された後の処理については、実施形態1および実施形態2と同様である。また、閾値調整部2203の処理を例に説明したが、加重加算係数調整部2202の処理についても同様に被写体領域ごとの階調補正量を入力した処理を行う。
The processing after the thresholds TH_human, TH_back, and TH_sky are output from the subject-specific tone correction
さらに、本実施形態に係るエッジ強調処理部2102の機能構成例について、図21(a)を参照して説明する。本実施形態に係るエッジ強調処理部2102は、NR処理部2101と同様に、階調特性決定部2103で決定された被写体ごとの階調特性を入力してエッジ強調処理を行う。
Furthermore, a functional configuration example of the edge
さらに、エッジ強調処理部2102に含まれるエッジ補正部2301について、図21(b)を参照して説明する。エッジ補正部2301は、階調特性決定部2103で決定された被写体領域ごとの階調特性、被写体判別結果およびDC/AC信号を入力する。被写体別階調補正量推定部2302は、入力された被写体領域ごとの階調特性に応じて被写体領域ごとの階調補正量を出力する。そして、エッジゲイン調整部415およびコアリング量調整部412は、被写体領域ごとの階調補正量を入力してゲイン量およびコアリング量を出力する。
Further, the
以上説明したように本実施形態では、被写体領域ごとの階調特性を用いて、被写体領域ごとに階調補正量を算出し、各階調補正量に応じたNR処理およびエッジ強調処理を行うようにした。このようにすることで、被写体領域ごとに適用された階調補正量に応じて、即ち階調補正量および被写体領域を考慮してノイズ除去およびエッジ強調の強度を制御することが可能になる。従って、被写体領域の特性に応じた、高コントラスト、広ダイナミックレンジかつSN比の高い画像を生成することができる。 As described above, in the present embodiment, the tone correction amount is calculated for each subject region using the tone characteristics for each subject region, and NR processing and edge enhancement processing according to each tone correction amount are performed. did. By doing this, it is possible to control the noise removal and the edge emphasis in accordance with the gradation correction amount applied to each object region, that is, in consideration of the gradation correction amount and the object region. Therefore, it is possible to generate an image with high contrast, wide dynamic range, and high SN ratio according to the characteristics of the subject area.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
104…画像処理部、201…被写体判別部、202…階調特性決定部、204…ゲイン処理部、205…NR処理部、206…エッジ強調処理部 104: image processing unit, 201: subject determination unit, 202: gradation characteristic determination unit, 204: gain processing unit, 205: NR processing unit, 206: edge enhancement processing unit
Claims (13)
前記画像の所定の領域ごとに階調補正するための階調補正量を決定する決定手段と、
前記階調補正量によって階調補正された画像に適用するノイズ除去の強度を、前記階調補正量と前記判別された被写体領域とに応じて変更するノイズ除去手段と、
前記ノイズ除去手段によりノイズの除去された画像に適用するエッジ強調の強度を、前記階調補正量と前記判別された前記被写体領域とに応じて変更するエッジ強調手段と、
を有することを特徴とする画像処理装置。 Determining means for determining a plurality of subject areas from the image;
Determining means for determining a gradation correction amount for performing gradation correction for each predetermined area of the image;
Noise removing means for changing the noise removal intensity to be applied to the image subjected to tone correction by the tone correction amount according to the tone correction amount and the determined subject area;
Edge emphasizing means for changing the intensity of edge emphasis to be applied to the image from which noise has been removed by the noise removing means in accordance with the gradation correction amount and the subject area determined as described above;
An image processing apparatus comprising:
前記ノイズ除去手段は、前記重み付けされた画素値の幅を、前記判別された複数の被写体領域がそれぞれの被写体領域である可能性を示す信頼度に応じて加重平均し、前記加重平均された画素値の幅を用いて前記平均化を行うことを特徴とする請求項4に記載の画像処理装置。 The subject area determined by the determining means includes at least two areas of a person area, an empty area, and a background area in the image;
The noise removing unit performs weighted averaging on the width of the weighted pixel value according to the reliability indicating the possibility that the plurality of determined subject regions are the respective subject regions, and the weighted averaged pixel The image processing apparatus according to claim 4 , wherein the averaging is performed using a range of values.
前記エッジ強調手段は、前記重み付けされた高周波信号を強調するための補正量を、前記判別された複数の被写体領域がそれぞれの領域である可能性を示す信頼度に応じて加重平均し、前記加重平均された高周波信号を強調するための補正量を用いてエッジ強調の強度を変更することを特徴とする請求項8に記載の画像処理装置。 The subject area determined by the determining means includes at least two areas of a person area, a sky area, and a background area,
The edge emphasizing means performs weighted averaging of the correction amount for emphasizing the weighted high-frequency signal according to the reliability indicating the possibility that the plurality of determined subject regions are the respective regions, and the weighting is performed. 9. The image processing apparatus according to claim 8 , wherein the intensity of the edge enhancement is changed using a correction amount for enhancing the averaged high frequency signal.
前記ノイズ除去手段は、前記ノイズ除去の強度を、前記被写体領域ごとの階調補正量と前記判別された被写体領域に応じて変更することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 The determination means determines the gradation correction amount for each of the determined subject areas.
11. The apparatus according to any one of claims 1 to 10 , wherein the noise removal unit changes the noise removal strength according to the gradation correction amount for each of the subject regions and the determined subject region. Image processing apparatus as described.
決定手段が、前記画像の所定の領域ごとに階調補正するための階調補正量を決定する決定工程と、
ノイズ除去手段が、前記階調補正量によって階調補正された画像に適用するノイズ除去の強度を、前記階調補正量と前記判別された被写体領域に応じて変更するノイズ除去工程と、
エッジ強調手段が、前記ノイズ除去工程においてノイズの除去された画像に適用するエッジ強調の強度を、前記階調補正量と前記判別された前記被写体領域とに応じて変更するエッジ強調工程と、
を有することを特徴とする画像処理装置の制御方法。 A determining step of determining a plurality of subject areas from an image;
A determining step of determining a tone correction amount for tone correction for each predetermined area of the image;
A noise removing step of changing noise removal intensity applied to the image tone-corrected by the tone correction amount according to the tone correction amount and the subject region determined by the noise removing means;
An edge emphasizing step of changing an edge emphasizing intensity to be applied to the image from which noise has been removed in the noise removing step in accordance with the gradation correction amount and the subject region determined in the noise removing step;
And a control method of an image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014265777A JP6514504B2 (en) | 2014-12-26 | 2014-12-26 | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014265777A JP6514504B2 (en) | 2014-12-26 | 2014-12-26 | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016127388A JP2016127388A (en) | 2016-07-11 |
JP6514504B2 true JP6514504B2 (en) | 2019-05-15 |
Family
ID=56358133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014265777A Active JP6514504B2 (en) | 2014-12-26 | 2014-12-26 | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6514504B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6817779B2 (en) * | 2016-10-20 | 2021-01-20 | キヤノン株式会社 | Image processing equipment, its control method, programs and recording media |
JP7222723B2 (en) * | 2019-01-17 | 2023-02-15 | 株式会社ジャパンディスプレイ | Display device |
WO2022059490A1 (en) * | 2020-09-18 | 2022-03-24 | カシオ計算機株式会社 | Image processing device, and image processing method |
WO2024203227A1 (en) * | 2023-03-29 | 2024-10-03 | 富士フイルム株式会社 | Display control device, display control method, imaging system, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4411879B2 (en) * | 2003-07-01 | 2010-02-10 | 株式会社ニコン | Signal processing apparatus, signal processing program, and electronic camera |
JP2010193384A (en) * | 2009-02-20 | 2010-09-02 | Olympus Corp | Image processing apparatus, method and program |
JP2011015277A (en) * | 2009-07-03 | 2011-01-20 | Olympus Corp | Image processing device, image processing method, image processing program, and recording medium recording image processing program |
-
2014
- 2014-12-26 JP JP2014265777A patent/JP6514504B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016127388A (en) | 2016-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10997696B2 (en) | Image processing method, apparatus and device | |
JP6116272B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
CN109255810B (en) | Image processing apparatus and image processing method | |
JP6833415B2 (en) | Image processing equipment, image processing methods, and programs | |
US9542734B2 (en) | Information processing apparatus, image processing method, and storage medium that determine tone characteristics for respective object signals | |
JP6421794B2 (en) | Image processing apparatus, image processing method, and program | |
CN106575434B (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP6514504B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
JP2018117288A (en) | Image processing device and image processing method | |
JP2019047169A (en) | Apparatus, method, and program for generating high dynamic range image | |
US10218953B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2011228807A (en) | Image processing program, image processing apparatus, and image processing method | |
JP7277158B2 (en) | Setting device and method, program, storage medium | |
JP6423668B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2017147568A (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP2014179920A (en) | Imaging apparatus, control method thereof, program, and storage medium | |
KR20180138530A (en) | Detection apparatus, image processing apparatus, detection method, and image processing method | |
JP6786273B2 (en) | Image processing equipment, image processing methods, and programs | |
JP5561389B2 (en) | Image processing program, image processing apparatus, electronic camera, and image processing method | |
JP6949494B2 (en) | Image processing equipment and image processing methods, imaging equipment, programs | |
JP6554009B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM | |
JP5282533B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP2009258284A (en) | Image processing device, imaging apparatus, image processing method, and program | |
JP6514577B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGING APPARATUS | |
JP6386843B2 (en) | Image processing apparatus, image processing method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190412 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6514504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |