JP2016170637A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2016170637A JP2016170637A JP2015050095A JP2015050095A JP2016170637A JP 2016170637 A JP2016170637 A JP 2016170637A JP 2015050095 A JP2015050095 A JP 2015050095A JP 2015050095 A JP2015050095 A JP 2015050095A JP 2016170637 A JP2016170637 A JP 2016170637A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- input
- luminance
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 122
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000006243 chemical reaction Methods 0.000 claims abstract description 137
- 238000004364 calculation method Methods 0.000 claims abstract description 78
- 238000003384 imaging method Methods 0.000 claims description 59
- 238000004458 analytical method Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 23
- 230000006866 deterioration Effects 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 description 140
- 230000035945 sensitivity Effects 0.000 description 26
- 238000007906 compression Methods 0.000 description 18
- 230000006835 compression Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
近年、露出時間の異なる複数の画像を作成し、当該複数の画像を加算することでダイナミックレンジを拡大するHDR(High Dynamic Range:ハイダイナミックレンジ)技術が開発されている。この技術を利用すると、従来の撮像データに比べて広い範囲の輝度データを記録することができ、黒つぶれや白とびのない画像データを記録することが可能である。 In recent years, HDR (High Dynamic Range) technology has been developed that creates a plurality of images with different exposure times and adds the plurality of images to expand the dynamic range. By using this technique, it is possible to record a wider range of luminance data than conventional imaging data, and it is possible to record image data that is not blacked out or overexposed.
しかしながら、HDR技術を用いてダイナミックレンジの広い撮像(撮影)を行っても、表示機器の輝度範囲が十分でない場合がある。このような場合、表示機器のダイナミックレンジに合わせて、撮像画像の階調を変換する階調変換(階調圧縮)処理を行う必要がある。
特許文献1には、入力画像の輝度ヒストグラムと高周波成分ヒストグラムとを考慮した階調変換が開示されている。
However, even when imaging (photographing) with a wide dynamic range is performed using the HDR technology, the luminance range of the display device may not be sufficient. In such a case, it is necessary to perform gradation conversion (gradation compression) processing for converting the gradation of the captured image in accordance with the dynamic range of the display device.
Japanese Patent Application Laid-Open No. 2004-228561 discloses tone conversion in consideration of a luminance histogram and a high frequency component histogram of an input image.
特許文献1では、ある周波数以上の画素に対して求めた高周波成分ヒストグラムに基づき階調変換を行っているが、周波数とコントラストの関係を考慮していない。従って、特許文献1の手法でHDR画像の階調変換を行うと、画像によっては黒つぶれや階調つぶれ、白とびなどの画質劣化が発生し、ユーザに知覚されてしまう可能性がある。
上記したような課題を鑑み、本発明は、階調変換による画質劣化を抑制することができる画像処理装置およびその画像処理方法を提供することを課題とする。
In
In view of the problems as described above, it is an object of the present invention to provide an image processing apparatus and an image processing method thereof that can suppress image quality deterioration due to gradation conversion.
本発明の1つの態様による画像処理装置は、入力画像と、当該入力画像に所定の処理を施して得られる処理画像との間の類似度を、前記入力画像および前記処理画像のそれぞれの周波数特性およびコントラスト特性に基づいて算出する算出手段と、
算出した前記類似度に基づいて、前記入力画像の階調変換用のパラメータを決定する決定手段と、
決定された前記パラメータに基づいて、前記入力画像の階調変換を行う変換手段と、
を備える。
An image processing apparatus according to an aspect of the present invention uses a similarity between an input image and a processed image obtained by performing predetermined processing on the input image, and the frequency characteristics of the input image and the processed image. And a calculation means for calculating based on the contrast characteristics;
Determining means for determining a parameter for gradation conversion of the input image based on the calculated similarity;
Conversion means for performing gradation conversion of the input image based on the determined parameter;
Is provided.
本発明によれば、階調変換による画質劣化を抑制することができる。 According to the present invention, it is possible to suppress deterioration in image quality due to gradation conversion.
以下、本発明の画像処理装置および画像処理方法の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、実施形態で説明されている事項、要素、ステップの組み合わせの全てが本発明に必須のものとは限らない。以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものである。
上記したように、従来の手法でHDR画像の階調変換(階調圧縮)を行うと、画像によっては黒つぶれや階調つぶれ、白とびなどの画質劣化が発生してしまう可能性がある。これは、広い範囲の輝度を撮像した撮像データを狭い輝度範囲でしか表示できない表示機器に階調圧縮する際に、階調圧縮前後の視覚的な違いを考慮していないことが原因である。
Embodiments of an image processing apparatus and an image processing method of the present invention will be described below with reference to the drawings. The following embodiments do not limit the present invention, and all the combinations of items, elements, and steps described in the embodiments are not necessarily essential to the present invention. The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions.
As described above, when gradation conversion (gradation compression) of an HDR image is performed by a conventional method, there is a possibility that image quality deterioration such as blackout, gradation loss, and overexposure occurs depending on the image. This is because the visual difference before and after the gradation compression is not taken into consideration when the gradation compression is performed on a display device that can display only a narrow luminance range of imaging data obtained by imaging a wide range of luminance.
人間の視覚特性は、4〜5サイクル/視野角1度をピークとして、周波数が高くなるにつれて感度が低くなるというバンドパスの性質を有する。このため、低周波のエッジおよびテクスチャは比較的小さいコントラストでも知覚できるのに対して、周波数の高いエッジおよびテクスチャはコントラスト差が大きくないと知覚できない。エッジおよびテクスチャの階調つぶれが少ない階調変換を行うには、周波数とコントラストの両方を考慮する必要がある。
さらに、人間の視覚特性は、被写体の明るさに応じて変化する。例えば、被写体が明るいと視覚感度は高くなり、被写体が暗いと視覚感度は低くなる。このため、撮像環境と表示環境の輝度の違いを考慮し、エッジおよびテクスチャの階調つぶれが少ない階調変換処理を行う必要がある。
The human visual characteristic has a band-pass property in which the sensitivity decreases as the frequency increases with a peak at 4 to 5 cycles / viewing angle of 1 degree. For this reason, low-frequency edges and textures can be perceived even with relatively low contrast, whereas high-frequency edges and textures cannot be perceived unless the contrast difference is large. In order to perform gradation conversion with less edge and texture gradation collapse, it is necessary to consider both frequency and contrast.
Furthermore, human visual characteristics change according to the brightness of the subject. For example, when the subject is bright, the visual sensitivity is high, and when the subject is dark, the visual sensitivity is low. For this reason, it is necessary to perform gradation conversion processing in which the gradation loss of the edges and texture is small in consideration of the difference in luminance between the imaging environment and the display environment.
以下の記載では、デジタルカメラで撮像した画像を階調変換(階調圧縮)して表示する例を説明する。まず、デジタルカメラの撮像条件および表示条件をもとに、撮像時の環境における視覚のコントラスト特性および表示時の環境における視覚のコントラスト特性を求める。さらに、階調圧縮前の高階調画像と階調圧縮後の低階調画像それぞれに対して、輝度を考慮した周波数解析を行う。当該周波数解析の結果と前記視覚のコントラスト特性とから、階調圧縮前の画像と階調圧縮後の画像との視覚的な類似度を計算し、類似度が最大となる階調変換処理を行う。類似度が最大となる階調変換を行えば、階調変換による画質劣化を抑制することができる。 In the following description, an example in which an image captured by a digital camera is displayed after gradation conversion (gradation compression) will be described. First, based on the imaging conditions and display conditions of the digital camera, the visual contrast characteristics in the environment at the time of imaging and the visual contrast characteristics in the environment at the time of display are obtained. Further, frequency analysis in consideration of luminance is performed on each of the high gradation image before gradation compression and the low gradation image after gradation compression. From the result of the frequency analysis and the visual contrast characteristics, the visual similarity between the image before gradation compression and the image after gradation compression is calculated, and gradation conversion processing that maximizes the similarity is performed. . If tone conversion that maximizes the degree of similarity is performed, image quality deterioration due to tone conversion can be suppressed.
画像の暗部の高周波成分はそもそも見えないため、本実施形態では、画像の暗部の階調を階調圧縮でつぶしても、階調圧縮前後の類似度に影響しない(影響が小さい)と考える。つまり、本実施形態では、階調圧縮前の画像と階調圧縮後の画像と視覚的な差分は、画像の低階調領域では小さいとして算出される。従来の階調変換では、画像の暗部の高周波数成分も階調圧縮でつぶれないようにしている。
また、本実施形態では、撮像環境の輝度と表示環境の輝度に応じて階調変換を行うので、同一の入力画像に対しても、異なる階調変換が行われる場合がある。
Since the high-frequency component in the dark part of the image cannot be seen in the first place, in this embodiment, it is considered that even if the gradation of the dark part of the image is crushed by gradation compression, the similarity before and after gradation compression is not affected (the influence is small). That is, in this embodiment, the visual difference between the image before gradation compression and the image after gradation compression is calculated as being small in the low gradation region of the image. In the conventional gradation conversion, the high frequency components in the dark part of the image are prevented from being crushed by gradation compression.
In the present embodiment, gradation conversion is performed according to the brightness of the imaging environment and the brightness of the display environment. Therefore, different gradation conversion may be performed even for the same input image.
(実施形態1)
<画像処理装置の構成>
図1は本発明の実施形態1の画像処理装置を含むデジタルカメラの構成を示すブロック図である。
デジタルカメラは、撮像部101、A/D変換部102、信号処理部103、画像処理部104、エンコーダ部105、メディアインタフェース106、CPU108、ROM109、RAM110、撮像系制御部111、操作部112、D/A変換部113、および表示部114を備える。デジタルカメラの上記した構成要素は、直接または間接的に、バス115により相互に接続されている。画像処理部104が本実施形態の画像処理装置である。
(Embodiment 1)
<Configuration of image processing apparatus>
FIG. 1 is a block diagram showing a configuration of a digital camera including the image processing apparatus according to the first embodiment of the present invention.
The digital camera includes an
撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iR(赤外線)カットフィルタ、カラーフィルタ、および、CMOS素子やCCDなどのセンサなどから構成される。撮像部101は、被写体(図示せず)の光量を検知する。撮像部101は、被写体の光量を検知することにより、被写体の光学像を電気信号に変換する。この電気信号はアナログ信号である。撮像部101は、このアナログ信号をA/D変換部102に出力する。
撮像部101の撮像素子(CMOS素子等)は、例えば、画素ごとに赤(R)、緑(G)、青(B)の3原色の原色フィルタが所定のパターンで配置されたカラー撮像素子である。撮像部101の上記レンズを介して撮像素子の受光面に入射した光学像は、入射光量に応じたRGBの信号電荷に変換され、画素ごとの電圧信号(アナログ画像信号)として撮像部101から出力される。
The
The imaging element (CMOS element or the like) of the
本実施形態のデジタルカメラは、HDR処理を用いてハイダイナミックレンジの撮像を行うことができる。例えば、撮像部101は、16ビットモードで被写体の光量を検知する。
A/D変換部102は、被写体の光量に相当する上記アナログ信号をデジタル値に変換する。A/D変換部102は、当該デジタル値を信号処理部103に出力する。
信号処理部103は、上記デジタル値にデモザイキング処理、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などを行い、デジタル画像を生成する。ノイズ低減処理は、例えば、コンポジット法を用いた処理である。信号処理部103は、当該デジタル画像を画像処理部104に出力する。信号処理部103から出力されるデジタル画像は、本実施形態では、16ビット画像(高階調画像)である。また、本実施形態では、当該デジタル画像はRGB画像である。
The digital camera of this embodiment can perform high dynamic range imaging using HDR processing. For example, the
The A /
The
画像処理部104は、上記デジタル画像に階調変換処理を行う。画像処理部104は、階調変換後の画像をエンコーダ部105とD/A変換部113に出力する。画像処理部104は、信号処理部103からのデジタル画像を受け取る入力端子201を有すると共に、エンコーダ105およびD/A変換部113に画像を出力する出力端子205を有する。画像処理部104の構成および動作の詳細は、図2を参照して後述する。画像処理部104から出力される画像は、例えば、8ビット画像(低階調画像)である。
The
エンコーダ部105は、階調変換後のデジタル画像をJPEG等の映像圧縮フォーマットに変換する処理を行う。エンコーダ部105は、当該デジタル画像をメディアインタフェース106に出力する。階調変換後のデジタル画像も、RGB画像である。
メディアインタフェース106は、デジタルカメラを外部のメディア107につなぐためのインタフェースである。外部のメディア107は、例えば、ハードディスク、メモリーカード、CF(Compact Flash)カード、SDカード、USBメモリである。
The
The
CPU108は、システムバス115を介して、デジタルカメラの各構成要素の処理・動作を制御する。CPU108による制御は、例えば、CPU108がROM109やRAM110に格納された命令やデータ等を適宜読み込み当該命令を実行することにより行われる。また、CPU108は、デジタルカメラのユーザが入力する情報や指示に基づく処理も行う。
ROM109とRAM110は、CPU108が実行する処理に必要なプログラムやデータ等を格納すると共に、当該処理に必要な作業領域などをCPU108に提供する。例えば、CPU08は、ROM109に記録されたコンピュータプログラムを、RAM110に読み出し、このプログラムに従ってCPU108が動作する。
The
The
撮像系制御部111は、CPU108からの指示に基づいて、撮像部101を制御する。例えば、撮像系制御部111は、撮像部101のレンズのフォーカスを合わせる、シャッターを開く、絞りを調節するなどの制御を行う。
操作部112は、撮像ボタン、操作ボタン、モードダイヤルなどを含む。デジタルカメラのユーザは、当該ボタンやダイヤルを介して、デジタルカメラへ指示を入力する(設定を行う)ことができる。ユーザから入力される指示は、例えば、撮像(撮影)のための設定であり、ISO感度の設定、シャッター速度の設定、F値(絞り値)の設定等を含む。操作部112から入力された撮像設定に関する情報や指示は、CPU108に送られる。上記したように、CPU108は、操作部112から入力された情報や指示に基づいて処理を行い、デジタルカメラの撮像条件を決定する。当該撮像条件は、RAM110に記憶される。
The imaging system control unit 111 controls the
The
D/A変換部113は、画像処理部104が出力した低階調のデジタル画像に対しアナログ変換を行う。D/A変換部113は、アナログ変換した画像を表面部114に出力する。
表示部114は、例えば、液晶ディスプレイである。表示部114は、CPU108の制御の下で、D/A変換部113から受け取った低階調画像を表示する。表示部114は、例えば、256階調の表示ができる。
なお、表示部11は、機能ボタン(撮像ボタンや操作ボタン)として作用する機能アイコンを表示してもよい。ユーザは、当該機能アイコンを選択する(機能アイコンに触れる)ことにより、デジタルカメラへ指示を入力することができる。
The D /
The
The display unit 11 may display function icons that function as function buttons (imaging buttons or operation buttons). The user can input an instruction to the digital camera by selecting the function icon (touching the function icon).
<画像処理部104の構成>
以下、画像処理部104の構成および動作について詳細に説明する。図2は、画像処理部104の構成を示している。
画像処理部104は、入力端子201と、階調変換処理実行部202と、階調変換処理決定部203と、類似度算出部204と、出力端子205とを有する。類似度算出部204は、バス115に接続されている。類似度算出部204は、第1の入力端子501と第2の入力端子502と出力端子505とを有する。
<Configuration of
Hereinafter, the configuration and operation of the
The
信号処理部103(図1)からの画像信号(高階調の画像Iin)が、画像処理部104の入力端子201に入力される。当該画像信号は、入力端子201から階調変換処理実行部202と類似度算出部204とに入力される。つまり、階調変換される前の高階調画像Iinは、階調変換処理実行202と類似度算出部204に入力される。
階調変換処理実行部202は、高階調の画像Iinに階調変換処理を施す。階調変換処理実行部202は、階調変換後の画像Iconvを階調変換処理決定部203と、類似度算出部204とに出力する。階調変換処理実行部202は、画像Iinに対して複数の階調変換パラメータを用いて階調変換を行い、複数の階調変換後の画像Iconvを作成する。
An image signal (high gradation image Iin) from the signal processing unit 103 (FIG. 1) is input to the
The gradation conversion
類似度算出部204は、第1の入力端子501で階調変換前の画像Iinを受け取り、第2の入力端子502で階調変換後の複数の画像Iconvを受け取る。類似度算出部204は、階調変換前の高階調画像Iinに対する撮像部101の設定環境におけるエッジおよびテクスチャの見え(知覚できるエッジおよびテクスチャの量)と、階調変換後の低階調画像Iconvに対する表示部114の設定環境におけるエッジおよびテクスチャの見えとの違い(差分)を算出する。この算出は、前記複数の低階調画像(階調変換後の画像)Iconvの各々について行われる。この「見えの違い」が小さければ類似度が高いことになる。類似度算出部204は、当該算出結果(類似度)の中から、最も高い類似度を有する画像Iconvに関する情報を出力端子505から階調変換処理決定部203に出力する。「知覚できるエッジおよびテクスチャの量」は、以下、「知覚エッジ・テクスチャ量」と称する。
The
階調変換処理決定部203は、階調変換処理実行部202から受け取った複数の画像Iconvのうち、類似度算出部204にて算出された類似度が最も高い画像Iconvを出力画像(表示用の画像)として決定(選択)する。つまり、階調変換処理決定部203は、算出された類似度に基づいて、画像Iin(入力画像)にとって最適な階調変換パラメータを決定する。
本実施形態で階調変換処理実行部202が行う階調変換の方法は、例えば、トーンカーブを用いた手法、ヒストグラム平滑化法、ヒストグラム特定化法から選択される。なお、本発明は上記した階調変換方法に限定されない。本発明は、任意の階調変換方法に適用できる。すなわち、本発明では、任意の階調圧縮処理に対して、処理前後における知覚エッジ・テクスチャ量の相違(上記した「見えの違い」)を算出し、最適な階調処理を決定(選択)して、当該階調処理を実行する。
The gradation conversion
The gradation conversion method performed by the gradation conversion
次に、図3のフローチャートを参照して、画像処理部104の具体的な処理を説明する。本実施形態の階調変換は、図4に示した単純な線形トーンカーブ(折れ線型トーンカーブ)を用いる。図4の縦軸は出力階調を示し、横軸は入力階調を示す。図4では、入力階調値に対して、2つのオフセット値(offs_Lとoffs_H)を用いた線形変換(階調変換)を施すことで、出力階調を決定する。以下の例では、低階調側のオフセット値offs_Lと高階調側のオフセット値offs_Hを複数用意して、その中から最適なオフセット値offs_Lおよびoffs_Hを選定する。最適なオフセット値offs_Lおよびoffs_Hは、処理前後における知覚エッジ・テクスチャ量の差分が最少となるオフセット値である。オフセット値offs_Lおよびoffs_Hは、階調変換処理のパラメータである。複数用意したオフセット値offs_Lおよびoffs_Hは、以下の記載において「パラメータ候補」と称することもある。
Next, specific processing of the
図3のステップS301では、階調変換処理実行部202が階調変換処理のための複数のパラメータ候補(オフセット値offs_Lおよびoffs_H)を用意して、その中から1つのパラメータ候補を設定する。具体的には、階調変換処理実行部202が、複数のオフセット値offs_Lおよびoffs_Hの中から1組のオフセット値offs_Lおよびoffs_Hを設定する。ステップS301の終了後、ステップS302に進む。
ステップS302では、階調変換処理実行部202が、入力画像Iinに階調変換処理を実施する。具体的には、階調変換処理実行部202は、ステップS301にて決定されたパラメータ候補(オフセット値)で規定されるトーンカーブ(図4)を用いて、画像Iinに階調変換を施し、階調変換された画像Iconvを生成する。ステップS302の終了後、ステップS303に進む。
In step S301 in FIG. 3, the gradation conversion
In step S302, the gradation conversion
ステップS303では、類似度算出部204が、階調変換後の画像Iconvと入力画像Iinとの類似度を算出する。類似度は、撮像環境における入力画像Iinの知覚エッジ・テクスチャ量と、表示環境における画像Iconvの知覚エッジ・テクスチャ量との間の差分を計算することにより算出される。当該差分が小さいほど、類似度は高い。当該算出の詳細は後述する。
ステップS304では、全パラメータ候補(用意されたオフセット値offs_Lおよびoffs_Hの全て)に対して前述の処理が実行されたか否かを判断する。判断結果が真(Yes)であればステップS305に移行し、否(No)であればステップS301に戻る。
In step S303, the
In step S304, it is determined whether or not the above-described processing has been performed on all parameter candidates (all of the prepared offset values offs_L and offs_H). If the determination result is true (Yes), the process proceeds to step S305, and if not (No), the process returns to step S301.
全パラメータ候補に対してステップS301−S303の処理が行われたならば、ステップS305で、類似度算出部204は、全パラメータ候補(offs_Lおよびoffs_H)のうち類似度の最も高いパラメータに関する情報を階調圧縮処理決定部203に提供する。そして、階調圧縮処理決定部203は、類似度の最も高いパラメータで階調変換した画像IconvをD/A変換部113とエンコーダ105に出力する。
If the processing of steps S301 to S303 is performed on all parameter candidates, in step S305, the
<類似度算出部204の構成>
次に、類似度算出部204の構成および動作について説明する。類似度算出部204は、階調変換前の画像Iinの知覚エッジ・テクスチャ量と、階調変換後の画像Iconvの知覚エッジ・テクスチャ量との差分を計算する。
図5は、類似度算出部204の構成を示している。類似度算出部204は、2つの入力端子501、502と、当該2つの入力端子501、502にそれぞれ接続された2つの視覚特性決定部503a、503bと、1つの視覚類似度計算部504と、1つの出力端子505とを有する。階調変換前の画像Iinが類似度算出部204の第1の端子501から入力される。第1の端子501に入力された画像Iinは、視覚特性決定部503aの入力端子601と、視覚類似度計算部504の第1入力端子801とに入力される。階調変換後の画像Iconvが第2の入力端子502から入力される。第2の端子502に入力された画像Iconvは、視覚特性決定部503bの入力端子601と、視覚類似度計算部504の第2入力端子802とに入力される。2つの視覚特性決定部503a、503bの構成は同じである。
<Configuration of
Next, the configuration and operation of the
FIG. 5 shows the configuration of the
視覚特性決定部503aは、階調変換前の画像Iinの視覚のコントラスト感度特性を計算し、視覚特性決定部503bは、階調変換後の画像Iconvの視覚のコントラスト感度特性を計算する。視覚特性決定部503aが計算したコントラスト感度特性は、視覚類似度計算部504の第3入力端子803に入力される。視覚特性決定部503bが計算したコントラスト感度特性は、視覚類似度計算部504の第4入力端子804に入力される。なお、コントラスト感度特性は、以下の記載において、コントラスト特性と称されることもある。
視覚類似度計算部504は、入力された2つのコントラスト感度特性(視覚特性)を用いて、階調変換前の画像Iinと階調変換後の画像Iconvとの間の視覚的な違い(知覚エッジ・テクスチャ量の差分)を計算する。計算結果は、出力端子505から階調変換処理決定部203(図2)に出力される。
The visual
The visual
<視覚特性決定部503aの動作>
次に、図6および図7を参照して、視覚特性決定部503aの構成および動作について説明する。図6は視覚特性決定部503aの機能ブロック図である。視覚特性決定部503aは、入力端子601と、輝度情報取得部602と、視覚特性計算部603と、出力端子604とを有する。輝度情報取得部602は、バス115に接続されている。視覚特性決定部503bの構成および動作は、視覚特性決定部503aの構成および動作と同じである。
<Operation of the visual
Next, the configuration and operation of the visual
図7はコントラスト感度と空間周波数の関係を示す図である。図7の縦軸はコントラスト感度であり、横軸は空間周波数である。本明細書で、視覚特性とは、周波数ごとのコントラスト感度特性を意味する。視覚特性は、図7に示すようなバンドパス特性を有している。すなわち、視覚特性は、照明環境が明るいほど(輝度が高いほど)ピーク感度が高くなり且つピーク周波数が高周波にシフトするというバンドパス特性を有している。例えば、図7では、輝度が0.1cd/m2の曲線と輝度が1cd/m2の曲線とを比べると、高輝度である1cd/m2の曲線の方が、ピーク感度が高く且つピーク周波数が高い。 FIG. 7 is a diagram showing the relationship between contrast sensitivity and spatial frequency. The vertical axis in FIG. 7 is the contrast sensitivity, and the horizontal axis is the spatial frequency. In this specification, the visual characteristic means a contrast sensitivity characteristic for each frequency. The visual characteristic has a bandpass characteristic as shown in FIG. That is, the visual characteristic has a bandpass characteristic that the peak sensitivity increases and the peak frequency shifts to a high frequency as the illumination environment is brighter (the luminance is higher). For example, in Figure 7, when the brightness curve and brightness 0.1 cd / m 2 Comparing the curve of 1 cd / m 2, towards the curve of 1 cd / m 2 is a high brightness, the peak sensitivity is high and the peak The frequency is high.
以下の記載では、視覚特性はVTFs(u)と表記される。VTFはVisual Transfer Function(視覚の伝達関数、視覚の空間周波数特性)の略である。uは周波数である。本実施形態では、撮像(撮影)環境における視覚特性VTFs(u)を視覚特性決定部503aで決定し、表示環境における視覚特性VTFs(u)を視覚特性決定部503bで決定する。視覚特性決定部503aで決定される視覚特性が503bで決定される視覚特性とは異なるので、撮像環境における知覚エッジ・テクスチャ量と、表示環境における知覚エッジ・テクスチャ量との間に違いが出てくる。本実施形態では、この違い(差分)を数値化している。視覚特性VTFs(u)はコントラスト感度特性と称することもできる。本実施形態の視覚特性VTFs(u)は一次元の視覚特性である。
In the following description, visual characteristics are denoted as VTFs (u). VTF is an abbreviation for Visual Transfer Function (visual transfer function, visual spatial frequency characteristic). u is the frequency. In the present embodiment, the visual characteristic VTFs (u) in the imaging (photographing) environment is determined by the visual
視覚特性決定部503a、503bの入力端子601からは、画像Iin、Iconvが入力される。入力された画像Iin、Iconvは、輝度情報取得部602に送られる。輝度情報取得602は、撮像(撮影)条件および表示条件を、バス115を介して取得する。輝度情報取得602は、撮像条件および表示条件から、撮像画像および表示画像の輝度値Lを取得する。輝度値Lは、例えば、画像内の平均輝度値や最大輝度値を用いる。輝度情報取得部602は、取得した輝度値Lを視覚特性計算部603に出力する。
Images Iin and Iconv are input from the
<視覚特性計算部603の動作>
視覚特性計算部603は、輝度情報取得部602から入力された輝度値Lをもとに、視覚特性を計算する。以下、視覚特性計算部603の計算処理について説明する。本実施形態では、Bartenモデル(Barten, Peter GJ. "Formula for the contrast sensitivity of the human eye." International Society for Optics and Photonics, 2003参照)により導出された空間VTFを用いる。この空間VTFを用いると、周波数uに対するコントラスト感度特性VTFs(u)は以下の式(1)で与えられる。
<Operation of Visual
The visual
ここで、Xoは視野角[degree]である。また、Lは輝度であり、輝度情報取得部602で取得した値である。
なお、上記の説明では、Bartenモデルにより導出された空間VTFを用いたが、本発明はこれに限定されない。例えば、被写体の輝度を変化させて取得したコントラスト感度特性をあらかじめ測定し、データとして記録しておき、それを参照してもよい。
視覚特性計算部603が計算した視覚特性は、視覚類似度計算部504(図5)に入力される。
Here, X o is a viewing angle [degree]. L is the luminance, which is a value acquired by the luminance
In the above description, the space VTF derived by the Barten model is used, but the present invention is not limited to this. For example, the contrast sensitivity characteristic acquired by changing the luminance of the subject may be measured in advance, recorded as data, and referred to.
The visual characteristic calculated by the visual
<視覚類似度計算部504の動作>
図5に示されるように、視覚特性決定部503aは、階調変換前の画像Iinを視覚類似度計算部504の第1入力端子801に入力すると共に、当該画像Iinについての視覚特性を、視覚類似度計算部504の第3入力端子803に入力する。また、視覚特性決定部503bは、階調変換後の画像Iconvを視覚類似度計算部504の第2入力端子802に入力すると共に、当該画像Iconvについての視覚特性を、視覚類似度計算部504の第4入力端子804入力する。以下、視覚類似度計算部504の構成および動作について、図8を参照して説明する。
<Operation of Visual
As shown in FIG. 5, the visual
図8に示されるように、視覚類似度計算部504は、4つの入力端子801、802、803、804と、撮像環境輝度変換部805と、表示環境輝度変換部806と、2つの周波数解析部807a、807bとを有する。視覚類似度計算部504は、さらに、2つの視覚特性適用部808a、808bと、差分計算部809と、出力端子810とを有する。視覚類似度計算部504は、視覚特性決定部503a、503bから入力された視覚特性をもとに、階調変換前の画像と階調変換後の画像との間で、知覚エッジ・テクスチャ量の差分を計算する。2つの周波数解析部807aと807bは同じ構成を有する。2つの視覚特性適用部808a、808bも同じ構成を有する。
As shown in FIG. 8, the visual
階調変換前の画像Iinが、視覚類似度計算部504の第1入力端子801から撮像環境輝度変換部805へ入力される。画像Iinの視覚特性が、第3入力端子803から視覚特性適用部808aへ入力される。階調変換後の画像Iconvが第2入力端子802から表示環境輝度変換部806へ入力される。Iconvの視覚特性が、第4入力端子804から視覚特性適用部808bへ入力される。
The image Iin before gradation conversion is input from the
撮像環境輝度変換部805は、撮像条件に基づいて、画像Iinを撮像環境における輝度画像へ変換する。そして、撮像環境輝度変換部805は、当該輝度画像を周波数解析部807aに出力する。周波数解析部807aは、当該輝度画像を、周波数帯域ごとの画像に分割する。以下の記載では、当該分割した画像を「分割画像」と称する。周波数解析部807aは、当該分割画像を視覚特性適用部808aに出力する。視覚特性適用部808aは、第3入力端子803から入力された画像Iinの視覚特性を用いて、分割画像に閾値処理を施す。すなわち、視覚特性適用部808aは、分割画像に、画像Iin用の視覚特性を適用する(コントラスト特性を乗算する)。視覚特性適用部808aは、視覚特性が適用された画像を差分計算部809に入力する。周波数解析部807aから出力される分割画像は、入力画像(画像Iin)の周波数特性を含む画像である。
The imaging environment
表示環境輝度変換部806は、表示条件に基づいて、画像Iconvを表示環境における輝度画像へ変換する。そして、表示環境輝度変換部806は、当該輝度画像を周波数解析部807bに出力する。周波数解析部807bは、当該輝度画像を、分割画像に分割する。周波数解析部807bは、当該分割画像を視覚特性適用部808bに出力する。視覚特性適用部808bは、第4入力端子804から入力された画像Iconvの視覚特性を用いて、分割画像に閾値処理を施す。すなわち、視覚特性適用部808bは、分割画像に、画像Iconv用の視覚特性を適用する。視覚特性適用部808bは、視覚特性が適用された画像を差分計算部809に入力する。
差分計算部809は、視覚特性適用部808aから入力された画像と、視覚特性適用部808bから入力された画像との差分を計算する。つまり、差分計算部809は、階調変換前の画像と階調変換後の画像との間の、視覚的な見えの違いを表わす値(視覚エッジ・テクスチャ量の差分)を算出する。
The display environment
The
<撮像環境輝度変換部805の動作>
撮像環境輝度変換部805の処理について説明する。撮像環境輝度変換部805は、RGB画像である画像Iinを輝度画像へ変換する(輝度変換処理)。ここで得られる輝度画像は、被写体撮像時に人(例えば、デジタルカメラのユーザ)がどのように被写体を見ていたかを再現するものである。具体的には、以下の手順で輝度変換処理が行われる。
<Operation of Imaging Environment
Processing of the imaging environment
まず、入力画像Iinにデガンマ処理を行い、輝度リニア画像Iin’を得る。デガンマ処理は、例えばルックアップテーブル等を用いて行われる。
次に、輝度リニア画像Iin’を輝度画像へ変換する。この変換は、具体的には、以下の式(2)で示す処理で行われる。
First, degamma processing is performed on the input image Iin to obtain a luminance linear image Iin ′. The degamma process is performed using, for example, a lookup table.
Next, the luminance linear image Iin ′ is converted into a luminance image. Specifically, this conversion is performed by the processing shown by the following formula (2).
ここで、αはゲインを表す。当該ゲインαは、ISO感度、絞り、シャッタースピードの関係から定まる。例えば、すべてのISO感度、絞り、シャッタースピードの組み合わせに対して、前記ゲインαをあらかじめ算出しておいてもよい。IinR’、IinG’、IinB’は、それぞれ輝度リニア画像Iin’のRプレーン、Gプレーン、Bプレーンである。また、a、b、cは定数であり、例えば撮像(撮影)画像がsRGB空間の場合は、a=0.2126、b=0.7152、c=0.0722である。 Here, α represents a gain. The gain α is determined from the relationship between ISO sensitivity, aperture, and shutter speed. For example, the gain α may be calculated in advance for all combinations of ISO sensitivity, aperture, and shutter speed. I inR ′, I inG ′, and I inB ′ are the R plane, G plane, and B plane of the luminance linear image I in ′, respectively. Further, a, b, and c are constants. For example, when the captured (captured) image is an sRGB space, a = 0.2126, b = 0.7152, and c = 0.0722.
<表示環境輝度変換部806の動作>
表示環境輝度変換部806の処理について説明する。表示環境輝度変換部806は、RGB画像である画像Iconvを輝度画像へ変換する(輝度変換処理)。ここで得られる輝度画像は、画像の表示時に人(例えば、デジタルカメラのユーザ)がどのように被写体を見るかを再現するものである。具体的には、以下の手順で輝度変換処理が行われる。
まず、入力画像Iconvに表示部114のディスプレイのデガンマ処理を行い、輝度リニア画像Iconv’を得る。例えば、表示部114のディスプレイのガンマが2.2の場合、輝度リニア画像Iconv’は以下の式(3)により得られる。
<Operation of Display Environment
The processing of the display environment
First, the input image Iconv is subjected to de-gamma processing of the display of the
次に、前記得られた輝度リニア画像Iconv’にゲインを掛けることで、輝度画像へ変換する。具体的には、以下の式(4)で示す処理で行われる。 Next, the obtained luminance linear image Iconv 'is multiplied by a gain to be converted into a luminance image. Specifically, the processing is performed by the following equation (4).
ここで、αはゲインを表す。ゲインαは、表示部114のディスプレイの最大表示輝度により決まる。また、IconvR’、IconvG’、IconvB’は、それぞれ輝度リニア画像Iconv’のRプレーン、Bプレーン、Gプレーンである。また、a、b、cは定数であり、例えば表示色空間がsRGBの場合は、a=0.2126、b=0.7152、c=0.0722である。
Here, α represents a gain. The gain α is determined by the maximum display brightness of the
<周波数解析部807aの動作>
次に、周波数解析部807aの動作を説明する。本実施形態では、輝度画像をフーリエ変換した後、帯域分割フィルタ関数を乗算し、逆フーリエ変換することで周波数帯域分割を行う。図9は、本実施形態の周波数帯域分割によって得られる6つの画像I1〜I6を示している。以下に、輝度画像のフーリエ変換と、帯域分割フィルタ関数の乗算と、逆フーリエ変換とについて説明する。
<Operation of
Next, the operation of the
まず、輝度画像を2次元フーリエ変換し、画像Ifft(u,v)を得る。2次元はx座標とy座標で規定される。uはx方向の周波数成分を示し、vはy方向の周波数成分を示す。
次に、画像Ifft(u,v)に対して、帯域分割フィルタ関数cortexk(u,v)を用いて帯域分割を施す。ここで、kは半径方向の帯域のインデックスである。帯域分割後の空間周波数情報I1_fft…I6_fftは、それぞれ式(5)で表現される。
First, the luminance image is two-dimensionally Fourier transformed to obtain an image Ifft (u, v). Two dimensions are defined by x and y coordinates. u represents a frequency component in the x direction, and v represents a frequency component in the y direction.
Next, band division is performed on the image Ifft (u, v) using the band division filter function cortex k (u, v). Here, k is an index of the band in the radial direction. Spatial frequency information I 1 _fft... I 6 _fft after band division is expressed by Expression (5), respectively.
ここで、k=1…6である。また、帯域分割フィルタ関数cortexk(u,v)は、次の式(6)および(7)ように定義する。 Here, k = 1... Further, the band division filter function cortex k (u, v) is defined as the following equations (6) and (7).
図10は、domk(ρ)の模式図を示す。横軸は正規化周波数(cycle/pixel)、縦軸は応答である。
得られたIk_fft(u,v)を逆フーリエ変換することで、6つの画像I1〜I6を取得する。
なお、本実施形態ではフーリエ変換を用い、周波数領域上で周波数帯域分割を行ったが、本発明はこれに限定されない。たとえば、上述の特性を持ったデジタルフィルタを用いて、直接フィルタ処理を行うことで周波数帯域分割を行ってもよい。また、ウェーブレット変換(ウェーブレット関数)を用いて周波数帯域分割を行ってもよい。ウェーブレット変換を用いると、フーリエ変換によって周波数特性を求める際に失われる時間領域の情報を、残すことできる場合がある。
周波数解析部807bの構成は周波数解析部807aと同じであるので、周波数解析部807aの説明は省略する。
FIG. 10 shows a schematic diagram of dom k (ρ). The horizontal axis is normalized frequency (cycle / pixel), and the vertical axis is response.
The resulting I k _fft (u, v) by inverse Fourier transform, to obtain six images I 1 ~I 6.
In this embodiment, Fourier transform is used to perform frequency band division on the frequency domain, but the present invention is not limited to this. For example, frequency band division may be performed by performing direct filtering using a digital filter having the above-described characteristics. Further, frequency band division may be performed using wavelet transform (wavelet function). When the wavelet transform is used, there may be a case where time domain information lost when the frequency characteristic is obtained by the Fourier transform can be left.
Since the configuration of the
<視覚特性適用部808a>
以下では、視覚特性適用部808aの処理について詳述する。
まず、6つの画像I1〜I6それぞれに対して、コントラスト閾値を決定する。具体的には、前記視覚特性決定部503aにて決定された視覚特性VTFと、画像I1〜I6とから、コントラスト閾値を決定する。図11は、画像I1のコントラスト閾値th1および画像I6のコントラスト閾値th2の算出の概念図である。具体的には、6つの画像I1〜I6の6つのコントラスト閾値thk(k=1…6)は、以下の式(12)により求められる。
<Visual
Hereinafter, the processing of the visual
First, a contrast threshold is determined for each of the six images I 1 to I 6 . Specifically, the contrast threshold value is determined from the visual characteristic VTF determined by the visual
次に、コントラスト閾値thk(k=1…6)を用いて、画像I1〜I6の周波数帯域に閾値処理を施し、Ithk(k=1…6)を算出する。具体的には、以下の式(13)で算出される。 Next, using the contrast threshold th k (k = 1... 6), threshold processing is performed on the frequency bands of the images I 1 to I 6 to calculate I thk (k = 1... 6). Specifically, it is calculated by the following equation (13).
さらに、前記算出したIthk(k=1…6)を統合し、画像Ith(x,y)を算出する。具体的には、画像Ith(x,y)は以下の式(14)で算出される。この画像Ith(x,y)が画像Iinの知覚エッジ・テクスチャ量を示す。 Further, the calculated I thk (k = 1... 6) is integrated to calculate an image Ith (x, y). Specifically, the image Ith (x, y) is calculated by the following equation (14). This image Ith (x, y) indicates the perceived edge / texture amount of the image Iin.
視覚特性適用部808bは視覚特性適用部808aと同様な処理を画像Iconvに行い、画像Iconvの知覚エッジ・テクスチャ量を算出する。
以下の説明では、入力画像Iinに対する視覚特性適用部808aの出力をIin_thと表記し、階調変換画像Iconvに対する視覚特性適用部808bの出力をIconv_thと表記する。Iin_thが撮像時の環境における画像の知覚エッジ・テクスチャ量であり、Iconv_thが表示時の環境における画像の知覚エッジ・テクスチャ量である。
The visual
In the following description, the output of the visual
<差分計算部809の動作>
次に、差分計算部809の動作について説明する。類似度計算部508は、入力画像Iinの知覚エッジ・テクスチャ量と、階調変換画像Iconvの知覚エッジ・テクスチャ量との差分を計算する。これにより、撮像時の環境では知覚できていたエッジおよびテクスチャが、階調変換後の表示環境においてどれだけ知覚できなくなったかを数値で表すこと(数値評価)ができる。
具体的には、類似度cは、視覚特性適用部808aの出力Iin_thと、視覚特性適用部808bの出力Iconv_thとから、以下の式(15)により求められる。本実施形態はIin_thとIconv_thの絶対差の総和により類似度を算出する。
<Operation of
Next, the operation of the
Specifically, the similarity c is obtained by the following equation (15) from the output Iin_th of the visual
なお、本実施形態は知覚エッジ・テクスチャ量Iin_thとIconv_thの絶対差の総和により類似度を計算したが、本発明はこれに限定されない。例えば、両者に対して相関係数やSSIM (Structural Similarity)を計算してもよい。
上記したように、類似度算出部204(図2)には、複数のパラメータ候補で階調変換された複数の画像Iconvが入力されるので、類似度算出部204の視覚類似度計算部504は上記した類似度計算を当該複数の画像Iconvの各々に対して実行する。つまり、視覚類似度計算部504の差分計算部809は、複数の類似度を算出する。そして、差分計算部809は、当該算出された複数の類似度のうち最も高い類似度を有するIconvに関する情報(階調変換用のパラメータとして最適なパラメータの情報)を、出力端子810を介して階調変換処理部203(図2)に出力する。階調変換処理部203は当該情報に基づいて、階調変換処理実行部202から入力された複数の画像Iconvの中から、最も類似度の高い画像Iconvを出力端子205を介して表示部114(図1)に出力する。
In the present embodiment, the similarity is calculated based on the sum of absolute differences between the perceived edge / texture amounts Iin_th and Iconv_th, but the present invention is not limited to this. For example, a correlation coefficient or SSIM (Structural Similarity) may be calculated for both.
As described above, the similarity calculation unit 204 (FIG. 2) receives a plurality of images Iconv subjected to gradation conversion with a plurality of parameter candidates, so that the visual
本実施形態によれば、撮像時の環境における知覚エッジ・テクスチャ量(高階調画像の知覚エッジ・テクスチャ量)と、表示時の環境における知覚エッジ・テクスチャ量(階調変換後の低階調画像の知覚エッジ・テクスチャ量)との差分から類似度を算出する。そして、前記類似度が最大の階調変換を選択することで、最適な階調変換画像を表示部114のディスプレイに表示することができる。
なお、適切な階調変換が行われているかの検証は、例えば、次のようにして行う。まず、表示部114のディスプレイ輝度を所定値にして入力画像を階調変換して表示部114のディスプレイに表示する。その後、ディスプレイの輝度を変化させて、入力画像を階調変換し、表示部114のディスプレイに表示する。輝度の変化の前後で表示部114のディスプレイに表示される画像に変化がなければ、適切な階調変換が行われていると言える。
According to the present embodiment, the perceived edge / texture amount in the environment at the time of imaging (perceived edge / texture amount of the high gradation image) and the perceived edge / texture amount in the environment at the time of display (low gradation image after gradation conversion) The degree of similarity is calculated from the difference from the perceived edge / texture amount. Then, by selecting the gradation conversion having the maximum degree of similarity, the optimum gradation conversion image can be displayed on the display of the
In addition, verification whether appropriate gradation conversion is performed is performed as follows, for example. First, the display luminance of the
(実施形態2)
実施形態1の視覚類似度計算部504は、周波数帯域ごとに画像を分割して、分割画像を生成し、周波数帯域ごとに異なる閾値を掛ける(閾値処理を施す)ことで、知覚エッジ・テクスチャ量を算出していた。しかしながら、周波数帯域ごとに画像を分割し、閾値処理を施すと、計算量が大きくなる。そこで実施形態2では、視覚類似度計算部504の処理を簡略化し、計算量を削減する例を説明する。具体的には、画像に対してフーリエ変換等の周波数解析を行い、視覚特性関数を乗算することにより、知覚エッジ・テクスチャ量を算出する。以下の記載では、おもに実施形態1との相違点を説明する。実施形態1との相違点は、視覚特性決定部503a、503bと、周波数解析部807a、807bと、視覚特性適用部808a、808bの処理内容である。なお、視覚特性決定部503a、503bと、視覚類似度計算部504の構成は実施形態1と同じであるので、図6および図8を参照して実施形態2を説明する。
(Embodiment 2)
The visual
<周波数解析部807aの動作>
まず図8を参照する。視覚類似度計算部504の第1入力端子801には、画像Iinが入力される。第3入力端子803には、視覚特性決定部503aが計算したコントラスト感度特性が入力される。第2入力端子802には、画像Iconvが入力される。第4入力端子804には、視覚特性決定部503bが計算したコントラスト感度特性が入力される。第1入力端子801に入力された画像Iinは撮像環境輝度変換部805により輝度画像に変換される。第2入力端子802に入力された画像Iconvは表示環境輝度変換部806により、輝度画像に変換される。ここまでは実施形態1と同じである。
<Operation of
Reference is first made to FIG. The image Iin is input to the
実施形態2では、周波数解析部807aが輝度画像をフーリエ変換することで、輝度画像の周波数解析を行う。実施形態1と比較すると、実施形態2では、帯域分割フィルタの作成および乗算処理、逆フーリエ変換処理が発生しない。よって、実施形態2は、計算量を大幅に削減できる。以下では、実施形態2の処理により得られる周波数解析画像をIfft(u,v)と表す。ここで、uは横方向(x方向)の周波数成分、vは縦方向(y方向)の周波数成分を表わす。周波数解析部807bは、同様な処理を、表示環境輝度変換部806からの出力に対して行う。
In the second embodiment, the
<視覚特性決定部503aの動作>
次に図6を参照して、視覚特性決定部503aの処理について述べる。実施形態2では、実施形態1と異なり、視覚特性決定部503aは画像Iinに対して、2次元の視覚特性VTF(u,v)を決定する。実施形態1では1次元の視覚特性(コントラスト特性)を用いた。
以下では、Bartenのモデルにより導出された空間VTFを用いる。Bartenの空間VTFより、周波数成分u,vに対するコントラスト感度特性VTFs(u,v)は以下の式(16)で与えられる。
<Operation of the visual
Next, the processing of the visual
In the following, the space VTF derived by Barten's model is used. From Barten's space VTF, contrast sensitivity characteristics VTFs (u, v) for frequency components u and v are given by the following equation (16).
ここで、Xoは視野角[degree]である。また、Lは輝度であり、本実施形態では算出された輝度画像の平均輝度とする。視覚特性決定部503bは、画像Iconvに対して、視覚特性決定部503aと同様な処理を行う。
なお、上記の説明ではBartenのモデルにより導出された空間VTFを用いたが、本発明はこれに限定されない。例えば、被写体の輝度を変化させて取得したコントラスト感度特性をあらかじめ測定し、データとして記録しておき、それを参照してもよい。
Here, X o is a viewing angle [degree]. Further, L is the luminance, and in this embodiment, it is the average luminance of the calculated luminance image. The visual characteristic determination unit 503b performs the same processing as the visual
In the above description, the space VTF derived by the Barten model is used, but the present invention is not limited to this. For example, the contrast sensitivity characteristic acquired by changing the luminance of the subject may be measured in advance, recorded as data, and referred to.
<視覚特性適用部808aの動作>
図8を参照して、視覚特性適用部808aの動作について述べる。本実施形態では、視覚特性適用部808aは、周波数解析部807aの出力Ifft(u,v)に対して、視覚特性決定部503aにより得られたvtf(u,v)を乗算する。さらに、その結果を逆フーリエ変換することで、視覚特性適用後の画像Ithを計算する。具体的には、以下の式(17)により視覚特性適用後の画像Ithが求められる。
<Operation of Visual
The operation of the visual
ここで、ifftは逆フーリエ変換を表す。視覚特性適用部808aで生成した画像Ithは知覚エッジ・テクスチャ量であり、差分計算部809に入力される。視覚特性適用部808bは、視覚特性適用部808aと同様な処理を、周波数解析部807bの出力に対して行う。
よって、実施形態2によれば、視覚類似度計算部504における処理を簡略化することができる。
Here, ift represents an inverse Fourier transform. The image Ith generated by the visual
Therefore, according to the second embodiment, the processing in the visual
(他の実施形態)
実施形態1では、周波数域で乗算を行って帯域分割を行ったが、空間域での畳みこみ演算で帯域分割を行うことも可能である。また、ウェーブレットなど公知の帯域分割フィルタを適用し、図12に示すような周波数帯域に分割することも可能である。図12は、帯域分割フィルタによる周波数の帯域分割を、半値周波数で表した図である。
なお、デジタルカメラは、デジタルカメラスチルカメラでもデジタルビデオカメラでもよい。また、デジタルカメラは、撮像装置の一例である。本発明は、デジタルカメラだけでなく、携帯電話、タブレット端末、ゲーム機等にも適用できる。
(Other embodiments)
In the first embodiment, band division is performed by performing multiplication in the frequency domain, but it is also possible to perform band division by a convolution operation in the spatial domain. Further, it is possible to divide into frequency bands as shown in FIG. 12 by applying a known band division filter such as a wavelet. FIG. 12 is a diagram in which the frequency band division by the band division filter is represented by a half-value frequency.
The digital camera may be a digital camera still camera or a digital video camera. A digital camera is an example of an imaging device. The present invention can be applied not only to digital cameras but also to mobile phones, tablet terminals, game machines, and the like.
さらに、以下のようにソフトウェア(プログラム)を実行することも、本発明の範囲に含まれる。即ち、上記した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、当該システム或いは当該装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行することは、本発明に含まれる。 Furthermore, execution of software (program) as described below is also included in the scope of the present invention. That is, software (program) that realizes the functions of the above-described embodiment is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. This is included in the present invention.
101…撮像部、108…CPU、114…表示部、202…階調変換処理実行部、203…階調変換処理決定部、204…類似度算出部
DESCRIPTION OF
Claims (14)
算出した前記類似度に基づいて、前記入力画像の階調変換用のパラメータを決定する決定手段と、
決定された前記パラメータに基づいて、前記入力画像の階調変換を行う変換手段と、
を備えることを特徴とする画像処理装置。 Calculating means for calculating the similarity between the input image and a processed image obtained by performing predetermined processing on the input image based on the frequency characteristics and contrast characteristics of the input image and the processed image;
Determining means for determining a parameter for gradation conversion of the input image based on the calculated similarity;
Conversion means for performing gradation conversion of the input image based on the determined parameter;
An image processing apparatus comprising:
前記処理画像のコントラスト特性を決定する第二の特性決定手段と、
をさらに備えることを特徴とする請求項1記載の画像処理装置。 First characteristic determining means for determining contrast characteristics of the input image;
Second characteristic determining means for determining a contrast characteristic of the processed image;
The image processing apparatus according to claim 1, further comprising:
前記処理画像を表示する際の輝度情報を取得する第二の取得手段と、をさらに備え、
前記第一の特性決定手段は、前記撮像する際の輝度情報に基づき、前記入力画像のコントラスト特性を決定し、
前記第二の特性決定手段は、前記表示する際の輝度情報に基づき、前記処理画像のコントラスト特性を決定する、
ことを特徴とする請求項1または2記載の画像処理装置。 First acquisition means for acquiring luminance information when capturing the input image;
A second acquisition means for acquiring luminance information when displaying the processed image,
The first characteristic determining means determines a contrast characteristic of the input image based on luminance information at the time of imaging,
The second characteristic determining means determines a contrast characteristic of the processed image based on luminance information at the time of display.
The image processing apparatus according to claim 1, wherein
前記第一の輝度画像の周波数解析を行う第一の解析手段と、
前記第一の解析手段から得られる第一の解析結果に、前記入力画像のコントラスト特性を反映させることにより、第一の画像を生成する第一の画像生成手段と、
前記処理画像から、表示する際の輝度情報を表す第二の輝度画像を作成する第二の輝度画像生成手段と、
前記第二の輝度画像の周波数解析を行う第二の解析手段と、
前記第二の解析手段から得られる第二の解析結果に、前記処理画像のコントラスト特性を反映させることにより、第二の画像を生成する第二の画像生成手段と、をさらに備え、
前記算出手段は、前記第一の画像と前記第二の画像との差分を計算することにより、前記類似度を算出するることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 First luminance image generation means for generating a first luminance image representing luminance information at the time of imaging from the input image;
First analysis means for performing frequency analysis of the first luminance image;
First image generation means for generating a first image by reflecting the contrast characteristics of the input image in the first analysis result obtained from the first analysis means;
Second luminance image generation means for generating a second luminance image representing luminance information at the time of display from the processed image;
Second analysis means for performing frequency analysis of the second luminance image;
A second image generation means for generating a second image by reflecting the contrast characteristics of the processed image in the second analysis result obtained from the second analysis means;
4. The calculation unit according to claim 1, wherein the calculation unit calculates the similarity by calculating a difference between the first image and the second image. 5. Image processing device.
算出した前記類似度に基づいて、前記入力画像の階調変換用のパラメータを決定するステップと、
決定された前記パラメータに基づいて、前記入力画像の階調変換を行うステップと、
を有することを特徴とする画像処理方法。 Calculating a similarity between the input image and a processed image obtained by performing a predetermined process on the input image based on frequency characteristics and contrast characteristics of the input image and the processed image,
Determining a parameter for gradation conversion of the input image based on the calculated similarity;
Performing gradation conversion of the input image based on the determined parameter;
An image processing method comprising:
前記画像処理装置の入力画像を撮像する撮像手段と、
前記画像処理装置により階調変換された画像を表示する表示手段と、
前記撮像部および前記表示部を制御する制御手段と、
を備えることを特徴とする撮像装置。 An image processing device according to any one of claims 1 to 11,
Imaging means for imaging an input image of the image processing device;
Display means for displaying an image subjected to gradation conversion by the image processing device;
Control means for controlling the imaging unit and the display unit;
An imaging apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015050095A JP2016170637A (en) | 2015-03-12 | 2015-03-12 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015050095A JP2016170637A (en) | 2015-03-12 | 2015-03-12 | Image processing device and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016170637A true JP2016170637A (en) | 2016-09-23 |
Family
ID=56983856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015050095A Pending JP2016170637A (en) | 2015-03-12 | 2015-03-12 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016170637A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018061233A (en) * | 2016-10-04 | 2018-04-12 | キヤノン株式会社 | Image processing system, image processing method, and program |
-
2015
- 2015-03-12 JP JP2015050095A patent/JP2016170637A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018061233A (en) * | 2016-10-04 | 2018-04-12 | キヤノン株式会社 | Image processing system, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5100565B2 (en) | Image processing apparatus and image processing method | |
US8965120B2 (en) | Image processing apparatus and method of controlling the same | |
TWI416940B (en) | Image processing apparatus and image processing program | |
JP5781372B2 (en) | Image processing apparatus and imaging apparatus | |
JP6833415B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6720881B2 (en) | Image processing apparatus and image processing method | |
JP6611576B2 (en) | Image processing apparatus and image processing method | |
JP2014086956A (en) | Image processing apparatus and image processing method | |
US8942477B2 (en) | Image processing apparatus, image processing method, and program | |
JP7277158B2 (en) | Setting device and method, program, storage medium | |
CN106575434B (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP7297406B2 (en) | Control device, imaging device, control method and program | |
JP6243629B2 (en) | Image processing apparatus and method, and imaging apparatus | |
KR20180138530A (en) | Detection apparatus, image processing apparatus, detection method, and image processing method | |
US11069031B2 (en) | Image processing apparatus, control method for image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium to control reflected color components of input image | |
JP2010183460A (en) | Image capturing apparatus and method of controlling the same | |
JP6786273B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2020145553A (en) | Image processing apparatus, image processing method and program | |
JP2017138927A (en) | Image processing device, imaging apparatus, control method and program thereof | |
JP2016170637A (en) | Image processing device and image processing method | |
JP2015211320A (en) | Image processing apparatus, control method thereof and program | |
JP5225491B2 (en) | Image processing apparatus and image processing method | |
JP2012044560A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP2010183461A (en) | Image capturing apparatus and method of controlling the same | |
JP2020123138A (en) | Image processing system, image processing method, program, and storage medium |