JP2016170637A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2016170637A
JP2016170637A JP2015050095A JP2015050095A JP2016170637A JP 2016170637 A JP2016170637 A JP 2016170637A JP 2015050095 A JP2015050095 A JP 2015050095A JP 2015050095 A JP2015050095 A JP 2015050095A JP 2016170637 A JP2016170637 A JP 2016170637A
Authority
JP
Japan
Prior art keywords
image
unit
input
luminance
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015050095A
Other languages
Japanese (ja)
Inventor
智志 池田
Satoshi Ikeda
智志 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015050095A priority Critical patent/JP2016170637A/en
Publication of JP2016170637A publication Critical patent/JP2016170637A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that suppresses deterioration in image quality due to gradation conversion.SOLUTION: An image processing unit 104 of an image processing device includes: calculation means 204 that calculates the similarity between an input image and a processed image which is obtained by subjecting the input image to predetermined processing, on the basis of the respective frequency characteristics and contrast characteristics of the input image and processed image; determination means 203 that determines a parameter for gradation conversion of the input image on the basis of the calculated similarity; and conversion means 202 that performs gradation conversion of the input image on the basis of the determined parameter.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

近年、露出時間の異なる複数の画像を作成し、当該複数の画像を加算することでダイナミックレンジを拡大するHDR(High Dynamic Range:ハイダイナミックレンジ)技術が開発されている。この技術を利用すると、従来の撮像データに比べて広い範囲の輝度データを記録することができ、黒つぶれや白とびのない画像データを記録することが可能である。   In recent years, HDR (High Dynamic Range) technology has been developed that creates a plurality of images with different exposure times and adds the plurality of images to expand the dynamic range. By using this technique, it is possible to record a wider range of luminance data than conventional imaging data, and it is possible to record image data that is not blacked out or overexposed.

しかしながら、HDR技術を用いてダイナミックレンジの広い撮像(撮影)を行っても、表示機器の輝度範囲が十分でない場合がある。このような場合、表示機器のダイナミックレンジに合わせて、撮像画像の階調を変換する階調変換(階調圧縮)処理を行う必要がある。
特許文献1には、入力画像の輝度ヒストグラムと高周波成分ヒストグラムとを考慮した階調変換が開示されている。
However, even when imaging (photographing) with a wide dynamic range is performed using the HDR technology, the luminance range of the display device may not be sufficient. In such a case, it is necessary to perform gradation conversion (gradation compression) processing for converting the gradation of the captured image in accordance with the dynamic range of the display device.
Japanese Patent Application Laid-Open No. 2004-228561 discloses tone conversion in consideration of a luminance histogram and a high frequency component histogram of an input image.

特開2010−220032号JP2010-220032

特許文献1では、ある周波数以上の画素に対して求めた高周波成分ヒストグラムに基づき階調変換を行っているが、周波数とコントラストの関係を考慮していない。従って、特許文献1の手法でHDR画像の階調変換を行うと、画像によっては黒つぶれや階調つぶれ、白とびなどの画質劣化が発生し、ユーザに知覚されてしまう可能性がある。
上記したような課題を鑑み、本発明は、階調変換による画質劣化を抑制することができる画像処理装置およびその画像処理方法を提供することを課題とする。
In Patent Document 1, tone conversion is performed based on a high-frequency component histogram obtained for pixels having a certain frequency or higher, but the relationship between frequency and contrast is not considered. Therefore, when the gradation conversion of the HDR image is performed by the method of Patent Document 1, depending on the image, image quality deterioration such as blackout, gradation loss, and overexposure may occur, which may be perceived by the user.
In view of the problems as described above, it is an object of the present invention to provide an image processing apparatus and an image processing method thereof that can suppress image quality deterioration due to gradation conversion.

本発明の1つの態様による画像処理装置は、入力画像と、当該入力画像に所定の処理を施して得られる処理画像との間の類似度を、前記入力画像および前記処理画像のそれぞれの周波数特性およびコントラスト特性に基づいて算出する算出手段と、
算出した前記類似度に基づいて、前記入力画像の階調変換用のパラメータを決定する決定手段と、
決定された前記パラメータに基づいて、前記入力画像の階調変換を行う変換手段と、
を備える。
An image processing apparatus according to an aspect of the present invention uses a similarity between an input image and a processed image obtained by performing predetermined processing on the input image, and the frequency characteristics of the input image and the processed image. And a calculation means for calculating based on the contrast characteristics;
Determining means for determining a parameter for gradation conversion of the input image based on the calculated similarity;
Conversion means for performing gradation conversion of the input image based on the determined parameter;
Is provided.

本発明によれば、階調変換による画質劣化を抑制することができる。   According to the present invention, it is possible to suppress deterioration in image quality due to gradation conversion.

本発明の実施形態1にかかる画像処理装置を含むデジタルカメラの構成を示すブロック図である。1 is a block diagram showing a configuration of a digital camera including an image processing apparatus according to Embodiment 1 of the present invention. 実施形態1の画像処理装置である画像処理部の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of an image processing unit that is the image processing apparatus according to the first embodiment. 図2の画像処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image process part of FIG. 実施形態1で使用する階調変換カーブの一例を示す図である。It is a figure which shows an example of the gradation conversion curve used in Embodiment 1. FIG. 実施形態1の類似度算出部の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a similarity calculation unit according to the first embodiment. 実施形態1の視覚特性決定部の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a visual characteristic determination unit of Embodiment 1. FIG. 人間の周波数感度特性の模式図である。It is a schematic diagram of a human frequency sensitivity characteristic. 実施形態1の類似度計算部の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a similarity calculation unit according to Embodiment 1. FIG. 実施形態1で使用する周波数分割の帯域を示す模式図である。FIG. 3 is a schematic diagram illustrating frequency division bands used in the first embodiment. 図9の周波数分割に用いる帯域分割フィルタのフィルタ特性を示す図である。It is a figure which shows the filter characteristic of the band division filter used for the frequency division of FIG. 実施形態1におけるコントラスト閾値の決定方法を示す模式図である。FIG. 3 is a schematic diagram illustrating a method for determining a contrast threshold in the first embodiment. 実施形態2における帯域分割フィルタによる周波数の帯域分割を、半値周波数で表した模式図である。It is the schematic diagram which represented the frequency band division by the band division filter in Embodiment 2 by the half value frequency.

以下、本発明の画像処理装置および画像処理方法の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、実施形態で説明されている事項、要素、ステップの組み合わせの全てが本発明に必須のものとは限らない。以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものである。
上記したように、従来の手法でHDR画像の階調変換(階調圧縮)を行うと、画像によっては黒つぶれや階調つぶれ、白とびなどの画質劣化が発生してしまう可能性がある。これは、広い範囲の輝度を撮像した撮像データを狭い輝度範囲でしか表示できない表示機器に階調圧縮する際に、階調圧縮前後の視覚的な違いを考慮していないことが原因である。
Embodiments of an image processing apparatus and an image processing method of the present invention will be described below with reference to the drawings. The following embodiments do not limit the present invention, and all the combinations of items, elements, and steps described in the embodiments are not necessarily essential to the present invention. The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions.
As described above, when gradation conversion (gradation compression) of an HDR image is performed by a conventional method, there is a possibility that image quality deterioration such as blackout, gradation loss, and overexposure occurs depending on the image. This is because the visual difference before and after the gradation compression is not taken into consideration when the gradation compression is performed on a display device that can display only a narrow luminance range of imaging data obtained by imaging a wide range of luminance.

人間の視覚特性は、4〜5サイクル/視野角1度をピークとして、周波数が高くなるにつれて感度が低くなるというバンドパスの性質を有する。このため、低周波のエッジおよびテクスチャは比較的小さいコントラストでも知覚できるのに対して、周波数の高いエッジおよびテクスチャはコントラスト差が大きくないと知覚できない。エッジおよびテクスチャの階調つぶれが少ない階調変換を行うには、周波数とコントラストの両方を考慮する必要がある。
さらに、人間の視覚特性は、被写体の明るさに応じて変化する。例えば、被写体が明るいと視覚感度は高くなり、被写体が暗いと視覚感度は低くなる。このため、撮像環境と表示環境の輝度の違いを考慮し、エッジおよびテクスチャの階調つぶれが少ない階調変換処理を行う必要がある。
The human visual characteristic has a band-pass property in which the sensitivity decreases as the frequency increases with a peak at 4 to 5 cycles / viewing angle of 1 degree. For this reason, low-frequency edges and textures can be perceived even with relatively low contrast, whereas high-frequency edges and textures cannot be perceived unless the contrast difference is large. In order to perform gradation conversion with less edge and texture gradation collapse, it is necessary to consider both frequency and contrast.
Furthermore, human visual characteristics change according to the brightness of the subject. For example, when the subject is bright, the visual sensitivity is high, and when the subject is dark, the visual sensitivity is low. For this reason, it is necessary to perform gradation conversion processing in which the gradation loss of the edges and texture is small in consideration of the difference in luminance between the imaging environment and the display environment.

以下の記載では、デジタルカメラで撮像した画像を階調変換(階調圧縮)して表示する例を説明する。まず、デジタルカメラの撮像条件および表示条件をもとに、撮像時の環境における視覚のコントラスト特性および表示時の環境における視覚のコントラスト特性を求める。さらに、階調圧縮前の高階調画像と階調圧縮後の低階調画像それぞれに対して、輝度を考慮した周波数解析を行う。当該周波数解析の結果と前記視覚のコントラスト特性とから、階調圧縮前の画像と階調圧縮後の画像との視覚的な類似度を計算し、類似度が最大となる階調変換処理を行う。類似度が最大となる階調変換を行えば、階調変換による画質劣化を抑制することができる。   In the following description, an example in which an image captured by a digital camera is displayed after gradation conversion (gradation compression) will be described. First, based on the imaging conditions and display conditions of the digital camera, the visual contrast characteristics in the environment at the time of imaging and the visual contrast characteristics in the environment at the time of display are obtained. Further, frequency analysis in consideration of luminance is performed on each of the high gradation image before gradation compression and the low gradation image after gradation compression. From the result of the frequency analysis and the visual contrast characteristics, the visual similarity between the image before gradation compression and the image after gradation compression is calculated, and gradation conversion processing that maximizes the similarity is performed. . If tone conversion that maximizes the degree of similarity is performed, image quality deterioration due to tone conversion can be suppressed.

画像の暗部の高周波成分はそもそも見えないため、本実施形態では、画像の暗部の階調を階調圧縮でつぶしても、階調圧縮前後の類似度に影響しない(影響が小さい)と考える。つまり、本実施形態では、階調圧縮前の画像と階調圧縮後の画像と視覚的な差分は、画像の低階調領域では小さいとして算出される。従来の階調変換では、画像の暗部の高周波数成分も階調圧縮でつぶれないようにしている。
また、本実施形態では、撮像環境の輝度と表示環境の輝度に応じて階調変換を行うので、同一の入力画像に対しても、異なる階調変換が行われる場合がある。
Since the high-frequency component in the dark part of the image cannot be seen in the first place, in this embodiment, it is considered that even if the gradation of the dark part of the image is crushed by gradation compression, the similarity before and after gradation compression is not affected (the influence is small). That is, in this embodiment, the visual difference between the image before gradation compression and the image after gradation compression is calculated as being small in the low gradation region of the image. In the conventional gradation conversion, the high frequency components in the dark part of the image are prevented from being crushed by gradation compression.
In the present embodiment, gradation conversion is performed according to the brightness of the imaging environment and the brightness of the display environment. Therefore, different gradation conversion may be performed even for the same input image.

(実施形態1)
<画像処理装置の構成>
図1は本発明の実施形態1の画像処理装置を含むデジタルカメラの構成を示すブロック図である。
デジタルカメラは、撮像部101、A/D変換部102、信号処理部103、画像処理部104、エンコーダ部105、メディアインタフェース106、CPU108、ROM109、RAM110、撮像系制御部111、操作部112、D/A変換部113、および表示部114を備える。デジタルカメラの上記した構成要素は、直接または間接的に、バス115により相互に接続されている。画像処理部104が本実施形態の画像処理装置である。
(Embodiment 1)
<Configuration of image processing apparatus>
FIG. 1 is a block diagram showing a configuration of a digital camera including the image processing apparatus according to the first embodiment of the present invention.
The digital camera includes an imaging unit 101, an A / D conversion unit 102, a signal processing unit 103, an image processing unit 104, an encoder unit 105, a media interface 106, a CPU 108, a ROM 109, a RAM 110, an imaging system control unit 111, an operation unit 112, and a D. / A conversion part 113 and the display part 114 are provided. The above-described components of the digital camera are connected to each other by a bus 115 directly or indirectly. An image processing unit 104 is an image processing apparatus according to this embodiment.

撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iR(赤外線)カットフィルタ、カラーフィルタ、および、CMOS素子やCCDなどのセンサなどから構成される。撮像部101は、被写体(図示せず)の光量を検知する。撮像部101は、被写体の光量を検知することにより、被写体の光学像を電気信号に変換する。この電気信号はアナログ信号である。撮像部101は、このアナログ信号をA/D変換部102に出力する。
撮像部101の撮像素子(CMOS素子等)は、例えば、画素ごとに赤(R)、緑(G)、青(B)の3原色の原色フィルタが所定のパターンで配置されたカラー撮像素子である。撮像部101の上記レンズを介して撮像素子の受光面に入射した光学像は、入射光量に応じたRGBの信号電荷に変換され、画素ごとの電圧信号(アナログ画像信号)として撮像部101から出力される。
The imaging unit 101 includes a zoom lens, a focus lens, a shake correction lens, an aperture, a shutter, an optical low-pass filter, an iR (infrared) cut filter, a color filter, and a sensor such as a CMOS element or a CCD. The imaging unit 101 detects the amount of light of a subject (not shown). The imaging unit 101 converts the optical image of the subject into an electrical signal by detecting the amount of light of the subject. This electrical signal is an analog signal. The imaging unit 101 outputs this analog signal to the A / D conversion unit 102.
The imaging element (CMOS element or the like) of the imaging unit 101 is, for example, a color imaging element in which primary color filters of three primary colors of red (R), green (G), and blue (B) are arranged in a predetermined pattern for each pixel. is there. The optical image incident on the light receiving surface of the image sensor via the lens of the imaging unit 101 is converted into RGB signal charges corresponding to the amount of incident light, and output from the imaging unit 101 as a voltage signal (analog image signal) for each pixel. Is done.

本実施形態のデジタルカメラは、HDR処理を用いてハイダイナミックレンジの撮像を行うことができる。例えば、撮像部101は、16ビットモードで被写体の光量を検知する。
A/D変換部102は、被写体の光量に相当する上記アナログ信号をデジタル値に変換する。A/D変換部102は、当該デジタル値を信号処理部103に出力する。
信号処理部103は、上記デジタル値にデモザイキング処理、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などを行い、デジタル画像を生成する。ノイズ低減処理は、例えば、コンポジット法を用いた処理である。信号処理部103は、当該デジタル画像を画像処理部104に出力する。信号処理部103から出力されるデジタル画像は、本実施形態では、16ビット画像(高階調画像)である。また、本実施形態では、当該デジタル画像はRGB画像である。
The digital camera of this embodiment can perform high dynamic range imaging using HDR processing. For example, the imaging unit 101 detects the amount of light of the subject in a 16-bit mode.
The A / D converter 102 converts the analog signal corresponding to the amount of light of the subject into a digital value. The A / D conversion unit 102 outputs the digital value to the signal processing unit 103.
The signal processing unit 103 performs demosaicing processing, white balance processing, gamma processing, noise reduction processing, and the like on the digital value to generate a digital image. The noise reduction process is a process using a composite method, for example. The signal processing unit 103 outputs the digital image to the image processing unit 104. In the present embodiment, the digital image output from the signal processing unit 103 is a 16-bit image (high gradation image). In the present embodiment, the digital image is an RGB image.

画像処理部104は、上記デジタル画像に階調変換処理を行う。画像処理部104は、階調変換後の画像をエンコーダ部105とD/A変換部113に出力する。画像処理部104は、信号処理部103からのデジタル画像を受け取る入力端子201を有すると共に、エンコーダ105およびD/A変換部113に画像を出力する出力端子205を有する。画像処理部104の構成および動作の詳細は、図2を参照して後述する。画像処理部104から出力される画像は、例えば、8ビット画像(低階調画像)である。   The image processing unit 104 performs gradation conversion processing on the digital image. The image processing unit 104 outputs the gradation-converted image to the encoder unit 105 and the D / A conversion unit 113. The image processing unit 104 has an input terminal 201 that receives a digital image from the signal processing unit 103, and an output terminal 205 that outputs an image to the encoder 105 and the D / A conversion unit 113. Details of the configuration and operation of the image processing unit 104 will be described later with reference to FIG. The image output from the image processing unit 104 is, for example, an 8-bit image (low gradation image).

エンコーダ部105は、階調変換後のデジタル画像をJPEG等の映像圧縮フォーマットに変換する処理を行う。エンコーダ部105は、当該デジタル画像をメディアインタフェース106に出力する。階調変換後のデジタル画像も、RGB画像である。
メディアインタフェース106は、デジタルカメラを外部のメディア107につなぐためのインタフェースである。外部のメディア107は、例えば、ハードディスク、メモリーカード、CF(Compact Flash)カード、SDカード、USBメモリである。
The encoder unit 105 performs processing for converting the digital image after gradation conversion into a video compression format such as JPEG. The encoder unit 105 outputs the digital image to the media interface 106. The digital image after gradation conversion is also an RGB image.
The media interface 106 is an interface for connecting the digital camera to an external medium 107. The external medium 107 is, for example, a hard disk, a memory card, a CF (Compact Flash) card, an SD card, or a USB memory.

CPU108は、システムバス115を介して、デジタルカメラの各構成要素の処理・動作を制御する。CPU108による制御は、例えば、CPU108がROM109やRAM110に格納された命令やデータ等を適宜読み込み当該命令を実行することにより行われる。また、CPU108は、デジタルカメラのユーザが入力する情報や指示に基づく処理も行う。
ROM109とRAM110は、CPU108が実行する処理に必要なプログラムやデータ等を格納すると共に、当該処理に必要な作業領域などをCPU108に提供する。例えば、CPU08は、ROM109に記録されたコンピュータプログラムを、RAM110に読み出し、このプログラムに従ってCPU108が動作する。
The CPU 108 controls processing / operation of each component of the digital camera via the system bus 115. The control by the CPU 108 is performed, for example, by the CPU 108 appropriately reading instructions and data stored in the ROM 109 and RAM 110 and executing the instructions. The CPU 108 also performs processing based on information and instructions input by the user of the digital camera.
The ROM 109 and the RAM 110 store programs and data necessary for processing executed by the CPU 108 and provide the CPU 108 with a work area necessary for the processing. For example, the CPU 08 reads a computer program recorded in the ROM 109 into the RAM 110, and the CPU 108 operates according to this program.

撮像系制御部111は、CPU108からの指示に基づいて、撮像部101を制御する。例えば、撮像系制御部111は、撮像部101のレンズのフォーカスを合わせる、シャッターを開く、絞りを調節するなどの制御を行う。
操作部112は、撮像ボタン、操作ボタン、モードダイヤルなどを含む。デジタルカメラのユーザは、当該ボタンやダイヤルを介して、デジタルカメラへ指示を入力する(設定を行う)ことができる。ユーザから入力される指示は、例えば、撮像(撮影)のための設定であり、ISO感度の設定、シャッター速度の設定、F値(絞り値)の設定等を含む。操作部112から入力された撮像設定に関する情報や指示は、CPU108に送られる。上記したように、CPU108は、操作部112から入力された情報や指示に基づいて処理を行い、デジタルカメラの撮像条件を決定する。当該撮像条件は、RAM110に記憶される。
The imaging system control unit 111 controls the imaging unit 101 based on an instruction from the CPU 108. For example, the imaging system control unit 111 performs control such as adjusting the focus of the lens of the imaging unit 101, opening the shutter, and adjusting the aperture.
The operation unit 112 includes an imaging button, an operation button, a mode dial, and the like. A user of the digital camera can input (set) an instruction to the digital camera via the button or dial. The instruction input from the user is, for example, a setting for imaging (shooting), and includes an ISO sensitivity setting, a shutter speed setting, an F value (aperture value) setting, and the like. Information and instructions regarding imaging settings input from the operation unit 112 are sent to the CPU 108. As described above, the CPU 108 performs processing based on information and instructions input from the operation unit 112 and determines the imaging conditions of the digital camera. The imaging conditions are stored in the RAM 110.

D/A変換部113は、画像処理部104が出力した低階調のデジタル画像に対しアナログ変換を行う。D/A変換部113は、アナログ変換した画像を表面部114に出力する。
表示部114は、例えば、液晶ディスプレイである。表示部114は、CPU108の制御の下で、D/A変換部113から受け取った低階調画像を表示する。表示部114は、例えば、256階調の表示ができる。
なお、表示部11は、機能ボタン(撮像ボタンや操作ボタン)として作用する機能アイコンを表示してもよい。ユーザは、当該機能アイコンを選択する(機能アイコンに触れる)ことにより、デジタルカメラへ指示を入力することができる。
The D / A conversion unit 113 performs analog conversion on the low gradation digital image output from the image processing unit 104. The D / A converter 113 outputs the analog-converted image to the front surface 114.
The display unit 114 is, for example, a liquid crystal display. The display unit 114 displays the low gradation image received from the D / A conversion unit 113 under the control of the CPU 108. The display unit 114 can display, for example, 256 gradations.
The display unit 11 may display function icons that function as function buttons (imaging buttons or operation buttons). The user can input an instruction to the digital camera by selecting the function icon (touching the function icon).

<画像処理部104の構成>
以下、画像処理部104の構成および動作について詳細に説明する。図2は、画像処理部104の構成を示している。
画像処理部104は、入力端子201と、階調変換処理実行部202と、階調変換処理決定部203と、類似度算出部204と、出力端子205とを有する。類似度算出部204は、バス115に接続されている。類似度算出部204は、第1の入力端子501と第2の入力端子502と出力端子505とを有する。
<Configuration of Image Processing Unit 104>
Hereinafter, the configuration and operation of the image processing unit 104 will be described in detail. FIG. 2 shows the configuration of the image processing unit 104.
The image processing unit 104 includes an input terminal 201, a gradation conversion process execution unit 202, a gradation conversion process determination unit 203, a similarity calculation unit 204, and an output terminal 205. The similarity calculation unit 204 is connected to the bus 115. The similarity calculation unit 204 includes a first input terminal 501, a second input terminal 502, and an output terminal 505.

信号処理部103(図1)からの画像信号(高階調の画像Iin)が、画像処理部104の入力端子201に入力される。当該画像信号は、入力端子201から階調変換処理実行部202と類似度算出部204とに入力される。つまり、階調変換される前の高階調画像Iinは、階調変換処理実行202と類似度算出部204に入力される。
階調変換処理実行部202は、高階調の画像Iinに階調変換処理を施す。階調変換処理実行部202は、階調変換後の画像Iconvを階調変換処理決定部203と、類似度算出部204とに出力する。階調変換処理実行部202は、画像Iinに対して複数の階調変換パラメータを用いて階調変換を行い、複数の階調変換後の画像Iconvを作成する。
An image signal (high gradation image Iin) from the signal processing unit 103 (FIG. 1) is input to the input terminal 201 of the image processing unit 104. The image signal is input from the input terminal 201 to the gradation conversion processing execution unit 202 and the similarity calculation unit 204. That is, the high gradation image Iin before gradation conversion is input to the gradation conversion process execution 202 and the similarity calculation unit 204.
The gradation conversion processing execution unit 202 performs gradation conversion processing on the high gradation image Iin. The gradation conversion processing execution unit 202 outputs the image Iconv after the gradation conversion to the gradation conversion processing determination unit 203 and the similarity calculation unit 204. The gradation conversion processing execution unit 202 performs gradation conversion on the image Iin using a plurality of gradation conversion parameters, and creates a plurality of gradation-converted images Iconv.

類似度算出部204は、第1の入力端子501で階調変換前の画像Iinを受け取り、第2の入力端子502で階調変換後の複数の画像Iconvを受け取る。類似度算出部204は、階調変換前の高階調画像Iinに対する撮像部101の設定環境におけるエッジおよびテクスチャの見え(知覚できるエッジおよびテクスチャの量)と、階調変換後の低階調画像Iconvに対する表示部114の設定環境におけるエッジおよびテクスチャの見えとの違い(差分)を算出する。この算出は、前記複数の低階調画像(階調変換後の画像)Iconvの各々について行われる。この「見えの違い」が小さければ類似度が高いことになる。類似度算出部204は、当該算出結果(類似度)の中から、最も高い類似度を有する画像Iconvに関する情報を出力端子505から階調変換処理決定部203に出力する。「知覚できるエッジおよびテクスチャの量」は、以下、「知覚エッジ・テクスチャ量」と称する。   The similarity calculation unit 204 receives an image Iin before gradation conversion at the first input terminal 501 and receives a plurality of images Iconv after gradation conversion at the second input terminal 502. The similarity calculation unit 204 displays the appearance of edges and textures in the setting environment of the imaging unit 101 with respect to the high gradation image Iin before gradation conversion (the amount of perceivable edges and textures), and the low gradation image Iconv after gradation conversion. The difference (difference) from the appearance of the edge and texture in the setting environment of the display unit 114 is calculated. This calculation is performed for each of the plurality of low gradation images (images after gradation conversion) Iconv. If this “difference in appearance” is small, the similarity is high. The similarity calculation unit 204 outputs information regarding the image Iconv having the highest similarity among the calculation results (similarity) from the output terminal 505 to the gradation conversion processing determination unit 203. The “perceivable edge and texture amount” is hereinafter referred to as “perceived edge / texture amount”.

階調変換処理決定部203は、階調変換処理実行部202から受け取った複数の画像Iconvのうち、類似度算出部204にて算出された類似度が最も高い画像Iconvを出力画像(表示用の画像)として決定(選択)する。つまり、階調変換処理決定部203は、算出された類似度に基づいて、画像Iin(入力画像)にとって最適な階調変換パラメータを決定する。
本実施形態で階調変換処理実行部202が行う階調変換の方法は、例えば、トーンカーブを用いた手法、ヒストグラム平滑化法、ヒストグラム特定化法から選択される。なお、本発明は上記した階調変換方法に限定されない。本発明は、任意の階調変換方法に適用できる。すなわち、本発明では、任意の階調圧縮処理に対して、処理前後における知覚エッジ・テクスチャ量の相違(上記した「見えの違い」)を算出し、最適な階調処理を決定(選択)して、当該階調処理を実行する。
The gradation conversion processing determination unit 203 outputs an image Iconv having the highest similarity calculated by the similarity calculation unit 204 among the plurality of images Iconv received from the gradation conversion processing execution unit 202 as an output image (for display). Determine (select) as an image. That is, the gradation conversion process determination unit 203 determines an optimal gradation conversion parameter for the image Iin (input image) based on the calculated similarity.
The gradation conversion method performed by the gradation conversion processing execution unit 202 in the present embodiment is selected from, for example, a technique using a tone curve, a histogram smoothing method, and a histogram specifying method. The present invention is not limited to the gradation conversion method described above. The present invention can be applied to any gradation conversion method. That is, in the present invention, for an arbitrary gradation compression process, a difference in perceived edge / texture amount before and after the process (the above-mentioned “difference in appearance”) is calculated, and an optimum gradation process is determined (selected). Then, the gradation processing is executed.

次に、図3のフローチャートを参照して、画像処理部104の具体的な処理を説明する。本実施形態の階調変換は、図4に示した単純な線形トーンカーブ(折れ線型トーンカーブ)を用いる。図4の縦軸は出力階調を示し、横軸は入力階調を示す。図4では、入力階調値に対して、2つのオフセット値(offs_Lとoffs_H)を用いた線形変換(階調変換)を施すことで、出力階調を決定する。以下の例では、低階調側のオフセット値offs_Lと高階調側のオフセット値offs_Hを複数用意して、その中から最適なオフセット値offs_Lおよびoffs_Hを選定する。最適なオフセット値offs_Lおよびoffs_Hは、処理前後における知覚エッジ・テクスチャ量の差分が最少となるオフセット値である。オフセット値offs_Lおよびoffs_Hは、階調変換処理のパラメータである。複数用意したオフセット値offs_Lおよびoffs_Hは、以下の記載において「パラメータ候補」と称することもある。   Next, specific processing of the image processing unit 104 will be described with reference to the flowchart of FIG. The gradation conversion of this embodiment uses the simple linear tone curve (polygonal tone curve) shown in FIG. The vertical axis in FIG. 4 indicates the output gradation, and the horizontal axis indicates the input gradation. In FIG. 4, the output gradation is determined by performing linear conversion (gradation conversion) using two offset values (offs_L and offs_H) on the input gradation value. In the following example, a plurality of offset values offs_L on the low gradation side and offset values offs_H on the high gradation side are prepared, and optimum offset values offs_L and offs_H are selected from among them. The optimum offset values offs_L and offs_H are offset values that minimize the difference between the perceived edge / texture amount before and after processing. The offset values offs_L and offs_H are parameters for gradation conversion processing. A plurality of prepared offset values offs_L and offs_H may be referred to as “parameter candidates” in the following description.

図3のステップS301では、階調変換処理実行部202が階調変換処理のための複数のパラメータ候補(オフセット値offs_Lおよびoffs_H)を用意して、その中から1つのパラメータ候補を設定する。具体的には、階調変換処理実行部202が、複数のオフセット値offs_Lおよびoffs_Hの中から1組のオフセット値offs_Lおよびoffs_Hを設定する。ステップS301の終了後、ステップS302に進む。
ステップS302では、階調変換処理実行部202が、入力画像Iinに階調変換処理を実施する。具体的には、階調変換処理実行部202は、ステップS301にて決定されたパラメータ候補(オフセット値)で規定されるトーンカーブ(図4)を用いて、画像Iinに階調変換を施し、階調変換された画像Iconvを生成する。ステップS302の終了後、ステップS303に進む。
In step S301 in FIG. 3, the gradation conversion processing execution unit 202 prepares a plurality of parameter candidates (offset values offs_L and offs_H) for gradation conversion processing, and sets one parameter candidate from them. Specifically, the gradation conversion processing execution unit 202 sets one set of offset values offs_L and offs_H from the plurality of offset values offs_L and offs_H. After step S301 ends, the process proceeds to step S302.
In step S302, the gradation conversion processing execution unit 202 performs gradation conversion processing on the input image Iin. Specifically, the gradation conversion processing execution unit 202 performs gradation conversion on the image Iin using the tone curve (FIG. 4) defined by the parameter candidate (offset value) determined in step S301, A gradation-converted image Iconv is generated. After step S302 ends, the process proceeds to step S303.

ステップS303では、類似度算出部204が、階調変換後の画像Iconvと入力画像Iinとの類似度を算出する。類似度は、撮像環境における入力画像Iinの知覚エッジ・テクスチャ量と、表示環境における画像Iconvの知覚エッジ・テクスチャ量との間の差分を計算することにより算出される。当該差分が小さいほど、類似度は高い。当該算出の詳細は後述する。
ステップS304では、全パラメータ候補(用意されたオフセット値offs_Lおよびoffs_Hの全て)に対して前述の処理が実行されたか否かを判断する。判断結果が真(Yes)であればステップS305に移行し、否(No)であればステップS301に戻る。
In step S303, the similarity calculation unit 204 calculates the similarity between the image Iconv after gradation conversion and the input image Iin. The similarity is calculated by calculating a difference between the perceived edge / texture amount of the input image Iin in the imaging environment and the perceived edge / texture amount of the image Iconv in the display environment. The smaller the difference, the higher the similarity. Details of the calculation will be described later.
In step S304, it is determined whether or not the above-described processing has been performed on all parameter candidates (all of the prepared offset values offs_L and offs_H). If the determination result is true (Yes), the process proceeds to step S305, and if not (No), the process returns to step S301.

全パラメータ候補に対してステップS301−S303の処理が行われたならば、ステップS305で、類似度算出部204は、全パラメータ候補(offs_Lおよびoffs_H)のうち類似度の最も高いパラメータに関する情報を階調圧縮処理決定部203に提供する。そして、階調圧縮処理決定部203は、類似度の最も高いパラメータで階調変換した画像IconvをD/A変換部113とエンコーダ105に出力する。   If the processing of steps S301 to S303 is performed on all parameter candidates, in step S305, the similarity calculation unit 204 displays information on the parameter having the highest similarity among all parameter candidates (offs_L and offs_H). This is provided to the tone compression processing determination unit 203. Then, the gradation compression processing determination unit 203 outputs the image Iconv subjected to gradation conversion with the parameter having the highest similarity to the D / A conversion unit 113 and the encoder 105.

<類似度算出部204の構成>
次に、類似度算出部204の構成および動作について説明する。類似度算出部204は、階調変換前の画像Iinの知覚エッジ・テクスチャ量と、階調変換後の画像Iconvの知覚エッジ・テクスチャ量との差分を計算する。
図5は、類似度算出部204の構成を示している。類似度算出部204は、2つの入力端子501、502と、当該2つの入力端子501、502にそれぞれ接続された2つの視覚特性決定部503a、503bと、1つの視覚類似度計算部504と、1つの出力端子505とを有する。階調変換前の画像Iinが類似度算出部204の第1の端子501から入力される。第1の端子501に入力された画像Iinは、視覚特性決定部503aの入力端子601と、視覚類似度計算部504の第1入力端子801とに入力される。階調変換後の画像Iconvが第2の入力端子502から入力される。第2の端子502に入力された画像Iconvは、視覚特性決定部503bの入力端子601と、視覚類似度計算部504の第2入力端子802とに入力される。2つの視覚特性決定部503a、503bの構成は同じである。
<Configuration of Similarity Calculation Unit 204>
Next, the configuration and operation of the similarity calculation unit 204 will be described. The similarity calculation unit 204 calculates the difference between the perceived edge / texture amount of the image Iin before gradation conversion and the perceived edge / texture amount of the image Iconv after gradation conversion.
FIG. 5 shows the configuration of the similarity calculation unit 204. The similarity calculation unit 204 includes two input terminals 501 and 502, two visual characteristic determination units 503a and 503b connected to the two input terminals 501 and 502, and one visual similarity calculation unit 504, And one output terminal 505. The image Iin before gradation conversion is input from the first terminal 501 of the similarity calculation unit 204. The image Iin input to the first terminal 501 is input to the input terminal 601 of the visual characteristic determination unit 503a and the first input terminal 801 of the visual similarity calculation unit 504. The image Iconv after gradation conversion is input from the second input terminal 502. The image Iconv input to the second terminal 502 is input to the input terminal 601 of the visual characteristic determination unit 503b and the second input terminal 802 of the visual similarity calculation unit 504. The configuration of the two visual characteristic determination units 503a and 503b is the same.

視覚特性決定部503aは、階調変換前の画像Iinの視覚のコントラスト感度特性を計算し、視覚特性決定部503bは、階調変換後の画像Iconvの視覚のコントラスト感度特性を計算する。視覚特性決定部503aが計算したコントラスト感度特性は、視覚類似度計算部504の第3入力端子803に入力される。視覚特性決定部503bが計算したコントラスト感度特性は、視覚類似度計算部504の第4入力端子804に入力される。なお、コントラスト感度特性は、以下の記載において、コントラスト特性と称されることもある。
視覚類似度計算部504は、入力された2つのコントラスト感度特性(視覚特性)を用いて、階調変換前の画像Iinと階調変換後の画像Iconvとの間の視覚的な違い(知覚エッジ・テクスチャ量の差分)を計算する。計算結果は、出力端子505から階調変換処理決定部203(図2)に出力される。
The visual characteristic determination unit 503a calculates the visual contrast sensitivity characteristic of the image Iin before gradation conversion, and the visual characteristic determination unit 503b calculates the visual contrast sensitivity characteristic of the image Iconv after gradation conversion. The contrast sensitivity characteristic calculated by the visual characteristic determination unit 503a is input to the third input terminal 803 of the visual similarity calculation unit 504. The contrast sensitivity characteristic calculated by the visual characteristic determination unit 503b is input to the fourth input terminal 804 of the visual similarity calculation unit 504. The contrast sensitivity characteristic is sometimes referred to as contrast characteristic in the following description.
The visual similarity calculation unit 504 uses the two input contrast sensitivity characteristics (visual characteristics) to determine the visual difference (perceptual edge) between the image Iin before gradation conversion and the image Iconv after gradation conversion. Calculate the difference in texture amount. The calculation result is output from the output terminal 505 to the gradation conversion processing determination unit 203 (FIG. 2).

<視覚特性決定部503aの動作>
次に、図6および図7を参照して、視覚特性決定部503aの構成および動作について説明する。図6は視覚特性決定部503aの機能ブロック図である。視覚特性決定部503aは、入力端子601と、輝度情報取得部602と、視覚特性計算部603と、出力端子604とを有する。輝度情報取得部602は、バス115に接続されている。視覚特性決定部503bの構成および動作は、視覚特性決定部503aの構成および動作と同じである。
<Operation of the visual characteristic determination unit 503a>
Next, the configuration and operation of the visual characteristic determination unit 503a will be described with reference to FIGS. FIG. 6 is a functional block diagram of the visual characteristic determination unit 503a. The visual characteristic determination unit 503a includes an input terminal 601, a luminance information acquisition unit 602, a visual characteristic calculation unit 603, and an output terminal 604. The luminance information acquisition unit 602 is connected to the bus 115. The configuration and operation of the visual characteristic determination unit 503b are the same as the configuration and operation of the visual characteristic determination unit 503a.

図7はコントラスト感度と空間周波数の関係を示す図である。図7の縦軸はコントラスト感度であり、横軸は空間周波数である。本明細書で、視覚特性とは、周波数ごとのコントラスト感度特性を意味する。視覚特性は、図7に示すようなバンドパス特性を有している。すなわち、視覚特性は、照明環境が明るいほど(輝度が高いほど)ピーク感度が高くなり且つピーク周波数が高周波にシフトするというバンドパス特性を有している。例えば、図7では、輝度が0.1cd/mの曲線と輝度が1cd/mの曲線とを比べると、高輝度である1cd/mの曲線の方が、ピーク感度が高く且つピーク周波数が高い。 FIG. 7 is a diagram showing the relationship between contrast sensitivity and spatial frequency. The vertical axis in FIG. 7 is the contrast sensitivity, and the horizontal axis is the spatial frequency. In this specification, the visual characteristic means a contrast sensitivity characteristic for each frequency. The visual characteristic has a bandpass characteristic as shown in FIG. That is, the visual characteristic has a bandpass characteristic that the peak sensitivity increases and the peak frequency shifts to a high frequency as the illumination environment is brighter (the luminance is higher). For example, in Figure 7, when the brightness curve and brightness 0.1 cd / m 2 Comparing the curve of 1 cd / m 2, towards the curve of 1 cd / m 2 is a high brightness, the peak sensitivity is high and the peak The frequency is high.

以下の記載では、視覚特性はVTFs(u)と表記される。VTFはVisual Transfer Function(視覚の伝達関数、視覚の空間周波数特性)の略である。uは周波数である。本実施形態では、撮像(撮影)環境における視覚特性VTFs(u)を視覚特性決定部503aで決定し、表示環境における視覚特性VTFs(u)を視覚特性決定部503bで決定する。視覚特性決定部503aで決定される視覚特性が503bで決定される視覚特性とは異なるので、撮像環境における知覚エッジ・テクスチャ量と、表示環境における知覚エッジ・テクスチャ量との間に違いが出てくる。本実施形態では、この違い(差分)を数値化している。視覚特性VTFs(u)はコントラスト感度特性と称することもできる。本実施形態の視覚特性VTFs(u)は一次元の視覚特性である。   In the following description, visual characteristics are denoted as VTFs (u). VTF is an abbreviation for Visual Transfer Function (visual transfer function, visual spatial frequency characteristic). u is the frequency. In the present embodiment, the visual characteristic VTFs (u) in the imaging (photographing) environment is determined by the visual characteristic determination unit 503a, and the visual characteristic VTFs (u) in the display environment is determined by the visual characteristic determination unit 503b. Since the visual characteristic determined by the visual characteristic determination unit 503a is different from the visual characteristic determined by 503b, there is a difference between the perceived edge / texture amount in the imaging environment and the perceived edge / texture amount in the display environment. come. In the present embodiment, this difference (difference) is quantified. The visual characteristics VTFs (u) can also be referred to as contrast sensitivity characteristics. The visual characteristic VTFs (u) of the present embodiment is a one-dimensional visual characteristic.

視覚特性決定部503a、503bの入力端子601からは、画像Iin、Iconvが入力される。入力された画像Iin、Iconvは、輝度情報取得部602に送られる。輝度情報取得602は、撮像(撮影)条件および表示条件を、バス115を介して取得する。輝度情報取得602は、撮像条件および表示条件から、撮像画像および表示画像の輝度値Lを取得する。輝度値Lは、例えば、画像内の平均輝度値や最大輝度値を用いる。輝度情報取得部602は、取得した輝度値Lを視覚特性計算部603に出力する。   Images Iin and Iconv are input from the input terminals 601 of the visual characteristic determination units 503a and 503b. The input images Iin and Iconv are sent to the luminance information acquisition unit 602. The luminance information acquisition 602 acquires imaging (imaging) conditions and display conditions via the bus 115. The luminance information acquisition 602 acquires the luminance value L of the captured image and the display image from the imaging condition and the display condition. As the luminance value L, for example, an average luminance value or a maximum luminance value in the image is used. The luminance information acquisition unit 602 outputs the acquired luminance value L to the visual characteristic calculation unit 603.

<視覚特性計算部603の動作>
視覚特性計算部603は、輝度情報取得部602から入力された輝度値Lをもとに、視覚特性を計算する。以下、視覚特性計算部603の計算処理について説明する。本実施形態では、Bartenモデル(Barten, Peter GJ. "Formula for the contrast sensitivity of the human eye." International Society for Optics and Photonics, 2003参照)により導出された空間VTFを用いる。この空間VTFを用いると、周波数uに対するコントラスト感度特性VTFs(u)は以下の式(1)で与えられる。
<Operation of Visual Characteristic Calculation Unit 603>
The visual characteristic calculation unit 603 calculates the visual characteristic based on the luminance value L input from the luminance information acquisition unit 602. Hereinafter, the calculation process of the visual characteristic calculation unit 603 will be described. In this embodiment, a spatial VTF derived by the Barten model (see Barten, Peter GJ. “Formula for the contrast sensitivity of the human eye.” International Society for Optics and Photonics, 2003) is used. When this space VTF is used, the contrast sensitivity characteristic VTFs (u) with respect to the frequency u is given by the following equation (1).

Figure 2016170637
Figure 2016170637

ここで、Xoは視野角[degree]である。また、Lは輝度であり、輝度情報取得部602で取得した値である。
なお、上記の説明では、Bartenモデルにより導出された空間VTFを用いたが、本発明はこれに限定されない。例えば、被写体の輝度を変化させて取得したコントラスト感度特性をあらかじめ測定し、データとして記録しておき、それを参照してもよい。
視覚特性計算部603が計算した視覚特性は、視覚類似度計算部504(図5)に入力される。
Here, X o is a viewing angle [degree]. L is the luminance, which is a value acquired by the luminance information acquisition unit 602.
In the above description, the space VTF derived by the Barten model is used, but the present invention is not limited to this. For example, the contrast sensitivity characteristic acquired by changing the luminance of the subject may be measured in advance, recorded as data, and referred to.
The visual characteristic calculated by the visual characteristic calculation unit 603 is input to the visual similarity calculation unit 504 (FIG. 5).

<視覚類似度計算部504の動作>
図5に示されるように、視覚特性決定部503aは、階調変換前の画像Iinを視覚類似度計算部504の第1入力端子801に入力すると共に、当該画像Iinについての視覚特性を、視覚類似度計算部504の第3入力端子803に入力する。また、視覚特性決定部503bは、階調変換後の画像Iconvを視覚類似度計算部504の第2入力端子802に入力すると共に、当該画像Iconvについての視覚特性を、視覚類似度計算部504の第4入力端子804入力する。以下、視覚類似度計算部504の構成および動作について、図8を参照して説明する。
<Operation of Visual Similarity Calculation Unit 504>
As shown in FIG. 5, the visual characteristic determination unit 503a inputs the image Iin before gradation conversion to the first input terminal 801 of the visual similarity calculation unit 504, and visually determines the visual characteristic of the image Iin. This is input to the third input terminal 803 of the similarity calculation unit 504. The visual characteristic determination unit 503b inputs the image Iconv after the gradation conversion to the second input terminal 802 of the visual similarity calculation unit 504, and the visual characteristic of the image Iconv is input to the visual similarity calculation unit 504. The fourth input terminal 804 is input. The configuration and operation of the visual similarity calculation unit 504 will be described below with reference to FIG.

図8に示されるように、視覚類似度計算部504は、4つの入力端子801、802、803、804と、撮像環境輝度変換部805と、表示環境輝度変換部806と、2つの周波数解析部807a、807bとを有する。視覚類似度計算部504は、さらに、2つの視覚特性適用部808a、808bと、差分計算部809と、出力端子810とを有する。視覚類似度計算部504は、視覚特性決定部503a、503bから入力された視覚特性をもとに、階調変換前の画像と階調変換後の画像との間で、知覚エッジ・テクスチャ量の差分を計算する。2つの周波数解析部807aと807bは同じ構成を有する。2つの視覚特性適用部808a、808bも同じ構成を有する。   As shown in FIG. 8, the visual similarity calculation unit 504 includes four input terminals 801, 802, 803, and 804, an imaging environment luminance conversion unit 805, a display environment luminance conversion unit 806, and two frequency analysis units. 807a and 807b. The visual similarity calculation unit 504 further includes two visual characteristic application units 808a and 808b, a difference calculation unit 809, and an output terminal 810. Based on the visual characteristics input from the visual characteristic determination units 503a and 503b, the visual similarity calculation unit 504 calculates the perceived edge / texture amount between the image before gradation conversion and the image after gradation conversion. Calculate the difference. The two frequency analysis units 807a and 807b have the same configuration. The two visual characteristic application units 808a and 808b have the same configuration.

階調変換前の画像Iinが、視覚類似度計算部504の第1入力端子801から撮像環境輝度変換部805へ入力される。画像Iinの視覚特性が、第3入力端子803から視覚特性適用部808aへ入力される。階調変換後の画像Iconvが第2入力端子802から表示環境輝度変換部806へ入力される。Iconvの視覚特性が、第4入力端子804から視覚特性適用部808bへ入力される。   The image Iin before gradation conversion is input from the first input terminal 801 of the visual similarity calculation unit 504 to the imaging environment luminance conversion unit 805. The visual characteristic of the image Iin is input from the third input terminal 803 to the visual characteristic application unit 808a. The image Iconv after the gradation conversion is input from the second input terminal 802 to the display environment luminance conversion unit 806. The visual characteristic of Iconv is input from the fourth input terminal 804 to the visual characteristic application unit 808b.

撮像環境輝度変換部805は、撮像条件に基づいて、画像Iinを撮像環境における輝度画像へ変換する。そして、撮像環境輝度変換部805は、当該輝度画像を周波数解析部807aに出力する。周波数解析部807aは、当該輝度画像を、周波数帯域ごとの画像に分割する。以下の記載では、当該分割した画像を「分割画像」と称する。周波数解析部807aは、当該分割画像を視覚特性適用部808aに出力する。視覚特性適用部808aは、第3入力端子803から入力された画像Iinの視覚特性を用いて、分割画像に閾値処理を施す。すなわち、視覚特性適用部808aは、分割画像に、画像Iin用の視覚特性を適用する(コントラスト特性を乗算する)。視覚特性適用部808aは、視覚特性が適用された画像を差分計算部809に入力する。周波数解析部807aから出力される分割画像は、入力画像(画像Iin)の周波数特性を含む画像である。   The imaging environment luminance conversion unit 805 converts the image Iin into a luminance image in the imaging environment based on the imaging conditions. Then, the imaging environment luminance conversion unit 805 outputs the luminance image to the frequency analysis unit 807a. The frequency analysis unit 807a divides the luminance image into images for each frequency band. In the following description, the divided image is referred to as “divided image”. The frequency analysis unit 807a outputs the divided image to the visual characteristic application unit 808a. The visual characteristic applying unit 808a performs threshold processing on the divided image using the visual characteristic of the image Iin input from the third input terminal 803. That is, the visual characteristic application unit 808a applies the visual characteristic for the image Iin to the divided image (multiplies the contrast characteristic). The visual characteristic application unit 808a inputs an image to which the visual characteristic is applied to the difference calculation unit 809. The divided image output from the frequency analysis unit 807a is an image including the frequency characteristics of the input image (image Iin).

表示環境輝度変換部806は、表示条件に基づいて、画像Iconvを表示環境における輝度画像へ変換する。そして、表示環境輝度変換部806は、当該輝度画像を周波数解析部807bに出力する。周波数解析部807bは、当該輝度画像を、分割画像に分割する。周波数解析部807bは、当該分割画像を視覚特性適用部808bに出力する。視覚特性適用部808bは、第4入力端子804から入力された画像Iconvの視覚特性を用いて、分割画像に閾値処理を施す。すなわち、視覚特性適用部808bは、分割画像に、画像Iconv用の視覚特性を適用する。視覚特性適用部808bは、視覚特性が適用された画像を差分計算部809に入力する。
差分計算部809は、視覚特性適用部808aから入力された画像と、視覚特性適用部808bから入力された画像との差分を計算する。つまり、差分計算部809は、階調変換前の画像と階調変換後の画像との間の、視覚的な見えの違いを表わす値(視覚エッジ・テクスチャ量の差分)を算出する。
The display environment luminance conversion unit 806 converts the image Iconv into a luminance image in the display environment based on the display conditions. Then, the display environment luminance conversion unit 806 outputs the luminance image to the frequency analysis unit 807b. The frequency analysis unit 807b divides the luminance image into divided images. The frequency analysis unit 807b outputs the divided image to the visual characteristic application unit 808b. The visual characteristic application unit 808b performs threshold processing on the divided image using the visual characteristic of the image Iconv input from the fourth input terminal 804. That is, the visual characteristic application unit 808b applies the visual characteristic for the image Iconv to the divided image. The visual characteristic application unit 808b inputs an image to which the visual characteristic is applied to the difference calculation unit 809.
The difference calculation unit 809 calculates the difference between the image input from the visual characteristic application unit 808a and the image input from the visual characteristic application unit 808b. That is, the difference calculation unit 809 calculates a value (visual edge / texture amount difference) representing a difference in visual appearance between the image before gradation conversion and the image after gradation conversion.

<撮像環境輝度変換部805の動作>
撮像環境輝度変換部805の処理について説明する。撮像環境輝度変換部805は、RGB画像である画像Iinを輝度画像へ変換する(輝度変換処理)。ここで得られる輝度画像は、被写体撮像時に人(例えば、デジタルカメラのユーザ)がどのように被写体を見ていたかを再現するものである。具体的には、以下の手順で輝度変換処理が行われる。
<Operation of Imaging Environment Brightness Conversion Unit 805>
Processing of the imaging environment luminance conversion unit 805 will be described. The imaging environment luminance conversion unit 805 converts the image Iin, which is an RGB image, into a luminance image (luminance conversion processing). The luminance image obtained here reproduces how a person (for example, a user of a digital camera) was looking at the subject when the subject was captured. Specifically, the luminance conversion process is performed according to the following procedure.

まず、入力画像Iinにデガンマ処理を行い、輝度リニア画像Iin’を得る。デガンマ処理は、例えばルックアップテーブル等を用いて行われる。
次に、輝度リニア画像Iin’を輝度画像へ変換する。この変換は、具体的には、以下の式(2)で示す処理で行われる。
First, degamma processing is performed on the input image Iin to obtain a luminance linear image Iin ′. The degamma process is performed using, for example, a lookup table.
Next, the luminance linear image Iin ′ is converted into a luminance image. Specifically, this conversion is performed by the processing shown by the following formula (2).

Figure 2016170637
Figure 2016170637

ここで、αはゲインを表す。当該ゲインαは、ISO感度、絞り、シャッタースピードの関係から定まる。例えば、すべてのISO感度、絞り、シャッタースピードの組み合わせに対して、前記ゲインαをあらかじめ算出しておいてもよい。IinR’、IinG’、IinB’は、それぞれ輝度リニア画像Iin’のRプレーン、Gプレーン、Bプレーンである。また、a、b、cは定数であり、例えば撮像(撮影)画像がsRGB空間の場合は、a=0.2126、b=0.7152、c=0.0722である。 Here, α represents a gain. The gain α is determined from the relationship between ISO sensitivity, aperture, and shutter speed. For example, the gain α may be calculated in advance for all combinations of ISO sensitivity, aperture, and shutter speed. I inR ′, I inG ′, and I inB ′ are the R plane, G plane, and B plane of the luminance linear image I in ′, respectively. Further, a, b, and c are constants. For example, when the captured (captured) image is an sRGB space, a = 0.2126, b = 0.7152, and c = 0.0722.

<表示環境輝度変換部806の動作>
表示環境輝度変換部806の処理について説明する。表示環境輝度変換部806は、RGB画像である画像Iconvを輝度画像へ変換する(輝度変換処理)。ここで得られる輝度画像は、画像の表示時に人(例えば、デジタルカメラのユーザ)がどのように被写体を見るかを再現するものである。具体的には、以下の手順で輝度変換処理が行われる。
まず、入力画像Iconvに表示部114のディスプレイのデガンマ処理を行い、輝度リニア画像Iconv’を得る。例えば、表示部114のディスプレイのガンマが2.2の場合、輝度リニア画像Iconv’は以下の式(3)により得られる。
<Operation of Display Environment Brightness Conversion Unit 806>
The processing of the display environment luminance conversion unit 806 will be described. The display environment luminance conversion unit 806 converts the image Iconv, which is an RGB image, into a luminance image (luminance conversion processing). The luminance image obtained here reproduces how a person (for example, a user of a digital camera) views the subject when the image is displayed. Specifically, the luminance conversion process is performed according to the following procedure.
First, the input image Iconv is subjected to de-gamma processing of the display of the display unit 114 to obtain a luminance linear image Iconv ′. For example, when the display gamma of the display unit 114 is 2.2, the luminance linear image Iconv ′ is obtained by the following equation (3).

Figure 2016170637
Figure 2016170637

次に、前記得られた輝度リニア画像Iconv’にゲインを掛けることで、輝度画像へ変換する。具体的には、以下の式(4)で示す処理で行われる。   Next, the obtained luminance linear image Iconv 'is multiplied by a gain to be converted into a luminance image. Specifically, the processing is performed by the following equation (4).

Figure 2016170637
Figure 2016170637

ここで、αはゲインを表す。ゲインαは、表示部114のディスプレイの最大表示輝度により決まる。また、IconvR’、IconvG’、IconvB’は、それぞれ輝度リニア画像Iconv’のRプレーン、Bプレーン、Gプレーンである。また、a、b、cは定数であり、例えば表示色空間がsRGBの場合は、a=0.2126、b=0.7152、c=0.0722である。 Here, α represents a gain. The gain α is determined by the maximum display brightness of the display unit 114. I convR ′, I convG ′, and I convB ′ are the R plane, B plane, and G plane of the luminance linear image Iconv ′, respectively. Further, a, b, and c are constants. For example, when the display color space is sRGB, a = 0.2126, b = 0.7152, and c = 0.0722.

<周波数解析部807aの動作>
次に、周波数解析部807aの動作を説明する。本実施形態では、輝度画像をフーリエ変換した後、帯域分割フィルタ関数を乗算し、逆フーリエ変換することで周波数帯域分割を行う。図9は、本実施形態の周波数帯域分割によって得られる6つの画像I1〜I6を示している。以下に、輝度画像のフーリエ変換と、帯域分割フィルタ関数の乗算と、逆フーリエ変換とについて説明する。
<Operation of Frequency Analysis Unit 807a>
Next, the operation of the frequency analysis unit 807a will be described. In the present embodiment, after the Fourier transform of the luminance image, the frequency band division is performed by multiplying by the band division filter function and performing the inverse Fourier transform. FIG. 9 shows six images I 1 to I 6 obtained by frequency band division according to this embodiment. Hereinafter, the Fourier transform of the luminance image, the multiplication of the band division filter function, and the inverse Fourier transform will be described.

まず、輝度画像を2次元フーリエ変換し、画像Ifft(u,v)を得る。2次元はx座標とy座標で規定される。uはx方向の周波数成分を示し、vはy方向の周波数成分を示す。
次に、画像Ifft(u,v)に対して、帯域分割フィルタ関数cortexk(u,v)を用いて帯域分割を施す。ここで、kは半径方向の帯域のインデックスである。帯域分割後の空間周波数情報I1_fft…I6_fftは、それぞれ式(5)で表現される。
First, the luminance image is two-dimensionally Fourier transformed to obtain an image Ifft (u, v). Two dimensions are defined by x and y coordinates. u represents a frequency component in the x direction, and v represents a frequency component in the y direction.
Next, band division is performed on the image Ifft (u, v) using the band division filter function cortex k (u, v). Here, k is an index of the band in the radial direction. Spatial frequency information I 1 _fft... I 6 _fft after band division is expressed by Expression (5), respectively.

Figure 2016170637
Figure 2016170637

ここで、k=1…6である。また、帯域分割フィルタ関数cortexk(u,v)は、次の式(6)および(7)ように定義する。 Here, k = 1... Further, the band division filter function cortex k (u, v) is defined as the following equations (6) and (7).

Figure 2016170637
Figure 2016170637

Figure 2016170637
cortex_polk,l(ρ,θ) はcortexk,l(u,v)を極座標で表現したものである。domk (ρ) の定義は式(8)の通りである。
Figure 2016170637
cortex_pol k, l (ρ, θ) is a representation of cortex k, l (u, v) in polar coordinates. The definition of dom k (ρ) is as shown in Equation (8).

Figure 2016170637
ここでmesa (ρ)および base (ρ)は式(9)および(10)で与えられる。
Figure 2016170637
Here, mesa (ρ) and base (ρ) are given by equations (9) and (10).

Figure 2016170637
Figure 2016170637

Figure 2016170637
であり、ρh、twおよびσは式(11)に示されるとおりである。
Figure 2016170637
Ρ h, tw and σ are as shown in the equation (11).

Figure 2016170637
Figure 2016170637

図10は、domk(ρ)の模式図を示す。横軸は正規化周波数(cycle/pixel)、縦軸は応答である。
得られたIk_fft(u,v)を逆フーリエ変換することで、6つの画像I1〜I6を取得する。
なお、本実施形態ではフーリエ変換を用い、周波数領域上で周波数帯域分割を行ったが、本発明はこれに限定されない。たとえば、上述の特性を持ったデジタルフィルタを用いて、直接フィルタ処理を行うことで周波数帯域分割を行ってもよい。また、ウェーブレット変換(ウェーブレット関数)を用いて周波数帯域分割を行ってもよい。ウェーブレット変換を用いると、フーリエ変換によって周波数特性を求める際に失われる時間領域の情報を、残すことできる場合がある。
周波数解析部807bの構成は周波数解析部807aと同じであるので、周波数解析部807aの説明は省略する。
FIG. 10 shows a schematic diagram of dom k (ρ). The horizontal axis is normalized frequency (cycle / pixel), and the vertical axis is response.
The resulting I k _fft (u, v) by inverse Fourier transform, to obtain six images I 1 ~I 6.
In this embodiment, Fourier transform is used to perform frequency band division on the frequency domain, but the present invention is not limited to this. For example, frequency band division may be performed by performing direct filtering using a digital filter having the above-described characteristics. Further, frequency band division may be performed using wavelet transform (wavelet function). When the wavelet transform is used, there may be a case where time domain information lost when the frequency characteristic is obtained by the Fourier transform can be left.
Since the configuration of the frequency analysis unit 807b is the same as that of the frequency analysis unit 807a, the description of the frequency analysis unit 807a is omitted.

<視覚特性適用部808a>
以下では、視覚特性適用部808aの処理について詳述する。
まず、6つの画像I1〜I6それぞれに対して、コントラスト閾値を決定する。具体的には、前記視覚特性決定部503aにて決定された視覚特性VTFと、画像I1〜I6とから、コントラスト閾値を決定する。図11は、画像I1のコントラスト閾値th1および画像I6のコントラスト閾値th2の算出の概念図である。具体的には、6つの画像I1〜I6の6つのコントラスト閾値thk(k=1…6)は、以下の式(12)により求められる。
<Visual characteristics application unit 808a>
Hereinafter, the processing of the visual characteristic application unit 808a will be described in detail.
First, a contrast threshold is determined for each of the six images I 1 to I 6 . Specifically, the contrast threshold value is determined from the visual characteristic VTF determined by the visual characteristic determination unit 503a and the images I 1 to I 6 . Figure 11 is a conceptual diagram of the calculation of the contrast threshold th 2 contrast threshold th 1 and the image I 6 of the image I 1. Specifically, six contrast thresholds th k (k = 1... 6) of the six images I 1 to I 6 are obtained by the following equation (12).

Figure 2016170637
Figure 2016170637

次に、コントラスト閾値thk(k=1…6)を用いて、画像I1〜I6の周波数帯域に閾値処理を施し、Ithk(k=1…6)を算出する。具体的には、以下の式(13)で算出される。 Next, using the contrast threshold th k (k = 1... 6), threshold processing is performed on the frequency bands of the images I 1 to I 6 to calculate I thk (k = 1... 6). Specifically, it is calculated by the following equation (13).

Figure 2016170637
Figure 2016170637

さらに、前記算出したIthk(k=1…6)を統合し、画像Ith(x,y)を算出する。具体的には、画像Ith(x,y)は以下の式(14)で算出される。この画像Ith(x,y)が画像Iinの知覚エッジ・テクスチャ量を示す。 Further, the calculated I thk (k = 1... 6) is integrated to calculate an image Ith (x, y). Specifically, the image Ith (x, y) is calculated by the following equation (14). This image Ith (x, y) indicates the perceived edge / texture amount of the image Iin.

Figure 2016170637
Figure 2016170637

視覚特性適用部808bは視覚特性適用部808aと同様な処理を画像Iconvに行い、画像Iconvの知覚エッジ・テクスチャ量を算出する。
以下の説明では、入力画像Iinに対する視覚特性適用部808aの出力をIin_thと表記し、階調変換画像Iconvに対する視覚特性適用部808bの出力をIconv_thと表記する。Iin_thが撮像時の環境における画像の知覚エッジ・テクスチャ量であり、Iconv_thが表示時の環境における画像の知覚エッジ・テクスチャ量である。
The visual characteristic application unit 808b performs the same processing as the visual characteristic application unit 808a on the image Iconv, and calculates the perceived edge / texture amount of the image Iconv.
In the following description, the output of the visual characteristic application unit 808a for the input image Iin is expressed as Iin_th, and the output of the visual characteristic application unit 808b for the gradation converted image Iconv is expressed as Iconv_th. Iin_th is the perceived edge / texture amount of the image in the environment at the time of imaging, and Iconv_th is the perceived edge / texture amount of the image in the environment at the time of display.

<差分計算部809の動作>
次に、差分計算部809の動作について説明する。類似度計算部508は、入力画像Iinの知覚エッジ・テクスチャ量と、階調変換画像Iconvの知覚エッジ・テクスチャ量との差分を計算する。これにより、撮像時の環境では知覚できていたエッジおよびテクスチャが、階調変換後の表示環境においてどれだけ知覚できなくなったかを数値で表すこと(数値評価)ができる。
具体的には、類似度cは、視覚特性適用部808aの出力Iin_thと、視覚特性適用部808bの出力Iconv_thとから、以下の式(15)により求められる。本実施形態はIin_thとIconv_thの絶対差の総和により類似度を算出する。
<Operation of Difference Calculation Unit 809>
Next, the operation of the difference calculation unit 809 will be described. The similarity calculation unit 508 calculates a difference between the perceived edge / texture amount of the input image Iin and the perceived edge / texture amount of the gradation-converted image Iconv. Thereby, it is possible to express numerically how much the edge and texture that can be perceived in the environment at the time of imaging cannot be perceived in the display environment after gradation conversion.
Specifically, the similarity c is obtained by the following equation (15) from the output Iin_th of the visual characteristic application unit 808a and the output Iconv_th of the visual characteristic application unit 808b. In the present embodiment, the similarity is calculated based on the sum of absolute differences between Iin_th and Iconv_th.

Figure 2016170637
Figure 2016170637

なお、本実施形態は知覚エッジ・テクスチャ量Iin_thとIconv_thの絶対差の総和により類似度を計算したが、本発明はこれに限定されない。例えば、両者に対して相関係数やSSIM (Structural Similarity)を計算してもよい。
上記したように、類似度算出部204(図2)には、複数のパラメータ候補で階調変換された複数の画像Iconvが入力されるので、類似度算出部204の視覚類似度計算部504は上記した類似度計算を当該複数の画像Iconvの各々に対して実行する。つまり、視覚類似度計算部504の差分計算部809は、複数の類似度を算出する。そして、差分計算部809は、当該算出された複数の類似度のうち最も高い類似度を有するIconvに関する情報(階調変換用のパラメータとして最適なパラメータの情報)を、出力端子810を介して階調変換処理部203(図2)に出力する。階調変換処理部203は当該情報に基づいて、階調変換処理実行部202から入力された複数の画像Iconvの中から、最も類似度の高い画像Iconvを出力端子205を介して表示部114(図1)に出力する。
In the present embodiment, the similarity is calculated based on the sum of absolute differences between the perceived edge / texture amounts Iin_th and Iconv_th, but the present invention is not limited to this. For example, a correlation coefficient or SSIM (Structural Similarity) may be calculated for both.
As described above, the similarity calculation unit 204 (FIG. 2) receives a plurality of images Iconv subjected to gradation conversion with a plurality of parameter candidates, so that the visual similarity calculation unit 504 of the similarity calculation unit 204 The similarity calculation described above is executed for each of the plurality of images Iconv. That is, the difference calculation unit 809 of the visual similarity calculation unit 504 calculates a plurality of similarities. Then, the difference calculation unit 809 obtains information related to Iconv having the highest similarity among the calculated plurality of similarities (information on the optimum parameter as a parameter for gradation conversion) via the output terminal 810. Output to the key conversion processing unit 203 (FIG. 2). Based on this information, the gradation conversion processing unit 203 displays the image Iconv having the highest similarity among the plurality of images Iconv input from the gradation conversion processing execution unit 202 via the output terminal 205 ( 1).

本実施形態によれば、撮像時の環境における知覚エッジ・テクスチャ量(高階調画像の知覚エッジ・テクスチャ量)と、表示時の環境における知覚エッジ・テクスチャ量(階調変換後の低階調画像の知覚エッジ・テクスチャ量)との差分から類似度を算出する。そして、前記類似度が最大の階調変換を選択することで、最適な階調変換画像を表示部114のディスプレイに表示することができる。
なお、適切な階調変換が行われているかの検証は、例えば、次のようにして行う。まず、表示部114のディスプレイ輝度を所定値にして入力画像を階調変換して表示部114のディスプレイに表示する。その後、ディスプレイの輝度を変化させて、入力画像を階調変換し、表示部114のディスプレイに表示する。輝度の変化の前後で表示部114のディスプレイに表示される画像に変化がなければ、適切な階調変換が行われていると言える。
According to the present embodiment, the perceived edge / texture amount in the environment at the time of imaging (perceived edge / texture amount of the high gradation image) and the perceived edge / texture amount in the environment at the time of display (low gradation image after gradation conversion) The degree of similarity is calculated from the difference from the perceived edge / texture amount. Then, by selecting the gradation conversion having the maximum degree of similarity, the optimum gradation conversion image can be displayed on the display of the display unit 114.
In addition, verification whether appropriate gradation conversion is performed is performed as follows, for example. First, the display luminance of the display unit 114 is set to a predetermined value, and the input image is subjected to gradation conversion and displayed on the display of the display unit 114. Thereafter, the luminance of the display is changed, the input image is subjected to gradation conversion, and displayed on the display of the display unit 114. If there is no change in the image displayed on the display unit 114 before and after the change in luminance, it can be said that appropriate gradation conversion has been performed.

(実施形態2)
実施形態1の視覚類似度計算部504は、周波数帯域ごとに画像を分割して、分割画像を生成し、周波数帯域ごとに異なる閾値を掛ける(閾値処理を施す)ことで、知覚エッジ・テクスチャ量を算出していた。しかしながら、周波数帯域ごとに画像を分割し、閾値処理を施すと、計算量が大きくなる。そこで実施形態2では、視覚類似度計算部504の処理を簡略化し、計算量を削減する例を説明する。具体的には、画像に対してフーリエ変換等の周波数解析を行い、視覚特性関数を乗算することにより、知覚エッジ・テクスチャ量を算出する。以下の記載では、おもに実施形態1との相違点を説明する。実施形態1との相違点は、視覚特性決定部503a、503bと、周波数解析部807a、807bと、視覚特性適用部808a、808bの処理内容である。なお、視覚特性決定部503a、503bと、視覚類似度計算部504の構成は実施形態1と同じであるので、図6および図8を参照して実施形態2を説明する。
(Embodiment 2)
The visual similarity calculation unit 504 according to the first embodiment divides an image for each frequency band, generates a divided image, and applies a different threshold value for each frequency band (performs threshold processing), thereby perceiving edge and texture amount. Was calculated. However, if an image is divided for each frequency band and threshold processing is performed, the amount of calculation increases. Therefore, in the second embodiment, an example will be described in which the processing of the visual similarity calculation unit 504 is simplified and the calculation amount is reduced. More specifically, the perceptual edge / texture amount is calculated by performing frequency analysis such as Fourier transform on the image and multiplying by the visual characteristic function. In the following description, differences from the first embodiment will be mainly described. The difference from the first embodiment is the processing contents of the visual characteristic determination units 503a and 503b, the frequency analysis units 807a and 807b, and the visual characteristic application units 808a and 808b. Since the configurations of the visual characteristic determination units 503a and 503b and the visual similarity calculation unit 504 are the same as those in the first embodiment, the second embodiment will be described with reference to FIGS.

<周波数解析部807aの動作>
まず図8を参照する。視覚類似度計算部504の第1入力端子801には、画像Iinが入力される。第3入力端子803には、視覚特性決定部503aが計算したコントラスト感度特性が入力される。第2入力端子802には、画像Iconvが入力される。第4入力端子804には、視覚特性決定部503bが計算したコントラスト感度特性が入力される。第1入力端子801に入力された画像Iinは撮像環境輝度変換部805により輝度画像に変換される。第2入力端子802に入力された画像Iconvは表示環境輝度変換部806により、輝度画像に変換される。ここまでは実施形態1と同じである。
<Operation of Frequency Analysis Unit 807a>
Reference is first made to FIG. The image Iin is input to the first input terminal 801 of the visual similarity calculation unit 504. The contrast sensitivity characteristic calculated by the visual characteristic determination unit 503a is input to the third input terminal 803. The image Iconv is input to the second input terminal 802. The contrast sensitivity characteristic calculated by the visual characteristic determination unit 503b is input to the fourth input terminal 804. The image Iin input to the first input terminal 801 is converted into a luminance image by the imaging environment luminance conversion unit 805. The image Iconv input to the second input terminal 802 is converted into a luminance image by the display environment luminance conversion unit 806. The steps so far are the same as those in the first embodiment.

実施形態2では、周波数解析部807aが輝度画像をフーリエ変換することで、輝度画像の周波数解析を行う。実施形態1と比較すると、実施形態2では、帯域分割フィルタの作成および乗算処理、逆フーリエ変換処理が発生しない。よって、実施形態2は、計算量を大幅に削減できる。以下では、実施形態2の処理により得られる周波数解析画像をIfft(u,v)と表す。ここで、uは横方向(x方向)の周波数成分、vは縦方向(y方向)の周波数成分を表わす。周波数解析部807bは、同様な処理を、表示環境輝度変換部806からの出力に対して行う。   In the second embodiment, the frequency analysis unit 807a performs frequency analysis of the luminance image by Fourier transforming the luminance image. Compared with the first embodiment, the second embodiment does not generate the band division filter, the multiplication process, and the inverse Fourier transform process. Therefore, Embodiment 2 can greatly reduce the amount of calculation. Hereinafter, the frequency analysis image obtained by the processing of the second embodiment is represented as Ifft (u, v). Here, u represents a frequency component in the horizontal direction (x direction), and v represents a frequency component in the vertical direction (y direction). The frequency analysis unit 807b performs the same process on the output from the display environment luminance conversion unit 806.

<視覚特性決定部503aの動作>
次に図6を参照して、視覚特性決定部503aの処理について述べる。実施形態2では、実施形態1と異なり、視覚特性決定部503aは画像Iinに対して、2次元の視覚特性VTF(u,v)を決定する。実施形態1では1次元の視覚特性(コントラスト特性)を用いた。
以下では、Bartenのモデルにより導出された空間VTFを用いる。Bartenの空間VTFより、周波数成分u,vに対するコントラスト感度特性VTFs(u,v)は以下の式(16)で与えられる。
<Operation of the visual characteristic determination unit 503a>
Next, the processing of the visual characteristic determination unit 503a will be described with reference to FIG. In the second embodiment, unlike the first embodiment, the visual characteristic determination unit 503a determines a two-dimensional visual characteristic VTF (u, v) for the image Iin. In the first embodiment, one-dimensional visual characteristics (contrast characteristics) are used.
In the following, the space VTF derived by Barten's model is used. From Barten's space VTF, contrast sensitivity characteristics VTFs (u, v) for frequency components u and v are given by the following equation (16).

Figure 2016170637
Figure 2016170637

ここで、Xoは視野角[degree]である。また、Lは輝度であり、本実施形態では算出された輝度画像の平均輝度とする。視覚特性決定部503bは、画像Iconvに対して、視覚特性決定部503aと同様な処理を行う。
なお、上記の説明ではBartenのモデルにより導出された空間VTFを用いたが、本発明はこれに限定されない。例えば、被写体の輝度を変化させて取得したコントラスト感度特性をあらかじめ測定し、データとして記録しておき、それを参照してもよい。
Here, X o is a viewing angle [degree]. Further, L is the luminance, and in this embodiment, it is the average luminance of the calculated luminance image. The visual characteristic determination unit 503b performs the same processing as the visual characteristic determination unit 503a on the image Iconv.
In the above description, the space VTF derived by the Barten model is used, but the present invention is not limited to this. For example, the contrast sensitivity characteristic acquired by changing the luminance of the subject may be measured in advance, recorded as data, and referred to.

<視覚特性適用部808aの動作>
図8を参照して、視覚特性適用部808aの動作について述べる。本実施形態では、視覚特性適用部808aは、周波数解析部807aの出力Ifft(u,v)に対して、視覚特性決定部503aにより得られたvtf(u,v)を乗算する。さらに、その結果を逆フーリエ変換することで、視覚特性適用後の画像Ithを計算する。具体的には、以下の式(17)により視覚特性適用後の画像Ithが求められる。
<Operation of Visual Characteristic Application Unit 808a>
The operation of the visual characteristic application unit 808a will be described with reference to FIG. In the present embodiment, the visual characteristic application unit 808a multiplies the output Ifft (u, v) of the frequency analysis unit 807a by vtf (u, v) obtained by the visual characteristic determination unit 503a. Further, the result Ith is subjected to inverse Fourier transform to calculate an image Ith after application of visual characteristics. Specifically, the image Ith after applying the visual characteristic is obtained by the following equation (17).

Figure 2016170637
Figure 2016170637

ここで、ifftは逆フーリエ変換を表す。視覚特性適用部808aで生成した画像Ithは知覚エッジ・テクスチャ量であり、差分計算部809に入力される。視覚特性適用部808bは、視覚特性適用部808aと同様な処理を、周波数解析部807bの出力に対して行う。
よって、実施形態2によれば、視覚類似度計算部504における処理を簡略化することができる。
Here, ift represents an inverse Fourier transform. The image Ith generated by the visual characteristic application unit 808a is a perceptual edge / texture amount, and is input to the difference calculation unit 809. The visual characteristic application unit 808b performs the same processing as the visual characteristic application unit 808a on the output of the frequency analysis unit 807b.
Therefore, according to the second embodiment, the processing in the visual similarity calculation unit 504 can be simplified.

(他の実施形態)
実施形態1では、周波数域で乗算を行って帯域分割を行ったが、空間域での畳みこみ演算で帯域分割を行うことも可能である。また、ウェーブレットなど公知の帯域分割フィルタを適用し、図12に示すような周波数帯域に分割することも可能である。図12は、帯域分割フィルタによる周波数の帯域分割を、半値周波数で表した図である。
なお、デジタルカメラは、デジタルカメラスチルカメラでもデジタルビデオカメラでもよい。また、デジタルカメラは、撮像装置の一例である。本発明は、デジタルカメラだけでなく、携帯電話、タブレット端末、ゲーム機等にも適用できる。
(Other embodiments)
In the first embodiment, band division is performed by performing multiplication in the frequency domain, but it is also possible to perform band division by a convolution operation in the spatial domain. Further, it is possible to divide into frequency bands as shown in FIG. 12 by applying a known band division filter such as a wavelet. FIG. 12 is a diagram in which the frequency band division by the band division filter is represented by a half-value frequency.
The digital camera may be a digital camera still camera or a digital video camera. A digital camera is an example of an imaging device. The present invention can be applied not only to digital cameras but also to mobile phones, tablet terminals, game machines, and the like.

さらに、以下のようにソフトウェア(プログラム)を実行することも、本発明の範囲に含まれる。即ち、上記した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、当該システム或いは当該装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行することは、本発明に含まれる。   Furthermore, execution of software (program) as described below is also included in the scope of the present invention. That is, software (program) that realizes the functions of the above-described embodiment is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. This is included in the present invention.

101…撮像部、108…CPU、114…表示部、202…階調変換処理実行部、203…階調変換処理決定部、204…類似度算出部 DESCRIPTION OF SYMBOLS 101 ... Imaging part, 108 ... CPU, 114 ... Display part, 202 ... Gradation conversion process execution part, 203 ... Gradation conversion process determination part, 204 ... Similarity calculation part

Claims (14)

入力画像と、当該入力画像に所定の処理を施して得られる処理画像との間の類似度を、前記入力画像および前記処理画像のそれぞれの周波数特性およびコントラスト特性に基づいて算出する算出手段と、
算出した前記類似度に基づいて、前記入力画像の階調変換用のパラメータを決定する決定手段と、
決定された前記パラメータに基づいて、前記入力画像の階調変換を行う変換手段と、
を備えることを特徴とする画像処理装置。
Calculating means for calculating the similarity between the input image and a processed image obtained by performing predetermined processing on the input image based on the frequency characteristics and contrast characteristics of the input image and the processed image;
Determining means for determining a parameter for gradation conversion of the input image based on the calculated similarity;
Conversion means for performing gradation conversion of the input image based on the determined parameter;
An image processing apparatus comprising:
前記入力画像のコントラスト特性を決定する第一の特性決定手段と、
前記処理画像のコントラスト特性を決定する第二の特性決定手段と、
をさらに備えることを特徴とする請求項1記載の画像処理装置。
First characteristic determining means for determining contrast characteristics of the input image;
Second characteristic determining means for determining a contrast characteristic of the processed image;
The image processing apparatus according to claim 1, further comprising:
前記入力画像を撮像する際の輝度情報を取得する第一の取得手段と、
前記処理画像を表示する際の輝度情報を取得する第二の取得手段と、をさらに備え、
前記第一の特性決定手段は、前記撮像する際の輝度情報に基づき、前記入力画像のコントラスト特性を決定し、
前記第二の特性決定手段は、前記表示する際の輝度情報に基づき、前記処理画像のコントラスト特性を決定する、
ことを特徴とする請求項1または2記載の画像処理装置。
First acquisition means for acquiring luminance information when capturing the input image;
A second acquisition means for acquiring luminance information when displaying the processed image,
The first characteristic determining means determines a contrast characteristic of the input image based on luminance information at the time of imaging,
The second characteristic determining means determines a contrast characteristic of the processed image based on luminance information at the time of display.
The image processing apparatus according to claim 1, wherein
前記入力画像から、撮像する際の輝度情報を表す第一の輝度画像を作成する第一の輝度画像生成手段と、
前記第一の輝度画像の周波数解析を行う第一の解析手段と、
前記第一の解析手段から得られる第一の解析結果に、前記入力画像のコントラスト特性を反映させることにより、第一の画像を生成する第一の画像生成手段と、
前記処理画像から、表示する際の輝度情報を表す第二の輝度画像を作成する第二の輝度画像生成手段と、
前記第二の輝度画像の周波数解析を行う第二の解析手段と、
前記第二の解析手段から得られる第二の解析結果に、前記処理画像のコントラスト特性を反映させることにより、第二の画像を生成する第二の画像生成手段と、をさらに備え、
前記算出手段は、前記第一の画像と前記第二の画像との差分を計算することにより、前記類似度を算出するることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
First luminance image generation means for generating a first luminance image representing luminance information at the time of imaging from the input image;
First analysis means for performing frequency analysis of the first luminance image;
First image generation means for generating a first image by reflecting the contrast characteristics of the input image in the first analysis result obtained from the first analysis means;
Second luminance image generation means for generating a second luminance image representing luminance information at the time of display from the processed image;
Second analysis means for performing frequency analysis of the second luminance image;
A second image generation means for generating a second image by reflecting the contrast characteristics of the processed image in the second analysis result obtained from the second analysis means;
4. The calculation unit according to claim 1, wherein the calculation unit calculates the similarity by calculating a difference between the first image and the second image. 5. Image processing device.
前記入力画像の周波数特性は、前記第一の解析結果に含まれ、前記処理画像の周波数特性は、前記第二の解析結果に含まれることを特徴とする請求項4記載の画像処理装置。   The image processing apparatus according to claim 4, wherein a frequency characteristic of the input image is included in the first analysis result, and a frequency characteristic of the processed image is included in the second analysis result. 前記第一の画像生成手段は、前記第一の解析結果に対して、前記入力画像のコントラスト特性に基づく第一の閾値処理を施し、前記第二の画像生成手段は、前記第二の解析結果に対して、前記処理画像のコントラスト特性に基づく第二の閾値処理を施すことを特徴とする請求項4または5に記載の画像処理装置。   The first image generation means performs a first threshold value processing based on a contrast characteristic of the input image on the first analysis result, and the second image generation means performs the second analysis result. The image processing apparatus according to claim 4, wherein second threshold processing based on a contrast characteristic of the processed image is performed on the image processing apparatus. 前記第一の画像生成手段は、前記第一の解析結果に対して、前記入力画像のコントラスト特性を乗算し、前記第二の画像生成手段は、前記第二の解析結果に対して、前記処理画像のコントラスト特性を乗算することを特徴とする請求項4または5に記載の画像処理装置。   The first image generation unit multiplies the first analysis result by a contrast characteristic of the input image, and the second image generation unit performs the process on the second analysis result. 6. The image processing apparatus according to claim 4, wherein the contrast characteristic of the image is multiplied. 前記入力画像は、前記処理画像より高階調の画像であることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the input image is an image having a higher gradation than the processed image. 前記コントラスト特性は、1次元または2次元のコントラスト特性であることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the contrast characteristic is a one-dimensional or two-dimensional contrast characteristic. 前記入力画像は、HDR(ハイダイナミックレンジ)で撮像された画像であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the input image is an image captured in an HDR (High Dynamic Range). 前記第一の画像と前記第二の画像との差分は、画像の低階調領域では小さいことを特徴とする請求項4乃至10のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein a difference between the first image and the second image is small in a low gradation region of the image. 入力画像と、当該入力画像に所定の処理を施して得られる処理画像との間の類似度を、前記入力画像および前記処理画像のそれぞれの周波数特性およびコントラスト特性に基づいて算出するステップと、
算出した前記類似度に基づいて、前記入力画像の階調変換用のパラメータを決定するステップと、
決定された前記パラメータに基づいて、前記入力画像の階調変換を行うステップと、
を有することを特徴とする画像処理方法。
Calculating a similarity between the input image and a processed image obtained by performing a predetermined process on the input image based on frequency characteristics and contrast characteristics of the input image and the processed image,
Determining a parameter for gradation conversion of the input image based on the calculated similarity;
Performing gradation conversion of the input image based on the determined parameter;
An image processing method comprising:
請求項1乃至11のいずれか1項に記載された画像処理装置と、
前記画像処理装置の入力画像を撮像する撮像手段と、
前記画像処理装置により階調変換された画像を表示する表示手段と、
前記撮像部および前記表示部を制御する制御手段と、
を備えることを特徴とする撮像装置。
An image processing device according to any one of claims 1 to 11,
Imaging means for imaging an input image of the image processing device;
Display means for displaying an image subjected to gradation conversion by the image processing device;
Control means for controlling the imaging unit and the display unit;
An imaging apparatus comprising:
コンピュータが読み取り実行することで、前記コンピュータを、請求項1乃至11のいずれか1項に記載された画像処理装置の各部として機能させるためのプログラム。   The program for functioning the said computer as each part of the image processing apparatus as described in any one of Claims 1 thru | or 11 when a computer reads and executes.
JP2015050095A 2015-03-12 2015-03-12 Image processing device and image processing method Pending JP2016170637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015050095A JP2016170637A (en) 2015-03-12 2015-03-12 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050095A JP2016170637A (en) 2015-03-12 2015-03-12 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2016170637A true JP2016170637A (en) 2016-09-23

Family

ID=56983856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050095A Pending JP2016170637A (en) 2015-03-12 2015-03-12 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2016170637A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018061233A (en) * 2016-10-04 2018-04-12 キヤノン株式会社 Image processing system, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018061233A (en) * 2016-10-04 2018-04-12 キヤノン株式会社 Image processing system, image processing method, and program

Similar Documents

Publication Publication Date Title
JP5100565B2 (en) Image processing apparatus and image processing method
US8965120B2 (en) Image processing apparatus and method of controlling the same
TWI416940B (en) Image processing apparatus and image processing program
JP5781372B2 (en) Image processing apparatus and imaging apparatus
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
JP6720881B2 (en) Image processing apparatus and image processing method
JP6611576B2 (en) Image processing apparatus and image processing method
JP2014086956A (en) Image processing apparatus and image processing method
US8942477B2 (en) Image processing apparatus, image processing method, and program
JP7277158B2 (en) Setting device and method, program, storage medium
CN106575434B (en) Image processing apparatus, imaging apparatus, and image processing method
JP7297406B2 (en) Control device, imaging device, control method and program
JP6243629B2 (en) Image processing apparatus and method, and imaging apparatus
KR20180138530A (en) Detection apparatus, image processing apparatus, detection method, and image processing method
US11069031B2 (en) Image processing apparatus, control method for image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium to control reflected color components of input image
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP2020145553A (en) Image processing apparatus, image processing method and program
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
JP2016170637A (en) Image processing device and image processing method
JP2015211320A (en) Image processing apparatus, control method thereof and program
JP5225491B2 (en) Image processing apparatus and image processing method
JP2012044560A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2010183461A (en) Image capturing apparatus and method of controlling the same
JP2020123138A (en) Image processing system, image processing method, program, and storage medium