JP2017208719A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2017208719A
JP2017208719A JP2016100063A JP2016100063A JP2017208719A JP 2017208719 A JP2017208719 A JP 2017208719A JP 2016100063 A JP2016100063 A JP 2016100063A JP 2016100063 A JP2016100063 A JP 2016100063A JP 2017208719 A JP2017208719 A JP 2017208719A
Authority
JP
Japan
Prior art keywords
data
image data
processing
value
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016100063A
Other languages
Japanese (ja)
Inventor
勝之 小野澤
Katsuyuki Onozawa
勝之 小野澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016100063A priority Critical patent/JP2017208719A/en
Publication of JP2017208719A publication Critical patent/JP2017208719A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of obtaining desired image data, as the image data corresponding to HDR image data after being subjected to image processing, by a simple configuration with high accuracy.SOLUTION: An image processing apparatus has acquisition means for acquiring first image data, and difference data between the first image data and second image data having a larger data size than that of the first image data, processing means performing data processing by using the first image data, correction means for correcting the difference data based on the data processing, and generation means for generating third image data from the first image data after the data processing is performed, and the difference data after being corrected.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

近年、ビット数が非常に多い画像データを扱う機会が増している。このような画像データは、「HDR(High Dynamic Range)画像データ」などと呼ばれ、非常に高い輝度を扱うことができる。HDR画像データの記録・復元方法として、以下の方法が提案されている。まず、HDR画像データが、HDR画像データよりもデータサイズが小さいベース画像データ、及び、HDR画像データとベース画像データとの差分に関する差分データに分離されて圧縮される。そして、ベース画像データの拡張情報として差分データがベース画像データに関連付けられ、ベース画像データと差分データの組み合わせが記録される。また、差分データとベース画像データを合成することにより、HDR画像データが復元される。   In recent years, opportunities to handle image data having a very large number of bits have increased. Such image data is called “HDR (High Dynamic Range) image data” or the like, and can handle very high luminance. The following methods have been proposed as HDR image data recording / restoring methods. First, the HDR image data is separated and compressed into base image data having a data size smaller than that of the HDR image data and difference data relating to a difference between the HDR image data and the base image data. Then, difference data is associated with the base image data as extended information of the base image data, and a combination of the base image data and the difference data is recorded. Further, the HDR image data is restored by combining the difference data and the base image data.

HDR画像データ、ベース画像データ、及び、差分データの一例を説明する。例えば、HDR画像データの各階調値は32ビットの値であり、ベース画像データの各階調値はHDR画像データの階調値(32ビット)のコア部分に対応する8ビットの値である。そして、差分データは、HDR画像データの階調値の残りの部分(コア部分以外の部分;9番目以降のビット)を復元するためのデータである。差分データとして、例えば、各画素についてHDR画像データの輝度とベース画像データの輝度との比率を示す輝度比率データ、各画素についてHDR画像データの色差とベース画像データの色差との差分を示す色差差分データ、等が使用される。   An example of HDR image data, base image data, and difference data will be described. For example, each gradation value of the HDR image data is a 32-bit value, and each gradation value of the base image data is an 8-bit value corresponding to the core part of the gradation value (32 bits) of the HDR image data. The difference data is data for restoring the remaining part of the gradation value of the HDR image data (part other than the core part; the ninth and subsequent bits). As the difference data, for example, luminance ratio data indicating the ratio between the luminance of the HDR image data and the luminance of the base image data for each pixel, and the color difference difference indicating the difference between the color difference of the HDR image data and the color difference of the base image data for each pixel Data, etc. are used.

JPEG画像データであるベース画像データと、差分データとの組み合わせを用いたデータフォーマットは、「JPEG−HDR」などと呼ばれる。JPEG−HDRのデータは、従来のJPEG画像データ(各階調値が8ビットの値であるJPEG画像データ)として使用することもできるし、HDR画像データを復元するためのデータとして使用することもできる。   A data format using a combination of base image data that is JPEG image data and difference data is called “JPEG-HDR” or the like. The JPEG-HDR data can be used as conventional JPEG image data (JPEG image data in which each gradation value is an 8-bit value), or can be used as data for restoring the HDR image data. .

JPEG−HDRのデータの表示方法に関する従来技術は、例えば、特許文献1,2に開示されている。図8(A)は、特許文献1に開示の方法の一例を示し、図8(B)は、特許文献2に開示の方法の一例を示す。図8(A),8(B)は、10ビットの階調値に対応する表示部が使用される例を示す。   Conventional techniques relating to a JPEG-HDR data display method are disclosed in, for example, Patent Documents 1 and 2. 8A shows an example of the method disclosed in Patent Document 1, and FIG. 8B shows an example of the method disclosed in Patent Document 2. 8A and 8B show an example in which a display unit corresponding to a 10-bit gradation value is used.

図8(A),8(B)に示すように、特許文献1,2に開示の方法では、ベース画像データ、輝度比率データ、及び、色差差分データから、各階調値が32ビットの値であるHDR画像データが生成される。図8(A)に示すように、特許文献1に開示の方法では、HDR画像データに画像処理が施され、画像処理により得られた画像データに対して、各階調値を10ビットの値へ変換するトーンマッピングが施される。そして、トーンマッピングにより得られた画像データが表示部へ入力されて表示される。一方、図8(B)に示すように、特許文献2に開示の方法では、HDR画像データにトーンマッピングが施され、トーンマッピングにより得られた画像データに画像処理が施される。そして、画像処理により得られた画像データが表示部へ入力されて表示される。   As shown in FIGS. 8A and 8B, in the methods disclosed in Patent Documents 1 and 2, each gradation value is a 32-bit value from base image data, luminance ratio data, and color difference difference data. Some HDR image data is generated. As shown in FIG. 8A, in the method disclosed in Patent Document 1, HDR image data is subjected to image processing, and each gradation value is converted to a 10-bit value for the image data obtained by the image processing. Tone mapping to be converted is applied. Then, the image data obtained by tone mapping is input to the display unit and displayed. On the other hand, as shown in FIG. 8B, in the method disclosed in Patent Document 2, tone mapping is performed on HDR image data, and image processing is performed on image data obtained by tone mapping. Then, the image data obtained by the image processing is input to the display unit and displayed.

特開2012−44639号公報JP 2012-44639 A 特開2011−250260号公報JP 2011-250260 A

しかしながら、上述した従来技術を用いた場合には、以下の課題が生じる。特許文献1に開示の方法(図8(A))では、HDR画像データに対して画像処理が施される。そのため、特許文献1に開示の方法を用いることにより、画像処理で扱われる階調値のビット数が増大し、画像処理の処理負荷、画像処理の回路規模、等が増大する。特許文献2に開示の方法(図8(B))では、トーンマッピングにより得られた画像データに対して画像処理が施されるため、トーンマッピングの変換特性(変換前の階調値と変換後の階調値との対応関係)の変化によって、画像処理の結果が変化する。そのため、特許文献2に開示の方法を用いた場合には、画像処理の結果として所望の結果(所望の画像データ)が得られないことがある。特許文献2に開示の方法を用いた場合において、画像処理の結果として所望の結果を得るためには、画像処理の結果を予測しながらトーンマッピングを行われなければならない。しかしながら、画像処理の結果を予測する処理は、処理負荷の増大、回路規模の増大、等をまねく。   However, when the above-described conventional technology is used, the following problems occur. In the method disclosed in Patent Document 1 (FIG. 8A), image processing is performed on HDR image data. Therefore, by using the method disclosed in Patent Document 1, the number of gradation value bits handled in image processing increases, and the processing load of image processing, the circuit scale of image processing, and the like increase. In the method disclosed in Patent Document 2 (FIG. 8B), since image processing is performed on image data obtained by tone mapping, conversion characteristics of tone mapping (tone values before conversion and post-conversion gradation values) The result of the image processing changes depending on the change in the correspondence relationship with the gradation value. Therefore, when the method disclosed in Patent Document 2 is used, a desired result (desired image data) may not be obtained as a result of image processing. In the case of using the method disclosed in Patent Document 2, in order to obtain a desired result as the result of image processing, tone mapping must be performed while predicting the result of image processing. However, the process of predicting the result of image processing results in an increase in processing load, an increase in circuit scale, and the like.

JPEG−HDRのデータの表示方法として、図9に示す方法も考えられる。図9の方法では、ベース画像データに画像処理が施され、画像処理により得られた画像データと、未処理の差分データ(未処理の輝度比率データ、及び、未処理の色差差分データ)とから、HDR画像データが生成される。そして、HDR画像データにトーンマッピングが施され、トーンマッピングにより得られた画像データが表示部へ入力されて表示される。   As a JPEG-HDR data display method, the method shown in FIG. 9 is also conceivable. In the method of FIG. 9, image processing is performed on base image data, and image data obtained by image processing and unprocessed difference data (unprocessed luminance ratio data and unprocessed color difference difference data) are used. HDR image data is generated. Then, tone mapping is performed on the HDR image data, and the image data obtained by the tone mapping is input to the display unit and displayed.

しかしながら、画像処理が施された後のベース画像データと、未処理の差分データとから得られるHDR画像データが、元画像データであるHDR画像データに当該画像処理を施して得られる画像データに一致するとは限らない。例えば、それら2つのHDR画像データの間において、輝度の差、色の差、等が生じることがある。そのため、図9の方法では、HDR画像データとして所望の画像データが得られないことがある。なお、「元画像データであるHDR画像データ」は「画像処理が施される前のベース画像データと、未処理の差分データとを得るために使用されたHDR画像データ」である。「元画像データであるHDR画像データ」は「画像処理が施される前のベース画像データと、未処理の差分データとから得られるHDR画像データ」とも言える。   However, the HDR image data obtained from the base image data after the image processing and the unprocessed difference data match the image data obtained by performing the image processing on the HDR image data which is the original image data. Not always. For example, a difference in luminance, a difference in color, or the like may occur between the two HDR image data. Therefore, in the method of FIG. 9, desired image data may not be obtained as HDR image data. The “HDR image data as original image data” is “HDR image data used to obtain base image data before image processing and unprocessed difference data”. “HDR image data as original image data” can also be said to be “HDR image data obtained from base image data before image processing and unprocessed difference data”.

本発明は、画像処理が施された後のHDR画像データに対応する画像データとして、所望の画像データを、簡易な構成で且つ高精度に得ることができる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of obtaining desired image data with high accuracy and simple configuration as image data corresponding to HDR image data after image processing.

本発明の第1の態様は、
第1画像データ、及び、前記第1画像データと、前記第1画像データよりもデータサイズが大きい第2画像データとの差分に関する差分データを取得する取得手段と、
前記第1画像データを用いてデータ処理を行う処理手段と、
前記データ処理に基づいて前記差分データを補正する補正手段と、
前記データ処理が行われた後の第1画像データと、補正された後の差分データとから、第3画像データを生成する生成手段と、
を有することを特徴とする画像処理装置である。
The first aspect of the present invention is:
Acquisition means for acquiring first image data and difference data relating to a difference between the first image data and second image data having a data size larger than the first image data;
Processing means for performing data processing using the first image data;
Correction means for correcting the difference data based on the data processing;
Generating means for generating third image data from the first image data after the data processing and the corrected difference data;
An image processing apparatus comprising:

本発明の第2の態様は、
第1画像データ、及び、前記第1画像データと、前記第1画像データよりもデータサイズが大きい第2画像データとの差分に関する差分データを取得するステップと、
前記第1画像データを用いてデータ処理を行うステップと、
前記データ処理に基づいて前記差分データを補正するステップと、
前記データ処理が行われた後の第1画像データと、補正された後の差分データとから、第3画像データを生成するステップと、
を有することを特徴とする画像処理方法である。
The second aspect of the present invention is:
Obtaining difference data relating to a difference between the first image data and the first image data and second image data having a data size larger than the first image data;
Performing data processing using the first image data;
Correcting the difference data based on the data processing;
Generating third image data from the first image data after the data processing is performed and the corrected difference data;
An image processing method characterized by comprising:

本発明の第3の態様は、上述した画像処理方法の各ステップをコンピュータに実行させるためのプログラムである。   A third aspect of the present invention is a program for causing a computer to execute each step of the above-described image processing method.

本発明によれば、画像処理が施された後のHDR画像データに対応する画像データとして、所望の画像データを、簡易な構成で且つ高精度に得ることができる。   According to the present invention, desired image data can be obtained with high accuracy and simple configuration as image data corresponding to HDR image data after image processing.

実施例1に係る表示装置の構成例を示すブロック図1 is a block diagram illustrating a configuration example of a display device according to a first embodiment. 実施例1に係る画像処理部の構成例を示すブロック図1 is a block diagram illustrating a configuration example of an image processing unit according to a first embodiment. 実施例1に係る表示装置の処理フローの一例を示すフローチャート7 is a flowchart illustrating an example of a processing flow of the display device according to the first embodiment. 実施例2に係る画像処理部の構成例を示すブロック図FIG. 9 is a block diagram illustrating a configuration example of an image processing unit according to the second embodiment. 実施例2に係る表示装置の処理フローの一例を示すフローチャート10 is a flowchart illustrating an example of a processing flow of the display device according to the second embodiment. 実施例3に係る画像処理部の構成例を示すブロック図FIG. 9 is a block diagram illustrating a configuration example of an image processing unit according to a third embodiment. 実施例3に係る表示装置の処理フローの一例を示すフローチャート10 is a flowchart illustrating an example of a processing flow of the display device according to the third embodiment. 本発明で解決される課題の一例を説明する図The figure explaining an example of the subject solved by this invention 本発明で解決される課題の一例を説明する図The figure explaining an example of the subject solved by this invention

<実施例1>
以下、本発明の実施例1について説明する。なお、以下では、本実施例に係る画像処理装置が表示装置に設けられている例を説明するが、画像処理装置は表示装置とは別体の装置であってもよい。例えば、画像処理装置としてパーソナルコンピュータが使用されてもよい。
<Example 1>
Embodiment 1 of the present invention will be described below. In the following, an example in which the image processing apparatus according to the present embodiment is provided in a display device will be described. However, the image processing apparatus may be a separate device from the display device. For example, a personal computer may be used as the image processing apparatus.

図1は、本実施例に係る表示装置1の構成例を示すブロック図である。なお、表示装置1の各機能部は、ハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、表示装置1が、プロセッサと、制御プログラムが格納されたメモリとを有していてもよい。そして、表示装置1が有する少なくとも一部の機能部(機能部の処理)が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。   FIG. 1 is a block diagram illustrating a configuration example of the display device 1 according to the present embodiment. In addition, each function part of the display apparatus 1 may be implement | achieved by hardware, and may not be so. For example, the display device 1 may include a processor and a memory that stores a control program. Then, at least a part of the functional units (processing of the functional units) included in the display device 1 may be realized by the processor reading and executing the control program from the memory.

レシーバ2は、ベース画像データ(第1画像データ)、及び、ベース画像データと、元画像データ(第2画像データ)との差分に関する差分データを取得(受信)する。具体的には、レシーバ2は、ベース画像データと差分データを含むデータを取得する。そして、レシーバ2は、取得したデータをデコード部3へ出力する。なお、レシーバ2によって取得されるデータは、動画のデータであってもよいし、静止画のデータであってもよい。また、レシーバ2へのデータの伝送方法は特に限定されない。例えば、SDI形式、DP形式、ファイル形式、等でデータがレシーバ2へ伝送される。   The receiver 2 acquires (receives) base image data (first image data) and difference data relating to a difference between the base image data and the original image data (second image data). Specifically, the receiver 2 acquires data including base image data and difference data. Then, the receiver 2 outputs the acquired data to the decoding unit 3. The data acquired by the receiver 2 may be moving image data or still image data. Moreover, the transmission method of the data to the receiver 2 is not specifically limited. For example, data is transmitted to the receiver 2 in SDI format, DP format, file format, and the like.

元画像データは、ベース画像データよりもデータサイズが大きい画像データである。例えば、元画像データは、ベース画像データの輝度域(ダイナミックレンジ)と色域の少なくとも一方を拡大した画像データである。   The original image data is image data having a data size larger than that of the base image data. For example, the original image data is image data obtained by enlarging at least one of the luminance range (dynamic range) and the color gamut of the base image data.

ベース画像データは、例えば、元画像データ(第2画像データ)にダウンサンプリング
を施すことによって得られる画像データである。「ダウンサンプリング」は「階調圧縮」とも言える。その場合には、ベース画像データのビット数(第1ビット数)は、元画像データのビット数(第2ビット数)よりも少ない。即ち、元画像データのビット数は、ベース画像データのビット数よりも多い。例えば、ベース画像データの各階調値は、元画像データの階調値(Nビット)のコア部分に対応するnビットの値である。「N」は2以上の整数であり、「n」は1以上且つN未満の整数である。
The base image data is, for example, image data obtained by down-sampling original image data (second image data). “Downsampling” can be said to be “gradation compression”. In that case, the number of bits of the base image data (first bit number) is smaller than the number of bits of the original image data (second bit number). That is, the number of bits of the original image data is larger than the number of bits of the base image data. For example, each gradation value of the base image data is an n-bit value corresponding to the core part of the gradation value (N bits) of the original image data. “N” is an integer of 2 or more, and “n” is an integer of 1 or more and less than N.

ベース画像データと同様に、差分データのデータサイズも、元画像データのデータサイズよりも小さい。例えば、差分データのビット数は、元画像データのビット数よりも少ない。ここで、ベース画像データの各階調値が、元画像データの階調値(Nビット)のコア部分に対応するnビットの値である場合を考える。この場合には、元画像データの階調値の残りの部分(コア部分以外の部分;n+1番目以降のビット)を復元するためのデータが、差分データとして使用される。差分データは、例えば、輝度差分データ、色差分データ、または、それら両方を含む。   Similar to the base image data, the data size of the difference data is smaller than the data size of the original image data. For example, the number of bits of difference data is smaller than the number of bits of original image data. Here, consider a case where each gradation value of the base image data is an n-bit value corresponding to the core part of the gradation value (N bits) of the original image data. In this case, data for restoring the remaining part of the gradation value of the original image data (part other than the core part; n + 1th and subsequent bits) is used as the difference data. The difference data includes, for example, luminance difference data, color difference data, or both.

輝度差分データは、元画像データの輝度(輝度の階調値;輝度値;Y値)とベース画像データの輝度との差分を示すデータである。例えば、輝度差分データは、画素毎(または所定数の画素からなる画像領域毎)に、ベース画像データの輝度と元画像データの輝度との比率(輝度比率)を示す輝度比率データである。輝度比率は、ベース画像データの輝度に対するHDR画像データの輝度の比率またはその逆数である。輝度差分データは、画素毎(または所定数の画素からなる画像領域毎)に、ベース画像データの輝度と元画像データの輝度の一方から他方を減算することによって得られる差分値(輝度差分値)を示すデータであってもよい。輝度差分データは、ベース画像データの輝度と元画像データの輝度との対応関係を示すテーブルデータであってもよい。   The luminance difference data is data indicating a difference between the luminance of the original image data (luminance gradation value; luminance value; Y value) and the luminance of the base image data. For example, the luminance difference data is luminance ratio data indicating a ratio (luminance ratio) between the luminance of the base image data and the luminance of the original image data for each pixel (or for each image region including a predetermined number of pixels). The luminance ratio is the ratio of the luminance of the HDR image data to the luminance of the base image data or the reciprocal thereof. The brightness difference data is a difference value (brightness difference value) obtained by subtracting the other from one of the brightness of the base image data and the brightness of the original image data for each pixel (or for each image area composed of a predetermined number of pixels). May be data indicating. The luminance difference data may be table data indicating a correspondence relationship between the luminance of the base image data and the luminance of the original image data.

色差分データは、元画像データの色とベース画像データの色との差分を示すデータである。例えば、色差分データは、画素毎(または所定数の画素からなる画像領域毎)に、ベース画像データの色差(色差の階調値;色差値;Cb値とCr値)と元画像データの色差との差分値(色差差分値)を示す色差差分データである。色差差分値は、ベース画像データの色差から元画像データの色差を減算することによって得られる差分値、または、元画像データの色差からベース画像データの色差を減算することによって得られる差分値である。色差分データは、画素毎(または所定数の画素からなる画像領域毎)に、ベース画像データの色差と元画像データの色差との一方に対する他方の比率である色差比率を示す色差比率データであってもよい。色差分データは、ベース画像データの色差と元画像データの色差との対応関係を示すテーブルデータであってもよい。色差分データは、色差の代わりに色度座標などを用いて得られるデータであってもよい。   The color difference data is data indicating a difference between the color of the original image data and the color of the base image data. For example, the color difference data includes, for each pixel (or for each image area composed of a predetermined number of pixels), the color difference (color difference gradation value; color difference value; Cb value and Cr value) of the base image data and the color difference of the original image data. Is color difference difference data indicating a difference value (color difference difference value). The color difference difference value is a difference value obtained by subtracting the color difference of the original image data from the color difference of the base image data, or a difference value obtained by subtracting the color difference of the base image data from the color difference of the original image data. . The color difference data is color difference ratio data indicating a color difference ratio that is a ratio of the other of the color difference of the base image data and the color difference of the original image data for each pixel (or for each image area including a predetermined number of pixels). May be. The color difference data may be table data indicating a correspondence relationship between the color difference of the base image data and the color difference of the original image data. The color difference data may be data obtained using chromaticity coordinates or the like instead of the color difference.

ビット数が非常に多い画像データは、「HDR(High Dynamic Range)画像データ」などと呼ばれる。一方、ビット数がそれほど多くない画像データは、LDR(Low Dynamic Range)画像データなどと呼ばれる。そして、元画像データがHDR画像データであり、且つ、ベース画像データがJPEG画像データである場合には、ベース画像データと差分データとの組み合わせを用いたデータフォーマットは、「JPEG−HDR」などと呼ばれる。   Image data having a very large number of bits is referred to as “HDR (High Dynamic Range) image data”. On the other hand, image data that does not have a large number of bits is called LDR (Low Dynamic Range) image data. When the original image data is HDR image data and the base image data is JPEG image data, the data format using a combination of the base image data and the difference data is “JPEG-HDR” or the like. be called.

本実施例では、元画像データは、各画素値がRGB値であり、且つ、各階調値(R値、G値、及び、B値)が32ビットの値であるHDR画像データである。ベース画像データは、各画素値がRGB値であり、且つ、各階調値(R値、G値、及び、B値)が8ビットの値であるJPEG画像データである。そして、ベース画像データの各階調値は、HDR画像データの階調値のコア部分に対応する。従って、本実施例では、レシーバ2により、JPEG−HDRのデータが取得される。また、本実施例では、差分データは、HDR画
像データの階調値の残りの部分(コア部分以外の部分;9番目以降のビット)を復元するためのデータである。差分データは、輝度比率データと色差差分データとを含む。そして、輝度比率と色差差分値のそれぞれは、8ビットの値である。
In this embodiment, the original image data is HDR image data in which each pixel value is an RGB value and each gradation value (R value, G value, and B value) is a 32-bit value. The base image data is JPEG image data in which each pixel value is an RGB value and each gradation value (R value, G value, and B value) is an 8-bit value. Each gradation value of the base image data corresponds to the core part of the gradation value of the HDR image data. Therefore, in this embodiment, JPEG-HDR data is acquired by the receiver 2. In this embodiment, the difference data is data for restoring the remaining portion of the gradation value of the HDR image data (portion other than the core portion; the ninth and subsequent bits). The difference data includes luminance ratio data and color difference difference data. Each of the luminance ratio and the color difference difference value is an 8-bit value.

なお、元画像データのデータフォーマット、ベース画像データのデータフォーマット、差分データのデータフォーマットは特に限定されない。例えば、元画像データの各画素値はYCbCr値であってもよい。元画像データの各階調値のビット数は32ビットより多くても少なくてもよい。元画像データはHDR画像データでなくてもよい。ベース画像データの各画素値はYCbCr値であってもよい。ベース画像データの各階調値のビット数は8ビットより多くても少なくてもよい。ベース画像データはJPEG画像データでなくてもよい。差分データの各データ値のビット数は8ビットより多くても少なくてもよい。輝度差分データは輝度比率データでなくてもよい。色差分データは色差差分データでなくてもよい。差分データは輝度差分データと色差分データの一方を含んでいなくてもよい。   The data format of the original image data, the data format of the base image data, and the data format of the difference data are not particularly limited. For example, each pixel value of the original image data may be a YCbCr value. The number of bits of each gradation value of the original image data may be more or less than 32 bits. The original image data may not be HDR image data. Each pixel value of the base image data may be a YCbCr value. The number of bits of each gradation value of the base image data may be more or less than 8 bits. The base image data may not be JPEG image data. The number of bits of each data value of the difference data may be more or less than 8 bits. The luminance difference data may not be luminance ratio data. The color difference data may not be the color difference difference data. The difference data may not include one of the luminance difference data and the color difference data.

デコード部3は、レシーバ2から出力されたデータをデコードすることにより、レシーバ2から出力されたデータを、ベース画像データ、輝度比率データ、及び、色差差分データに分離する。そして、デコード部3は、ベース画像データ、輝度比率データ、及び、色差差分データを、画像処理部4へ出力する。   The decoding unit 3 decodes the data output from the receiver 2 to separate the data output from the receiver 2 into base image data, luminance ratio data, and color difference difference data. Then, the decoding unit 3 outputs base image data, luminance ratio data, and color difference difference data to the image processing unit 4.

画像処理部4は、デコード部3から出力されたデータ(ベース画像データ、輝度比率データ、及び、色差差分データ)を用いてデータ処理を行う。本実施例では、画像処理部4は、ベース画像処理部4a、輝度比率処理部4b、及び、色差差分処理部4cを有する。ベース画像処理部4aは、ベース画像データを用いてデータ処理(ベース画像処理)を行う。輝度比率処理部4bは、輝度比率データを用いてデータ処理(輝度比率処理)を行う。具体的には、輝度比率処理部4bは、ベース画像処理に基づいて輝度比率データを補正する。色差差分処理部4cは、色差差分データを用いてデータ処理(色差差分処理)を行う。具体的には、色差差分処理部4cは、ベース画像処理に基づいて色差差分データを補正する。ベース画像処理部4aは、ベース画像処理が行われた後のベース画像データを、合成部5へ出力する。輝度比率処理部4bは、輝度比率処理が行われた後の輝度比率データを、合成部5へ出力する。色差差分処理部4cは、色差差分処理が行われた後の色差差分データを、合成部5へ出力する。   The image processing unit 4 performs data processing using the data (base image data, luminance ratio data, and color difference difference data) output from the decoding unit 3. In this embodiment, the image processing unit 4 includes a base image processing unit 4a, a luminance ratio processing unit 4b, and a color difference difference processing unit 4c. The base image processing unit 4a performs data processing (base image processing) using the base image data. The luminance ratio processing unit 4b performs data processing (luminance ratio processing) using the luminance ratio data. Specifically, the luminance ratio processing unit 4b corrects the luminance ratio data based on the base image processing. The color difference difference processing unit 4c performs data processing (color difference difference processing) using the color difference difference data. Specifically, the color difference difference processing unit 4c corrects the color difference difference data based on the base image processing. The base image processing unit 4 a outputs the base image data after the base image processing is performed to the synthesis unit 5. The luminance ratio processing unit 4 b outputs the luminance ratio data after the luminance ratio processing is performed to the synthesis unit 5. The color difference difference processing unit 4 c outputs the color difference difference data after the color difference difference processing is performed to the synthesis unit 5.

合成部5は、画像処理部4(ベース画像処理部4a、輝度比率処理部4b、及び、色差差分処理部4c)から出力されたデータ(ベース画像データ、輝度比率データ、及び、色差差分データ)を取得する。そして、合成部5は、取得したデータから画像データ(第3画像データ)を生成し、生成した画像データをトーンマッピング部6へ出力する。具体的には、合成部5は、取得したデータを合成することにより画像データ(合成画像データ)を生成し、合成画像データをトーンマッピング部6へ出力する。なお、画像処理部4から出力されたデータを用いて合成画像データが生成されれば、合成画像データの生成方法は特に限定されない。   The synthesizing unit 5 includes data (base image data, luminance ratio data, and color difference difference data) output from the image processing unit 4 (base image processing unit 4a, luminance ratio processing unit 4b, and color difference difference processing unit 4c). To get. Then, the synthesis unit 5 generates image data (third image data) from the acquired data, and outputs the generated image data to the tone mapping unit 6. Specifically, the combining unit 5 generates image data (combined image data) by combining the acquired data, and outputs the combined image data to the tone mapping unit 6. Note that the method of generating the composite image data is not particularly limited as long as the composite image data is generated using the data output from the image processing unit 4.

本実施例では、合成画像データは、元画像データと同じデータフォーマットを有する。即ち、合成画像データは、各画素値がRGB値であり、且つ、各階調値(R値、G値、及び、B値)が32ビットの値であるHDR画像データである。なお、合成画像データのデータフォーマットは特に限定されない。例えば、合成画像データの各画素値はYCbCr値であってもよい。合成画像データの各階調値のビット数は32ビットより多くても少なくてもよい。合成画像データはHDR画像データでなくてもよい。合成画像データのデータフォーマットは元画像データのデータフォーマットと異なっていてもよい。合成画像データが記憶部(不図示)に記録されてもよい。   In this embodiment, the composite image data has the same data format as the original image data. That is, the composite image data is HDR image data in which each pixel value is an RGB value and each gradation value (R value, G value, and B value) is a 32-bit value. The data format of the composite image data is not particularly limited. For example, each pixel value of the composite image data may be a YCbCr value. The number of bits of each gradation value of the composite image data may be more or less than 32 bits. The composite image data may not be HDR image data. The data format of the composite image data may be different from the data format of the original image data. The composite image data may be recorded in a storage unit (not shown).

トーンマッピング部6は、合成部5から出力された合成画像データを表示画像データ(第4画像データ)へ変換し、表示画像データを表示部7へ出力する。表示画像データは、表示部7に対応するデータフォーマットを有する。また、表示画像データのデータサイズは、合成画像データのデータサイズよりも小さい。本実施例では、表示部7は、RGB値と、10ビットの階調値(R値、G値、及び、B値)とに対応する。即ち、表示部7は、10ビットのR値、10ビットのG値、及び、10ビットのB値からなるRGB値を正確に表示することができ、他の画素値を正確に表示することはできない。そのため、本実施例では、トーンマッピング部6は、各画素値がRGB値であり、且つ、各階調値(R値、G値、及び、B値)が10ビットの値である表示画像データへ、合成画像データを変換する。具体的には、トーンマッピング部6は、各階調値を32ビットの値から10ビットの値へ変換するトーンマッピング(階調圧縮)を合成画像データに施すことにより、表示画像データを生成する。   The tone mapping unit 6 converts the combined image data output from the combining unit 5 into display image data (fourth image data), and outputs the display image data to the display unit 7. The display image data has a data format corresponding to the display unit 7. The data size of the display image data is smaller than the data size of the composite image data. In the present embodiment, the display unit 7 corresponds to RGB values and 10-bit gradation values (R value, G value, and B value). That is, the display unit 7 can accurately display an RGB value composed of a 10-bit R value, a 10-bit G value, and a 10-bit B value, and can accurately display other pixel values. Can not. For this reason, in the present embodiment, the tone mapping unit 6 converts the display value to each of the display image data in which each pixel value is an RGB value and each gradation value (R value, G value, and B value) is a 10-bit value. , Convert the composite image data. Specifically, the tone mapping unit 6 generates display image data by applying tone mapping (gradation compression) for converting each gradation value from a 32-bit value to a 10-bit value to the composite image data.

なお、トーンマッピングの方法は特に限定されない。例えば、トーンマッピングとして、変換特性(変換前の階調値と変換後の階調値との対応関係)としてlog特性を用いたlog変換が行われてもよい。また、表示部7に対応するデータフォーマットは特に限定されない。例えば、表示部7に対応する画素値はYCbCr値であってもよい。表示部7に対応する階調値のビット数は10ビットより多くても少なくてもよい。表示部7に対応するデータフォーマットは、画像サイズなどの他の情報を含んでいてもよい。   The tone mapping method is not particularly limited. For example, as tone mapping, log conversion using log characteristics as conversion characteristics (corresponding relationship between gradation values before conversion and gradation values after conversion) may be performed. The data format corresponding to the display unit 7 is not particularly limited. For example, the pixel value corresponding to the display unit 7 may be a YCbCr value. The number of bits of the gradation value corresponding to the display unit 7 may be more or less than 10 bits. The data format corresponding to the display unit 7 may include other information such as an image size.

表示部7は、トーンマッピング部6から出力された表示画像データに基づいて、画面に画像を表示する。   The display unit 7 displays an image on the screen based on the display image data output from the tone mapping unit 6.

CPU9は、上述した各機能部の処理を制御する。メモリ10は、上述した各機能部(CPU9を含む)で使用される種々のデータ(ソフトウェアプログラム、画像データ、制御データ、等)を記憶する。例えば、CPU9は、メモリ10からソフトウェアプログラムを読み出して実行することにより、各機能部の処理を制御する。表示装置1が有する各機能部は双方向バス8に接続されており、機能部間のデータの伝送は双方向バス8を介して行われる。   The CPU 9 controls processing of each functional unit described above. The memory 10 stores various data (software program, image data, control data, etc.) used in each functional unit (including the CPU 9) described above. For example, the CPU 9 controls the processing of each functional unit by reading and executing a software program from the memory 10. Each functional unit included in the display device 1 is connected to the bidirectional bus 8, and data transmission between the functional units is performed via the bidirectional bus 8.

上述したベース画像処理は特に限定されないが、例えば、ベース画像処理は、画像データの階調値を変更する画像処理(所望の画像処理)の少なくとも一部である。所望の画像処理は、画像データの全ての階調値を変更する画像処理であってもよいし、画像データの一部の階調値を変更する画像処理であってもよい。所望の画像処理は、画像領域全体に施される画像処理であってもよいし、一部の画像領域にのみ施される画像処理であってもよい。そして、レシーバ2では、ベース画像データと差分データが取得されずに、単一の画像データ(第5画像データ)が取得されることがある。その場合には、以下のように処理が行われてもよい。   Although the above-described base image processing is not particularly limited, for example, the base image processing is at least a part of image processing (desired image processing) for changing the gradation value of image data. The desired image processing may be image processing that changes all the gradation values of the image data, or may be image processing that changes a part of the gradation values of the image data. The desired image processing may be image processing performed on the entire image region, or may be image processing performed only on a part of the image region. The receiver 2 may acquire single image data (fifth image data) without acquiring base image data and difference data. In that case, processing may be performed as follows.

まず、トーンマッピング部6が、レシーバ2によって取得された画像データ(取得画像データ)にトーンマッピングを施すことにより、トーンマッピング画像データ(第6画像データ)を生成する。トーンマッピング画像データは、表示部7に対応するデータフォーマットを有する。また、トーンマッピング画像データのデータサイズは、取得画像データのデータサイズよりも小さい。次に、画像処理部4が、トーンマッピング画像データに上記所望の画像処理を施すことにより、表示画像データを生成する。そして、デコード部3の処理と合成部5の処理とが省略され、表示画像データに基づく画像が表示部7で表示される。   First, the tone mapping unit 6 performs tone mapping on the image data (acquired image data) acquired by the receiver 2 to generate tone mapping image data (sixth image data). The tone mapping image data has a data format corresponding to the display unit 7. The data size of the tone mapping image data is smaller than the data size of the acquired image data. Next, the image processing unit 4 generates display image data by performing the desired image processing on the tone mapping image data. And the process of the decoding part 3 and the process of the synthetic | combination part 5 are abbreviate | omitted, and the image based on display image data is displayed on the display part 7. FIG.

レシーバ2によって取得されたデータの種類によって、実行する処理、実行する処理の順番、等を変更することにより、表示装置1の処理負荷や消費電力を低減することができ
る。例えば、上記の例では、デコード部3の処理と合成部5の処理とが省略されるため、表示装置1の処理負荷や消費電力を低減することができる。さらに、上記の例では、所望の画像処理とトーンマッピングの順番が入れ替えられる。それにより、所望の画像処理の対象である対象画像データを、取得画像データから、取得画像データよりもデータサイズが小さいトーンマッピング画像データへ変更することができる。即ち、対象画像データのデータサイズを低減することができる。その結果、所望の画像処理の処理負荷を低減でき、表示装置1の処理負荷や消費電力をより低減することができる。
The processing load and power consumption of the display device 1 can be reduced by changing the processing to be executed, the order of the processing to be executed, and the like depending on the type of data acquired by the receiver 2. For example, in the above example, the processing of the decoding unit 3 and the processing of the combining unit 5 are omitted, so that the processing load and power consumption of the display device 1 can be reduced. Furthermore, in the above example, the order of desired image processing and tone mapping is switched. Thereby, the target image data that is a target of desired image processing can be changed from the acquired image data to tone mapping image data having a data size smaller than that of the acquired image data. That is, the data size of the target image data can be reduced. As a result, the processing load of desired image processing can be reduced, and the processing load and power consumption of the display device 1 can be further reduced.

なお、取得画像データのデータフォーマットは特に限定されない。例えば、取得画像データの各画素値はRGB値であり、取得画像データの各階調値(R値、G値、及び、B値)は12ビットの値である。取得画像データは、HDR画像データであってもよいし、HDR画像データでなくてもよい。   The data format of the acquired image data is not particularly limited. For example, each pixel value of the acquired image data is an RGB value, and each gradation value (R value, G value, and B value) of the acquired image data is a 12-bit value. The acquired image data may be HDR image data or may not be HDR image data.

なお、トーンマッピング画像データのデータサイズは、取得画像データのデータサイズより大きくてもよい。その場合であっても、デコード部3の処理と合成部5の処理とが省略されれば、表示装置1の処理負荷や消費電力を低減することができる。また、その場合には、所望の画像処理はトーンマッピングよりも先に行われてもよい。それにより、トーンマッピング画像データよりもデータサイズが小さい取得画像データを、対象画像データとして用いることができる。即ち、対象画像データのデータサイズを低減することができる。その結果、所望の画像処理の処理負荷を低減でき、表示装置1の処理負荷や消費電力をより低減することができる。   Note that the data size of the tone mapping image data may be larger than the data size of the acquired image data. Even in that case, if the processing of the decoding unit 3 and the processing of the combining unit 5 are omitted, the processing load and power consumption of the display device 1 can be reduced. In that case, the desired image processing may be performed prior to tone mapping. Thereby, acquired image data having a data size smaller than that of tone mapping image data can be used as target image data. That is, the data size of the target image data can be reduced. As a result, the processing load of desired image processing can be reduced, and the processing load and power consumption of the display device 1 can be further reduced.

図2は、画像処理部4の構成例を示すブロック図である。図2において、図1と同じ機能部には図1と同じ符号が付されている。本実施例では、ベース画像処理として、画像データの階調値を変更する画像処理(所望の画像処理)が行われる。所望の画像処理は特に限定されないが、本実施例では、所望の画像処理として、ゲイン処理とオフセット処理が行われる。ゲイン処理は、設定されたゲイン値を画像データの階調値に乗算する処理であり、オフセット値は、設定されたオフセット値を画像データの階調値に加算する処理である。設定されたゲイン値やオフセット値は「ベース画像処理で使用されたパラメータ」とも言える。本実施例ではオフセット処理の後にゲイン処理が行わるが、ゲイン処理の後にオフセット処理が行われてもよい。   FIG. 2 is a block diagram illustrating a configuration example of the image processing unit 4. In FIG. 2, the same reference numerals as those in FIG. In the present embodiment, as the base image processing, image processing (desired image processing) for changing the gradation value of the image data is performed. Although the desired image processing is not particularly limited, in this embodiment, gain processing and offset processing are performed as desired image processing. The gain process is a process of multiplying the set gain value by the gradation value of the image data, and the offset value is a process of adding the set offset value to the gradation value of the image data. It can be said that the set gain value and offset value are “parameters used in the base image processing”. In this embodiment, the gain process is performed after the offset process, but the offset process may be performed after the gain process.

ベース画像処理部4aは、色空間変換部401、座標取得部402、オフセット設定部403、加算部403a〜403c、ゲイン設定部404、乗算部404a〜404c、及び、処理情報生成部405を有する。デコード部3から出力されたベース画像データは、色空間変換部401へ入力される。   The base image processing unit 4a includes a color space conversion unit 401, a coordinate acquisition unit 402, an offset setting unit 403, addition units 403a to 403c, a gain setting unit 404, multiplication units 404a to 404c, and a processing information generation unit 405. The base image data output from the decoding unit 3 is input to the color space conversion unit 401.

色空間変換部401は、色空間変換部401に入力されたベース画像データの画素値をRGB値(R値,G値,B値)=(R,G,B)からYCbCr値(Y値,Cb値,Cr値)=(Y,Cb,Cr)へ変換する。座標取得部402は、ベース画像処理の対象である画素の座標を色空間変換部401から取得し、取得した座標を示す座標情報を輝度比率処理部4bと色差差分処理部4cへ出力する。   The color space conversion unit 401 changes the pixel value of the base image data input to the color space conversion unit 401 from an RGB value (R value, G value, B value) = (R, G, B) to a YCbCr value (Y value, Cb value, Cr value) = (Y, Cb, Cr). The coordinate acquisition unit 402 acquires the coordinates of the pixel that is the target of the base image processing from the color space conversion unit 401, and outputs coordinate information indicating the acquired coordinates to the luminance ratio processing unit 4b and the color difference difference processing unit 4c.

オフセット設定部403は、オフセット値A,B,Cを設定する。オフセット値Aは、Y値に加算するオフセット値であり、オフセット値Bは、Cb値に加算するオフセット値であり、オフセット値Cは、Cr値に加算するオフセット値である。例えば、オフセット設定部403は、ユーザ操作、表示装置1の使用状況、等に応じて、オフセット値A,B,Cを自動で設定する。ユーザ操作は、パラメータを指定するユーザ操作、表示装置1の動作モードを指定するユーザ操作、等であり、表示装置1の使用状況は、表示装置1の周囲の輝度、表示装置1の温度、等である。オフセット値A、オフセット値B、及び、オフ
セット値Cは、個別に設定されてもよいし、そうでなくてもよい。オフセット値A、オフセット値B、及び、オフセット値Cとして1つのオフセット値が設定されてもよい。画素毎(または所定数の画素からなる画像領域毎)にオフセット値A,B,Cが個別に設定されてもよいし、画素間(または所定数の画素からなる画像領域毎)で共通の値がオフセット値A,B,Cとして設定されてもよい。
The offset setting unit 403 sets offset values A, B, and C. The offset value A is an offset value added to the Y value, the offset value B is an offset value added to the Cb value, and the offset value C is an offset value added to the Cr value. For example, the offset setting unit 403 automatically sets the offset values A, B, and C according to the user operation, the usage status of the display device 1, and the like. The user operation is a user operation for specifying a parameter, a user operation for specifying an operation mode of the display device 1, and the usage status of the display device 1 is the ambient brightness of the display device 1, the temperature of the display device 1, etc. It is. The offset value A, offset value B, and offset value C may or may not be set individually. One offset value may be set as the offset value A, the offset value B, and the offset value C. Offset values A, B, and C may be set individually for each pixel (or for each image area composed of a predetermined number of pixels), and are common values between pixels (or for each image area composed of a predetermined number of pixels). May be set as offset values A, B, and C.

加算部403aは、Y値(Y)にオフセット値Aを加算する。加算部403bは、Cb値(Cb)にオフセット値Bを加算する。そして、加算部403cは、Cr値(Cr)にオフセット値Cを加算する。   The adding unit 403a adds the offset value A to the Y value (Y). The adding unit 403b adds the offset value B to the Cb value (Cb). Then, the addition unit 403c adds the offset value C to the Cr value (Cr).

ゲイン設定部404は、ゲイン値P,Q,Rを設定する。ゲイン値Pは、Y値に乗算するゲイン値であり、ゲイン値Qは、Cb値に乗算するゲイン値であり、ゲイン値Rは、Cr値に乗算するゲイン値である。例えば、ゲイン設定部404は、ユーザ操作、表示装置1の使用状況、等に応じて、ゲイン値P,Q,Rを自動で設定する。ゲイン値P、ゲイン値Q、及び、ゲイン値Rは、個別に設定されてもよいし、そうでなくてもよい。ゲイン値P、ゲイン値Q、及び、ゲイン値Rとして1つのゲイン値が設定されてもよい。画素毎(または所定数の画素からなる画像領域毎)にゲイン値P,Q,Rが個別に設定されてもよいし、画素間(または所定数の画素からなる画像領域毎)で共通の値がゲイン値P,Q,Rとして設定されてもよい。   The gain setting unit 404 sets gain values P, Q, and R. The gain value P is a gain value to be multiplied by the Y value, the gain value Q is a gain value to be multiplied by the Cb value, and the gain value R is a gain value to be multiplied by the Cr value. For example, the gain setting unit 404 automatically sets the gain values P, Q, and R according to the user operation, the usage status of the display device 1, and the like. The gain value P, gain value Q, and gain value R may or may not be set individually. One gain value may be set as the gain value P, the gain value Q, and the gain value R. The gain values P, Q, and R may be set individually for each pixel (or for each image region composed of a predetermined number of pixels), and are common values between pixels (or for each image region composed of a predetermined number of pixels). May be set as gain values P, Q, and R.

乗算部404aは、Y値(Y+A)にゲイン値Pを乗算する。乗算部404bは、Cb値(Cb+A)にゲイン値Qを乗算する。そして、乗算部404cは、Cr値(Cr+C)にゲイン値Rを乗算する。これにより、ベース画像処理の結果として、Y値(Y’=(Y+A)×P)、Cb値(Cb’=(Cb+B)×Q)、及び、Cr値(Cr’=(Cr+C)×R)が得られる。Y値(Y’)は輝度比率処理部4bへ出力され、Cb値(Cb’)とCr値(Cr’)は色差差分処理部4cへ出力される。ベース画像処理が行われた後のベース画像データの画素値であるYCbCr値(Y’,Cb’,Cr’)は、合成部5へ出力される。   The multiplier 404a multiplies the Y value (Y + A) by the gain value P. The multiplier 404b multiplies the Cb value (Cb + A) by the gain value Q. Then, the multiplier 404c multiplies the Cr value (Cr + C) by the gain value R. Thereby, as a result of the base image processing, the Y value (Y ′ = (Y + A) × P), the Cb value (Cb ′ = (Cb + B) × Q), and the Cr value (Cr ′ = (Cr + C) × R) Is obtained. The Y value (Y ') is output to the luminance ratio processing unit 4b, and the Cb value (Cb') and the Cr value (Cr ') are output to the color difference difference processing unit 4c. YCbCr values (Y ′, Cb ′, Cr ′), which are pixel values of the base image data after the base image processing is performed, are output to the combining unit 5.

処理情報生成部405は、処理情報を生成し、生成した処理情報を輝度比率処理部4bと色差差分処理部4cへ出力する。処理情報は、ベース画像処理に関する情報である。例えば、処理情報は、ベース画像処理の種類、ベース画像処理で使用されたパラメータ、等を示す。本実施例では、オフセット設定部403によって設定されたオフセット値A,B,Cと、ゲイン設定部404によって設定されたゲイン値P,Q,Rとに基づいて処理情報が生成される。本実施例では、処理情報は、オフセット値A,B,Cとゲイン値P,Q,Rとを示す。   The processing information generation unit 405 generates processing information and outputs the generated processing information to the luminance ratio processing unit 4b and the color difference difference processing unit 4c. The processing information is information related to base image processing. For example, the processing information indicates the type of base image processing, parameters used in the base image processing, and the like. In the present embodiment, processing information is generated based on the offset values A, B, and C set by the offset setting unit 403 and the gain values P, Q, and R set by the gain setting unit 404. In the present embodiment, the processing information indicates offset values A, B, and C and gain values P, Q, and R.

輝度比率処理部4bは、輝度比率判断部406、HDR−Y値判断部407、及び、補正比率決定部408を有する。デコード部3から出力された輝度比率データは、輝度比率判断部406へ入力される。   The luminance ratio processing unit 4b includes a luminance ratio determination unit 406, an HDR-Y value determination unit 407, and a correction ratio determination unit 408. The luminance ratio data output from the decoding unit 3 is input to the luminance ratio determination unit 406.

輝度比率判断部406は、座標取得部402から出力された座標情報に基づいて、輝度比率判断部406に入力された輝度比率データから、ベース画像処理の対象である画素に対応する輝度比率rを判断する。そして、輝度比率判断部406は、輝度比率rをHDR−Y値判断部407へ出力する。   Based on the coordinate information output from the coordinate acquisition unit 402, the luminance ratio determination unit 406 calculates the luminance ratio r corresponding to the pixel that is the target of the base image processing from the luminance ratio data input to the luminance ratio determination unit 406. to decide. Then, the luminance ratio determining unit 406 outputs the luminance ratio r to the HDR-Y value determining unit 407.

HDR−Y値判断部407は、元画像データであるHDR画像データに所望の画像処理を施すことによって得られるY値(HDR_Y)を、輝度比率rと処理情報とから判断する。そして、HDR−Y値判断部407は、Y値(HDR_Y)を補正比率決定部408へ出力する。   The HDR-Y value determination unit 407 determines a Y value (HDR_Y) obtained by performing desired image processing on the HDR image data that is the original image data from the luminance ratio r and the processing information. Then, the HDR-Y value determination unit 407 outputs the Y value (HDR_Y) to the correction ratio determination unit 408.

補正比率決定部408は、補正比率r’(補正後の輝度比率)を、Y値(HDR_Y)と、ベース画像処理が行われた後のY値(Y’)とから決定する。そして、補正比率決定部408は、決定した補正比率r’を合成部5へ出力する。   The correction ratio determination unit 408 determines the correction ratio r ′ (the luminance ratio after correction) from the Y value (HDR_Y) and the Y value (Y ′) after the base image processing is performed. Then, the correction ratio determination unit 408 outputs the determined correction ratio r ′ to the synthesis unit 5.

色差差分処理部4cは、色差差分判断部409、HDR−Cb・Cr値判断部410、及び、補正差分決定部411を有する。デコード部3から出力された色差差分データは、色差差分判断部409へ入力される。   The color difference difference processing unit 4 c includes a color difference difference determination unit 409, an HDR-Cb / Cr value determination unit 410, and a correction difference determination unit 411. The color difference difference data output from the decoding unit 3 is input to the color difference difference determination unit 409.

色差差分判断部409は、座標取得部402から出力された座標情報に基づいて、色差差分判断部409に入力された色差差分データから、ベース画像処理の対象である画素に対応する色差差分値db,drを判断する。色差差分dbはCb値の差分値であり、色差差分drはCr値の差分値である。そして、色差差分判断部409は、色差差分値db,drをHDR−Cb・Cr値判断部410へ出力する。   The color difference difference determination unit 409, based on the coordinate information output from the coordinate acquisition unit 402, from the color difference difference data input to the color difference difference determination unit 409, the color difference difference value db corresponding to the pixel that is the target of the base image processing. , Dr. The color difference difference db is a Cb value difference value, and the color difference difference dr is a Cr value difference value. Then, the color difference difference determination unit 409 outputs the color difference difference values db and dr to the HDR-Cb / Cr value determination unit 410.

HDR−Cb・Cr値判断部410は、元画像データであるHDR画像データに所望の画像処理を施すことによって得られるCb値(HDR_Cb)とCr値(HDR_Cr)を、色差差分値db,drと処理情報とから判断する。そして、HDR−Cb・Cr値判断部410は、Cb値(HDR_Cb)とCr値(HDR_Cr)とを補正差分決定部411へ出力する。   The HDR-Cb / Cr value determination unit 410 obtains the Cb value (HDR_Cb) and the Cr value (HDR_Cr) obtained by performing desired image processing on the HDR image data that is the original image data, and the color difference difference values db and dr. Judgment from processing information. Then, the HDR-Cb / Cr value determination unit 410 outputs the Cb value (HDR_Cb) and the Cr value (HDR_Cr) to the correction difference determination unit 411.

補正差分決定部411は、補正差分値db’,dr’を、Cb値(HDR_Cb)、Cr値(HDR_Cr)、ベース画像処理が行われた後のCb値(Cb’)、及び、ベース画像処理が行われた後のCr値(Cr’)から決定する。補正差分値db’は、Cb値の差分値であり、且つ、補正後の色差差分値である。補正差分値dr’は、Cr値の差分値であり、且つ、補正後の色差差分値である。そして、補正差分決定部411は、決定した補正差分値db’,dr’を合成部5へ出力する。   The correction difference determination unit 411 uses the correction difference values db ′ and dr ′ as Cb values (HDR_Cb), Cr values (HDR_Cr), Cb values after the base image processing (Cb ′), and base image processing. Is determined from the Cr value (Cr ′) after the above. The correction difference value db 'is a Cb value difference value and a corrected color difference difference value. The correction difference value dr ′ is a difference value between Cr values and a color difference difference value after correction. Then, the correction difference determination unit 411 outputs the determined correction difference values db ′ and dr ′ to the synthesis unit 5.

図3は、表示装置1の処理フローの一例を示すフローチャートである。図3を用いて、表示装置1の処理フローの一例を説明する。以下の説明では、輝度比率は、ベース画像データの輝度に対する元画像データの輝度の比率である。そして、色差差分値は、元画像データの色差からベース画像データの色差を減算することによって得られる差分値である。   FIG. 3 is a flowchart illustrating an example of a processing flow of the display device 1. An example of the processing flow of the display device 1 will be described with reference to FIG. In the following description, the luminance ratio is the ratio of the luminance of the original image data to the luminance of the base image data. The color difference difference value is a difference value obtained by subtracting the color difference of the base image data from the color difference of the original image data.

まず、レシーバ2は、JPEG−HDRのデータを取得し、取得したデータをデコード部3へ出力する(S101)。次に、デコード部3は、S101で取得されたデータをデコードすることにより、S101で取得されたデータを、ベース画像データ、輝度比率データ、及び、色差差分データに分離する(S102)。デコード部3は、取得したベース画像データをベース画像処理部4aへ出力し、取得した輝度比率データを輝度比率処理部4bへ出力し、取得した色差差分データを色差差分判断部409へ出力する。そして、色空間変換部401は、S102で取得されたベース画像データの画素値を、RGB色空間の値であるRGB値素値(R,G,B)から、YCbCr色空間の値であるYCbCr値(Y,Cb,Cr)へ変換する(S103)。   First, the receiver 2 acquires JPEG-HDR data and outputs the acquired data to the decoding unit 3 (S101). Next, the decoding unit 3 decodes the data acquired in S101, thereby separating the data acquired in S101 into base image data, luminance ratio data, and color difference difference data (S102). The decoding unit 3 outputs the acquired base image data to the base image processing unit 4a, outputs the acquired luminance ratio data to the luminance ratio processing unit 4b, and outputs the acquired color difference difference data to the color difference difference determination unit 409. Then, the color space conversion unit 401 changes the pixel value of the base image data acquired in S102 from the RGB value elementary values (R, G, B) that are RGB color space values to YCbCr color space values that are YCbCr color space values. Conversion into values (Y, Cb, Cr) (S103).

次に、座標取得部402は、ベース画像処理(後述するS105とS106)の対象である画素の座標を色空間変換部401から取得し、取得した座標を示す座標情報を出力する(S104)。座標情報は、輝度比率処理部4bと色差差分処理部4cへ出力される。S104の処理のタイミングは特に限定されない。例えば、S105の処理の後、S106の処理の後、等にS104の処理が行われてもよい。S103、S105、及び、S106の処理と並列にS104の処理が行われてもよい。   Next, the coordinate acquisition unit 402 acquires the coordinates of the pixel that is the target of the base image processing (S105 and S106 described later) from the color space conversion unit 401, and outputs coordinate information indicating the acquired coordinates (S104). The coordinate information is output to the luminance ratio processing unit 4b and the color difference difference processing unit 4c. The timing of the process of S104 is not particularly limited. For example, the process of S104 may be performed after the process of S105, after the process of S106, or the like. The process of S104 may be performed in parallel with the processes of S103, S105, and S106.

そして、加算部403a〜403cは、S103で取得されたYCbCr値(Y,Cb,Cr)にオフセット処理を施す(S105)。具体的には、加算部403aはY値(Y)にオフセット値Aを加算し、加算部403bはCb値(Cb)にオフセット値Bを加算し、加算部403cはCr値(Cr)にオフセット値Cを加算する。S105の処理よりも前にオフセット値A,B,Cが設定されれば、オフセット値A,B,Cが設定されるタイミングは特に限定されない。本実施例では、ユーザの任意のタイミングでオフセット値A,B,Cが設定される。   Then, the adding units 403a to 403c perform an offset process on the YCbCr values (Y, Cb, Cr) acquired in S103 (S105). Specifically, the adder 403a adds the offset value A to the Y value (Y), the adder 403b adds the offset value B to the Cb value (Cb), and the adder 403c offsets the Cr value (Cr). Add the value C. If the offset values A, B, and C are set before the process of S105, the timing at which the offset values A, B, and C are set is not particularly limited. In the present embodiment, offset values A, B, and C are set at any timing of the user.

次に、乗算部404a〜404cは、S105で取得されたYCbCr値(オフセット処理後のYCbCr値(Y+A,Cb+B,Cr+C))にゲイン処理を施す(S106)。具体的には、乗算部404aはY値(Y+A)にゲイン値Pを乗算し、乗算部404bはCb値(Cb+A)にゲイン値Qを乗算し、乗算部404cはCr値(Cr+C)にゲイン値Rを乗算する。S106の処理よりも前にゲイン値P,Q,Rが設定されれば、ゲイン値P,Q,Rが設定されるタイミングは特に限定されない。本実施例では、ユーザの任意のタイミングでゲイン値P,Q,Rが設定される。   Next, the multipliers 404a to 404c perform gain processing on the YCbCr value (YCbCr value after offset processing (Y + A, Cb + B, Cr + C)) acquired in S105 (S106). Specifically, the multiplier 404a multiplies the Y value (Y + A) by the gain value P, the multiplier 404b multiplies the Cb value (Cb + A) by the gain value Q, and the multiplier 404c gains the Cr value (Cr + C) by the gain. Multiply the value R. If the gain values P, Q, and R are set before the processing of S106, the timing at which the gain values P, Q, and R are set is not particularly limited. In this embodiment, the gain values P, Q, and R are set at any timing of the user.

S105とS106の処理により、ベース画像処理の結果であるY値(Y’)、Cb値(Cb’)、及び、Cr値(Cr’)として、式1に示す値が得られる。Y値(Y’)は輝度比率処理部4bへ出力され、Cb値(Cb’)とCr値(Cr’)は色差差分処理部4cへ出力される。ベース画像処理が行われた後のベース画像データの画素値であるYCbCr値(Y’,Cb’,Cr’)は、合成部5へ出力される。

Y’=(Y+A)×P
Cb’=(Cb+B)×Q
Cr’=(Cr+C)×R
・・・(式1)
By the processes in S105 and S106, the values shown in Expression 1 are obtained as the Y value (Y ′), Cb value (Cb ′), and Cr value (Cr ′), which are the results of the base image processing. The Y value (Y ′) is output to the luminance ratio processing unit 4b, and the Cb value (Cb ′) and the Cr value (Cr ′) are output to the color difference difference processing unit 4c. YCbCr values (Y ′, Cb ′, Cr ′), which are pixel values of the base image data after the base image processing is performed, are output to the synthesis unit 5.

Y ′ = (Y + A) × P
Cb ′ = (Cb + B) × Q
Cr ′ = (Cr + C) × R
... (Formula 1)

処理情報生成部405は、S105で使用されたオフセット値A,B,Cと、S106で使用されたゲイン値P,Q,Rとを示す処理情報を生成し、生成した処理情報を輝度比率処理部4bと色差差分処理部4cへ出力する。処理情報の出力タイミングは特に限定されない。例えば、オフセット値A,B,Cを出力する処理がS105の処理と並列に行われ、ゲイン値P,Q,Rを出力する処理がS106の処理と並列に行われてもよい。オフセット値A,B,Cを出力する処理がS105またはS106の処理よりも前に行われてもよい。ゲイン値P,Q,Rを出力する処理がS105またはS106の処理よりも前に行われてもよい。オフセット値A,B,Cを出力する処理がS105またはS106の処理よりも後に行われてもよい。ゲイン値P,Q,Rを出力する処理がS105またはS106の処理よりも後に行われてもよい。   The processing information generation unit 405 generates processing information indicating the offset values A, B, and C used in S105 and the gain values P, Q, and R used in S106, and the generated processing information is subjected to luminance ratio processing. To the unit 4b and the color difference difference processing unit 4c. The output timing of the processing information is not particularly limited. For example, the process of outputting the offset values A, B, and C may be performed in parallel with the process of S105, and the process of outputting the gain values P, Q, and R may be performed in parallel with the process of S106. The process of outputting the offset values A, B, and C may be performed before the process of S105 or S106. The process of outputting the gain values P, Q, and R may be performed before the process of S105 or S106. The process of outputting the offset values A, B, and C may be performed after the process of S105 or S106. The process of outputting the gain values P, Q, and R may be performed after the process of S105 or S106.

S106の処理の次に、S110へ処理が進められる。本実施例では、S104の処理の後且つS110の処理の前の期間に、輝度比率処理部4bと色差差分処理部4cにより、S107〜S109の処理が行われる。S107〜109の処理は、S105およびS106の処理と並列に行われてもよいし、そうでなくてもよい。S107〜109の処理は、S106の処理よりも後に行われてもよい。輝度比率処理部4bの処理は、色差差分処理部4cの処理と並列に行われてもよいし、そうでなくてもよい。   Following the process of S106, the process proceeds to S110. In the present embodiment, the processing of S107 to S109 is performed by the luminance ratio processing unit 4b and the color difference difference processing unit 4c after the processing of S104 and before the processing of S110. The process of S107-109 may be performed in parallel with the process of S105 and S106, and may not be so. The processing of S107 to 109 may be performed after the processing of S106. The processing of the luminance ratio processing unit 4b may or may not be performed in parallel with the processing of the color difference difference processing unit 4c.

S102で取得された輝度差分データと、S104で出力された座標情報とが輝度比率判断部406へ入力されると、輝度比率判断部406はS107の処理を行う。S107にて、輝度比率判断部406は、入力された座標情報に基づいて、入力された輝度比率データから、ベース画像処理の対象である画素に対応する輝度比率rを判断する。そして、
輝度比率判断部406は、輝度比率rをHDR−Y値判断部407へ出力する。同様に、S102で取得された色差差分データと、S104で出力された座標情報とが色差差分判断部409へ入力されると、色差差分判断部409はS107の処理を行う。S107にて、色差差分判断部409は、入力された座標情報に基づいて、入力された色差差分データから、ベース画像処理の対象である画素に対応する色差差分値db,drを判断する。そして、色差差分判断部409は、色差差分値db,drをHDR−Cb・Cr値判断部410へ出力する。
When the luminance difference data acquired in S102 and the coordinate information output in S104 are input to the luminance ratio determining unit 406, the luminance ratio determining unit 406 performs the process of S107. In S107, the luminance ratio determining unit 406 determines the luminance ratio r corresponding to the pixel that is the target of the base image processing from the input luminance ratio data based on the input coordinate information. And
The luminance ratio determination unit 406 outputs the luminance ratio r to the HDR-Y value determination unit 407. Similarly, when the color difference difference data acquired in S102 and the coordinate information output in S104 are input to the color difference difference determination unit 409, the color difference difference determination unit 409 performs the process of S107. In S107, the color difference difference determination unit 409 determines the color difference difference values db and dr corresponding to the pixel that is the target of the base image processing from the input color difference difference data based on the input coordinate information. Then, the color difference difference determination unit 409 outputs the color difference difference values db and dr to the HDR-Cb / Cr value determination unit 410.

S107で判断された輝度比率rと、処理情報生成部405から出力された処理情報とがHDR−Y値判断部407へ入力されると、HDR−Y値判断部407はS108の処理を行う。S108にて、HDR−Y値判断部407は、元画像データであるHDR画像データに所望の画像処理を施すことによって得られるY値(HDR_Y)を、輝度比率rと処理情報とから判断する。そして、HDR−Y値判断部407は、Y値(HDR_Y)を補正比率決定部408へ出力する。同様に、S107で判断された色差差分値db,drと、処理情報生成部405から出力された処理情報とがHDR−Cb・Cr値判断部410へ入力されると、HDR−Cb・Cr値判断部410はS108の処理を行う。S108にて、HDR−Cb・Cr値判断部410は、元画像データであるHDR画像データに所望の画像処理を施すことによって得られるCb値(HDR_Cb)とCr値(HDR_Cr)を、色差差分値db,drと処理情報とから判断する。そして、HDR−Cb・Cr値判断部410は、Cb値(HDR_Cb)とCr値(HDR_Cr)を補正差分決定部411へ出力する。   When the luminance ratio r determined in S107 and the processing information output from the processing information generation unit 405 are input to the HDR-Y value determination unit 407, the HDR-Y value determination unit 407 performs the process of S108. In S108, the HDR-Y value determination unit 407 determines the Y value (HDR_Y) obtained by performing desired image processing on the HDR image data that is the original image data from the luminance ratio r and the processing information. Then, the HDR-Y value determination unit 407 outputs the Y value (HDR_Y) to the correction ratio determination unit 408. Similarly, when the color difference difference values db and dr determined in S107 and the processing information output from the processing information generation unit 405 are input to the HDR-Cb / Cr value determination unit 410, the HDR-Cb / Cr value is determined. The determination unit 410 performs the process of S108. In S108, the HDR-Cb / Cr value determination unit 410 obtains the Cb value (HDR_Cb) and the Cr value (HDR_Cr) obtained by performing desired image processing on the HDR image data which is the original image data, as a color difference difference value. Judgment is made from db, dr and processing information. Then, the HDR-Cb / Cr value determination unit 410 outputs the Cb value (HDR_Cb) and the Cr value (HDR_Cr) to the correction difference determination unit 411.

本実施例では、以下の式2を用いて、Y値(HDR_Y)、Cb値(HDR_Cb)、及び、Cr値(HDR_Cr)が算出される。そのため、ベース画像データのYCbCr値(Y,Cb,Cr)は、例えば、処理情報に含まれている。なお、HDR−Y値判断部407とHDR−Cb・Cr値判断部410へのYCbCr値(Y,Cb,Cr)の通知方法は特に限定されない。YCbCr値(Y,Cb,Cr)が座標情報に含まれていてもよい。そして、輝度比率判断部406からHDR−Y値判断部407へYCbCr値(Y,Cb,Cr)が通知され、色差差分判断部409からHDR−Cb・Cr値判断部410へYCbCr値(Y,Cb,Cr)が通知されてもよい。

HDR_Y=(Y×r+A)×P
HDR_Cb=(Cb+db+B)×Q
HDR_Cr=(Cr+dr+C)×R
・・・(式2)
In this embodiment, a Y value (HDR_Y), a Cb value (HDR_Cb), and a Cr value (HDR_Cr) are calculated using the following Expression 2. Therefore, the YCbCr value (Y, Cb, Cr) of the base image data is included in the processing information, for example. The method of notifying YCbCr values (Y, Cb, Cr) to HDR-Y value determining unit 407 and HDR-Cb / Cr value determining unit 410 is not particularly limited. The YCbCr value (Y, Cb, Cr) may be included in the coordinate information. Then, the YCbCr value (Y, Cb, Cr) is notified from the luminance ratio determination unit 406 to the HDR-Y value determination unit 407, and the YCbCr value (Y, Y) is transmitted from the color difference difference determination unit 409 to the HDR-Cb / Cr value determination unit 410. Cb, Cr) may be notified.

HDR_Y = (Y × r + A) × P
HDR_Cb = (Cb + db + B) × Q
HDR_Cr = (Cr + dr + C) × R
... (Formula 2)

S108で判断されたY値(HDR_Y)と、S106で得られたY値(Y’)とが補正比率決定部408へ入力されると、補正比率決定部408はS109の処理を行う。Y値(Y’)は、ベース画像処理が行われた後のY値である。S109にて、補正比率決定部408は、補正比率r’(補正後の輝度比率)を、Y値(HDR_Y)とY値(Y’)とから決定する。そして、補正比率決定部408は、決定した補正比率r’を合成部5へ出力する。同様に、S108で判断されたCb値(HDR_Cb)およびCr値(HDR_Cr)と、S106で得られたCb値(Cb’)およびCr値(Cr’)とが補正差分決定部411へ入力されると、補正差分決定部411はS109の処理を行う。Cb値(Cb’)は、ベース画像処理が行われた後のCb値であり、Cr値(Cr’)は、ベース画像処理が行われた後のCr値である。S109にて、補正差分決定部411は、補正差分値db’,dr’(補正後の色差差分値)を、Cb値(HDR_Cb)、Cr値(HDR_Cr)、Cb値(Cb’)、及び、Cr値(Cr’)から決定する。そして、補正差分決定部411は、決定した補正差分値db’,dr’を合成部5へ出力する。S109
の処理の次に、S110へ処理が進められる。
When the Y value (HDR_Y) determined in S108 and the Y value (Y ′) obtained in S106 are input to the correction ratio determination unit 408, the correction ratio determination unit 408 performs the process of S109. The Y value (Y ′) is the Y value after the base image processing is performed. In S109, the correction ratio determination unit 408 determines the correction ratio r ′ (the corrected luminance ratio) from the Y value (HDR_Y) and the Y value (Y ′). Then, the correction ratio determination unit 408 outputs the determined correction ratio r ′ to the synthesis unit 5. Similarly, the Cb value (HDR_Cb) and Cr value (HDR_Cr) determined in S108 and the Cb value (Cb ′) and Cr value (Cr ′) obtained in S106 are input to the correction difference determination unit 411. Then, the correction difference determination unit 411 performs the process of S109. The Cb value (Cb ′) is a Cb value after the base image processing is performed, and the Cr value (Cr ′) is a Cr value after the base image processing is performed. In S109, the correction difference determination unit 411 converts the correction difference values db ′ and dr ′ (corrected color difference difference values) into Cb values (HDR_Cb), Cr values (HDR_Cr), Cb values (Cb ′), and It is determined from the Cr value (Cr ′). Then, the correction difference determination unit 411 outputs the determined correction difference values db ′ and dr ′ to the synthesis unit 5. S109
Following this process, the process proceeds to S110.

Y値(HDR_Y)、Y値(Y’)、及び、補正比率r’の対応関係を式3に示す。本実施例では、式3を変形して得られる式4を用いて、補正比率r’が算出される。具体的には、Y値(HDR_Y)をY値(Y’)で除算することにより、補正比率r’が算出される。

Y’×r’=HDR_Y=(Y×r+A)×P ・・・(式3)

r’=HDR_Y/Y’
=((Y×r+A)×P)/((Y+A)×P)
=(Y×r+A)/(Y+A)
・・・(式4)
The correspondence relationship between the Y value (HDR_Y), the Y value (Y ′), and the correction ratio r ′ is shown in Equation 3. In the present embodiment, the correction ratio r ′ is calculated using Expression 4 obtained by modifying Expression 3. Specifically, the correction ratio r ′ is calculated by dividing the Y value (HDR_Y) by the Y value (Y ′).

Y ′ × r ′ = HDR_Y = (Y × r + A) × P (Formula 3)

r ′ = HDR_Y / Y ′
= ((Y × r + A) × P) / ((Y + A) × P)
= (Y × r + A) / (Y + A)
... (Formula 4)

Cb値(HDR_Cb)、Cb値(Cb’)、及び、補正差分値db’の対応関係と、Cr値(HDR_Cr)、Cr値(Cr’)、及び、補正差分値dr’の対応関係とを式5に示す。本実施例では、式5を変形して得られる式6を用いて、補正差分値db’,dr’が算出される。具体的には、Cb値(HDR_Cb)からCb値(Cb’)を減算することにより補正差分値db’が算出され、Cr値(HDR_Cr)からCr値(Cr’)を減算することにより補正差分値dr’が算出される。

Cb’+db’=HDR_Cb=(Cb+db+B)×Q
Cr’+dr’=HDR_Cr=(Cr+dr+C)×R
・・・(式5)

db’=HDR_Cb−Cb’
=(Cb+db+B)×Q−(Cb+B)×Q
=db×Q
dr’=HDR_Cr−Cr’
=(Cr+dr+B)×R−(Cr+C)×R
=dr×R
・・・(式6)
Correspondence relationship between Cb value (HDR_Cb), Cb value (Cb ′), and correction difference value db ′, and correspondence relationship between Cr value (HDR_Cr), Cr value (Cr ′), and correction difference value dr ′ It is shown in Formula 5. In the present embodiment, the correction difference values db ′ and dr ′ are calculated using Expression 6 obtained by modifying Expression 5. Specifically, the correction difference value db ′ is calculated by subtracting the Cb value (Cb ′) from the Cb value (HDR_Cb), and the correction difference by subtracting the Cr value (Cr ′) from the Cr value (HDR_Cr). The value dr ′ is calculated.

Cb ′ + db ′ = HDR_Cb = (Cb + db + B) × Q
Cr ′ + dr ′ = HDR_Cr = (Cr + dr + C) × R
... (Formula 5)

db ′ = HDR_Cb−Cb ′
= (Cb + db + B) * Q- (Cb + B) * Q
= Db × Q
dr '= HDR_Cr-Cr'
= (Cr + dr + B) × R− (Cr + C) × R
= Dr * R
... (Formula 6)

S106とS109の処理の次に、S110の処理が行われる。S110にて、合成部5は、画像処理部4(ベース画像処理部4a、輝度比率処理部4b、及び、色差差分処理部4c)から出力されたデータ(ベース画像データ、輝度比率データ、及び、色差差分データ)を取得する。そして、合成部5は、取得したデータから合成画像データ(第3画像データ)を生成する。具体的には、合成部5は、S106で出力されたYCbCr値(Y’,Cb’,Cr’)、S109で出力された補正比率r’、及び、S109で出力された補正差分値db’,dr’から、合成画像データのYCbCr値を算出する。そして、合成部5は、算出したYCbCr値を合成画像データのRGB値(HDR_R,HDR_G,HDR_B)に変換する。本実施例では、以下の式7を用いて合成画像データのYCbCr値が算出される。

合成画像データのY値=Y’×r’
合成画像データのCb値=Cb’+db’
合成画像データのCr値=Cr’+dr’
・・・(式7)
Following the processing of S106 and S109, the processing of S110 is performed. In S110, the synthesis unit 5 outputs data (base image data, luminance ratio data, and data) output from the image processing unit 4 (base image processing unit 4a, luminance ratio processing unit 4b, and color difference difference processing unit 4c). Color difference data). Then, the synthesizing unit 5 generates synthesized image data (third image data) from the acquired data. Specifically, the synthesizer 5 outputs the YCbCr value (Y ′, Cb ′, Cr ′) output in S106, the correction ratio r ′ output in S109, and the correction difference value db ′ output in S109. , Dr ′, the YCbCr value of the composite image data is calculated. Then, the synthesis unit 5 converts the calculated YCbCr value into RGB values (HDR_R, HDR_G, HDR_B) of the synthesized image data. In the present embodiment, the YCbCr value of the composite image data is calculated using the following Expression 7.

Y value of composite image data = Y ′ × r ′
Cb value of composite image data = Cb ′ + db ′
Cr value of composite image data = Cr ′ + dr ′
... (Formula 7)

式3,5,7から、合成画像データが、元画像データであるHDR画像データに所望の画像処理を施すことによって得られる画像データと略一致することがわかる(「略一致」は「完全に一致」を含む)。具体的には、合成画像データが、元画像データであるHDR画像データに所望の画像処理を施すことによって得られる画像データと完全に一致することがわかる。なお、合成画像データは、元画像データに所望の画像処理を施すことによって得られる画像データに完全に一致していなくてもよい。   From Equations 3, 5, and 7, it can be seen that the composite image data substantially matches the image data obtained by performing desired image processing on the HDR image data that is the original image data (“substantially match” means “completely match” Match "). Specifically, it can be seen that the composite image data completely matches the image data obtained by performing desired image processing on the HDR image data that is the original image data. Note that the composite image data may not completely match the image data obtained by performing desired image processing on the original image data.

その後、トーンマッピング部6により合成画像データから表示画像データが生成され、表示部7により表示画像データに基づく画像が表示される。   Thereafter, the tone mapping unit 6 generates display image data from the composite image data, and the display unit 7 displays an image based on the display image data.

以上述べたように、本実施例によれば、ベース画像処理(ベース画像データを用いたデータ処理)が行われ、行われたベース画像処理に基づいて差分データが補正される。そして、ベース画像処理が行われた後のベース画像データと、補正された後の差分データとから、合成画像データが生成される。それにより、画像処理が施された後のHDR画像データに対応する画像データとして、所望の画像データを、簡易な構成で且つ高精度に得ることができる。具体的には、「HDR画像データよりもデータサイズが小さいベース画像データと差分データを用いたデータ処理」、「データ処理後のデータの合成」という簡易な構成で、上記所望の画像データを高精度に得ることができる。上記具体例によれば、「8ビットのデータ処理」と「データ処理後のデータの合成」とが行うことで、32ビットのHDR画像データ(元画像データ)に所望の画像処理を施すことによって得られる画像データと略同一の画像データを得ることができる。その結果、所望の画像処理の処理負荷、回路規模、等を低減でき、表示装置(画像処理装置)の処理負荷、回路規模、消費電力、製造コスト、等を低減することができる。なお、「略同一」は「完全に同一」を含む。   As described above, according to the present embodiment, base image processing (data processing using base image data) is performed, and difference data is corrected based on the performed base image processing. Then, composite image data is generated from the base image data after the base image processing is performed and the corrected difference data. Thereby, desired image data can be obtained with high accuracy and simple configuration as image data corresponding to HDR image data after image processing. Specifically, the desired image data can be increased with a simple configuration of “data processing using base image data and difference data whose data size is smaller than that of HDR image data” and “composition of data after data processing”. It can be obtained with accuracy. According to the above specific example, by performing “8-bit data processing” and “combining data after data processing”, the desired image processing is performed on 32-bit HDR image data (original image data). Image data substantially the same as the obtained image data can be obtained. As a result, the processing load, circuit scale, etc. of desired image processing can be reduced, and the processing load, circuit scale, power consumption, manufacturing cost, etc. of the display device (image processing apparatus) can be reduced. Note that “substantially identical” includes “completely identical”.

なお、輝度差分データと色差分データの両方が補正される例を説明したが、輝度差分データと色差分データの一方のみが補正されてもよい。また、本実施例では、ベース画像処理のパラメータと、ベース画像処理の結果とを用いて差分データが補正される例を説明したが、ベース画像処理のパラメータと、ベース画像処理の結果との一方のみを用いて差分データが補正されてもよい。式6(「db’=db×Q」と「dr’=dr×R」)から、ゲイン値Q,Rのみを用いて色差差分データを補正できることがわかる。また、所望の画像処理は、ゲイン処理とオフセット処理の一方のみを含んでいてもよい。そして、パラメータはゲイン値とオフセット値の一方のみを含んでいてもよい。所望の画像処理は、他の画像処理を含んでいてもよい。   Although an example in which both the luminance difference data and the color difference data are corrected has been described, only one of the luminance difference data and the color difference data may be corrected. In this embodiment, the example in which the difference data is corrected using the base image processing parameter and the base image processing result has been described. However, one of the base image processing parameter and the base image processing result is described. The difference data may be corrected using only. From Equation 6 (“db ′ = db × Q” and “dr ′ = dr × R”), it can be seen that the color difference difference data can be corrected using only the gain values Q and R. The desired image processing may include only one of gain processing and offset processing. The parameter may include only one of the gain value and the offset value. The desired image processing may include other image processing.

<実施例2>
以下、本発明の実施例2について説明する。本実施例でも、ベース画像処理として、画像データの階調値を変更する画像処理(所望の画像処理)が行われる。但し、本実施例では、ベース画像処理(所望の画像処理)として、画像データの特徴量を取得し、取得した特徴量に応じたパラメータを用いて画像データの階調値を変更する処理が行われる。具体的には、ベース画像処理として、画像データの特徴量を取得する特徴取得処理と、取得した特徴量に応じた変換特性で画像データの階調特性を変換する階調変換処理とが行われる。変換特性としてガンマカーブが使用される場合には、上記階調変換処理は「ダイナミックガンマ処理」とも言える。なお、以下では、実施例1と異なる点(構成および処理)について詳しく説明し、実施例1と同じ点についての説明は省略する。
<Example 2>
Embodiment 2 of the present invention will be described below. Also in the present embodiment, as base image processing, image processing (desired image processing) for changing the gradation value of image data is performed. However, in the present embodiment, as the base image processing (desired image processing), a feature amount of image data is acquired, and a process of changing the gradation value of the image data using a parameter corresponding to the acquired feature amount is performed. Is called. Specifically, as the base image processing, a feature acquisition process for acquiring the feature amount of the image data and a tone conversion process for converting the tone characteristic of the image data with the conversion characteristic according to the acquired feature amount are performed. . In the case where a gamma curve is used as the conversion characteristic, the gradation conversion processing can be said to be “dynamic gamma processing”. Hereinafter, points (configuration and processing) that are different from the first embodiment will be described in detail, and description of the same points as those of the first embodiment will be omitted.

図4は、本実施例に係る画像処理部4の構成例を示すブロック図である。図4において、実施例1(図1,2)と同じ機能部には、実施例1と同じ符号が付されている。本実施例に係るベース画像処理部4aは、色空間変換部401、座標取得部402、処理情報生
成部405、特徴量取得部601、特徴量記憶部602、及び、階調変換部603を有する。
FIG. 4 is a block diagram illustrating a configuration example of the image processing unit 4 according to the present embodiment. 4, the same reference numerals as those in the first embodiment are assigned to the same functional units as those in the first embodiment (FIGS. 1 and 2). The base image processing unit 4a according to the present embodiment includes a color space conversion unit 401, a coordinate acquisition unit 402, a processing information generation unit 405, a feature amount acquisition unit 601, a feature amount storage unit 602, and a gradation conversion unit 603. .

特徴量取得部601は、ベース画像データの特徴量を取得する(特徴取得処理)。本実施例では、色空間変換部401から出力されたベース画像データ(色空間変換部401の処理が施された後のベース画像データ;各画素値がYCbCr値であるベース画像データ)が特徴量取得部601に入力される。そして、特徴量取得部601は、色空間変換部401から出力されたベース画像データの特徴量を取得し、取得した特徴量を特徴量記憶部602へ記録する。また、特徴量取得部601は、色空間変換部401から出力されたベース画像データを、階調変換部603へ出力する。特徴量記憶部602は、特徴量取得部601によって取得された特徴量を記憶する。特徴量記憶部602としては、例えば、SRAMを使用することができる。   The feature amount acquisition unit 601 acquires the feature amount of the base image data (feature acquisition process). In this embodiment, the base image data output from the color space conversion unit 401 (base image data after the processing of the color space conversion unit 401; base image data in which each pixel value is a YCbCr value) is a feature amount. Input to the acquisition unit 601. The feature amount acquisition unit 601 acquires the feature amount of the base image data output from the color space conversion unit 401, and records the acquired feature amount in the feature amount storage unit 602. Also, the feature amount acquisition unit 601 outputs the base image data output from the color space conversion unit 401 to the gradation conversion unit 603. The feature amount storage unit 602 stores the feature amount acquired by the feature amount acquisition unit 601. As the feature amount storage unit 602, for example, an SRAM can be used.

特徴量として、例えば、画像データが有する複数の階調値の代表値(最大値、最小値、平均値、中間値、最頻値、等)、画像データが有する複数の階調値のヒストグラム、等が取得される。特徴量として、所定の画像領域(所定の物体に対応する画像領域、輝度が閾値よりも大きい画像領域、輝度が閾値よりも小さい画像領域、所定の色を有する画像領域)を示す情報、階調数、画像の動きの大きさ、等が取得されてもよい。   As the feature amount, for example, representative values (maximum value, minimum value, average value, intermediate value, mode value, etc.) of a plurality of gradation values possessed by image data, a histogram of a plurality of gradation values possessed by image data, Etc. are acquired. Information indicating a predetermined image area (an image area corresponding to a predetermined object, an image area whose luminance is higher than a threshold, an image area whose luminance is lower than a threshold, an image area having a predetermined color) as a feature amount, gradation The number, the magnitude of the image movement, and the like may be acquired.

なお、特徴量の種類、特徴量の取得方法、等は特に限定されない。例えば、色空間変換部401の処理が施される前のベース画像データから特徴量が取得されてもよい。階調値の種類毎に特徴量が取得されてもよいし、複数種類の階調値の間で共通の特徴量が取得されてもよい。具体的には、Y値の特徴量、Cb値の特徴量、及び、Cr値の特徴量が個別に取得されてもよい。Y値の特徴量、Cb値の特徴量、Cr値の特徴量、及び、YCbCr値の特徴量のいずれか1つのみが取得されてもよい。画像領域全体に対応する特徴量が取得されてもよいし、一部の画像領域にのみ対応する特徴量が取得されてもよい。ベース画像データが動画データである場合には、フレーム毎に特徴量が取得されてもよいし、複数のフレームから、当該複数のフレームの間で共通の特徴量が取得されてもよい。全てのフレームが特徴量の取得対象として使用されてもよいし、一部のフレーム(一部のシーン)のみが特徴量の取得対象として使用されてもよい。   Note that the type of feature amount, the method for acquiring the feature amount, and the like are not particularly limited. For example, the feature amount may be acquired from the base image data before the processing of the color space conversion unit 401 is performed. A feature amount may be acquired for each type of gradation value, or a common feature amount may be acquired among a plurality of types of gradation values. Specifically, the feature value of the Y value, the feature value of the Cb value, and the feature value of the Cr value may be acquired individually. Only one of the Y-value feature quantity, the Cb-value feature quantity, the Cr-value feature quantity, and the YCbCr-value feature quantity may be acquired. A feature amount corresponding to the entire image region may be acquired, or a feature amount corresponding to only a part of the image region may be acquired. When the base image data is moving image data, a feature amount may be acquired for each frame, or a common feature amount may be acquired from a plurality of frames. All the frames may be used as feature quantity acquisition targets, or only some of the frames (some scenes) may be used as feature quantity acquisition targets.

階調変換部603は、特徴量取得部601によって取得された特徴量を特徴量記憶部602から読み出し、読み出した特徴量に応じて変換特性を決定する。そして、階調変換部603は、決定した変換特性に従って、特徴量取得部601から出力されたベース画像データ(色空間変換部401の処理が施された後のベース画像データ)の階調特性を変換する(階調変換処理)。これにより、ベース画像処理(特徴取得処理と階調変換処理)が行われた後のベース画像データが得られる。実施例1と同様に、ベース画像処理が行われた後のベース画像データの画素値であるYCbCr値(Y’,Cb’,Cr’)は、合成部5へ出力される。そして、Y値(Y’)は、ベース画像処理の結果として輝度比率処理部4bへ出力され、Cb値(Cb’)とCr値(Cr’)は、ベース画像処理の結果として色差差分処理部4cへ出力される。   The gradation conversion unit 603 reads the feature amount acquired by the feature amount acquisition unit 601 from the feature amount storage unit 602, and determines conversion characteristics according to the read feature amount. Then, according to the determined conversion characteristic, the gradation conversion unit 603 determines the gradation characteristic of the base image data (base image data after the processing of the color space conversion unit 401) output from the feature amount acquisition unit 601. Conversion (gradation conversion processing). Thereby, base image data after base image processing (feature acquisition processing and gradation conversion processing) is performed is obtained. Similarly to the first embodiment, YCbCr values (Y ′, Cb ′, Cr ′), which are pixel values of the base image data after the base image processing is performed, are output to the synthesis unit 5. The Y value (Y ′) is output to the luminance ratio processing unit 4b as a result of the base image processing, and the Cb value (Cb ′) and the Cr value (Cr ′) are output as the color difference difference processing unit as a result of the base image processing. To 4c.

なお、変換特性の決定方法は特に限定されない。特徴量に応じた1つのガンマカーブが変換特性として決定されてもよいし、そうでなくてもよい。特徴量に応じた複数のガンマカーブが決定され、複数のガンマカーブを合成することにより1つの変換特性が決定されてもよい。例えば、第1閾値と、第1閾値以下の値である第2閾値とが予め定められており、第1閾値以上の階調値の範囲に対応するガンマカーブと、第2閾値以下の以上の階調値の範囲に対応するガンマカーブとが、特徴量に応じて決定されてもよい。そして、上記2つのガンマカーブを繋ぎ合わせることにより、1つの変換特性が決定されてもよい。第1閾値と第2閾値のそれぞれは、メーカによって予め定められた固定値であってもよいし
、ユーザが変更可能な値であってもよい。
The method for determining the conversion characteristics is not particularly limited. One gamma curve corresponding to the feature amount may be determined as the conversion characteristic or not. A plurality of gamma curves corresponding to the feature amount may be determined, and one conversion characteristic may be determined by combining the plurality of gamma curves. For example, a first threshold value and a second threshold value that is a value equal to or lower than the first threshold value are predetermined, a gamma curve corresponding to a range of gradation values equal to or higher than the first threshold value, and a second threshold value equal to or higher than the second threshold value. The gamma curve corresponding to the range of gradation values may be determined according to the feature amount. Then, one conversion characteristic may be determined by connecting the two gamma curves. Each of the first threshold value and the second threshold value may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.

本実施例では、処理情報生成部405は、階調変換部603で使用された変換特性を示す情報を、処理情報として生成し、生成した処理情報を輝度比率処理部4bと色差差分処理部4cへ出力する。例えば、処理情報生成部405は、階調変換部603で使用された変換特性を示す1つ以上のガンマ値を階調変換部603から取得し、取得したガンマ値を処理情報として出力する。   In this embodiment, the processing information generation unit 405 generates information indicating the conversion characteristics used in the gradation conversion unit 603 as processing information, and the generated processing information is used as the luminance ratio processing unit 4b and the color difference difference processing unit 4c. Output to. For example, the processing information generation unit 405 acquires one or more gamma values indicating the conversion characteristics used in the gradation conversion unit 603 from the gradation conversion unit 603, and outputs the acquired gamma values as processing information.

図5は、本実施例に係る表示装置1の処理フローの一例を示すフローチャートである。図5を用いて、本実施例に係る表示装置1の処理フローの一例を説明する。図5において、実施例1(図3)と同じ処理には、実施例1と同じ符号が付されている。   FIG. 5 is a flowchart illustrating an example of a processing flow of the display device 1 according to the present embodiment. An example of the processing flow of the display device 1 according to the present embodiment will be described with reference to FIG. In FIG. 5, the same processes as those in the first embodiment (FIG. 3) are denoted by the same reference numerals as those in the first embodiment.

まず、実施例1と同様に、S101〜S104の処理が行われる。次に、特徴量取得部601は、S201の処理(特徴取得処理)を行う。S201では、特徴量取得部601は、S103の処理が施された後のベース画像データ(各画素値がYCbCr値へ変換された後のベース画像データ)から特徴量を取得し、取得した特徴量を特徴量記憶部602へ記録する。   First, similarly to the first embodiment, the processes of S101 to S104 are performed. Next, the feature quantity acquisition unit 601 performs the process of S201 (feature acquisition process). In S201, the feature amount acquisition unit 601 acquires the feature amount from the base image data (base image data after each pixel value is converted into a YCbCr value) after the processing of S103 is performed, and the acquired feature amount Is recorded in the feature amount storage unit 602.

そして、階調変換部603は、S202の処理(階調変換処理)を行う。S202では、階調変換部603は、S201で記録された特徴量を特徴量記憶部602から読み出し、読み出した特徴量に応じて変換特性を決定する。そして、階調変換部603は、決定した変換特性に従って、S103の処理が施された後の上記ベース画像データの階調特性を変換する。   Then, the gradation conversion unit 603 performs the process of S202 (gradation conversion process). In S202, the gradation conversion unit 603 reads the feature amount recorded in S201 from the feature amount storage unit 602, and determines conversion characteristics according to the read feature amount. Then, the tone conversion unit 603 converts the tone characteristics of the base image data after the processing of S103 is performed according to the determined conversion characteristics.

S201とS202の処理により、ベース画像処理が行われた後のベース画像データ(階調変換処理が施された後のベース画像データ)が得られる。上述したように、ベース画像処理が行われた後のベース画像データの画素値であるYCbCr値(Y’,Cb’,Cr’)は、合成部5へ出力される。そして、Y値(Y’)は、ベース画像処理の結果として輝度比率処理部4bへ出力され、Cb値(Cb’)とCr値(Cr’)は、ベース画像処理の結果として色差差分処理部4cへ出力される。   Through the processes of S201 and S202, base image data after being subjected to base image processing (base image data after being subjected to gradation conversion processing) is obtained. As described above, the YCbCr values (Y ′, Cb ′, Cr ′) that are the pixel values of the base image data after the base image processing is performed are output to the synthesizing unit 5. The Y value (Y ′) is output to the luminance ratio processing unit 4b as a result of the base image processing, and the Cb value (Cb ′) and the Cr value (Cr ′) are output as the color difference difference processing unit as a result of the base image processing. To 4c.

S202の処理の次に、S110へ処理が進められる。本実施例でも、S104の処理の後且つS110の処理の前の期間に、輝度比率処理部4bと色差差分処理部4cにより、S107〜S109の処理が行われる。但し、S108では、オフセット値やゲイン値ではなく、変換特性に基づいて、Y値(HDR_Y)、Cb値(HDR_Cb)、及び、Cr値(HDR_Cr)が判断される。変換特性は、処理情報から判断される。S109の処理の次に、S110へ処理が進められる。本実施例の方法でも、処理情報(変換特性)などに基づいて差分データが補正されるため、合成画像データとして、元画像データに所望の画像処理を施すことによって得られる画像データと略同一の画像データを得ることができる。   Following the process of S202, the process proceeds to S110. Also in the present embodiment, the processing of S107 to S109 is performed by the luminance ratio processing unit 4b and the color difference difference processing unit 4c after the processing of S104 and before the processing of S110. However, in S108, the Y value (HDR_Y), the Cb value (HDR_Cb), and the Cr value (HDR_Cr) are determined based on the conversion characteristics, not the offset value or the gain value. The conversion characteristic is determined from the processing information. Following the processing of S109, the processing proceeds to S110. Also in the method of the present embodiment, the difference data is corrected based on the processing information (conversion characteristics) and the like, so that the synthesized image data is substantially the same as the image data obtained by performing desired image processing on the original image data. Image data can be obtained.

以上述べたように、本実施例によれば、実施例1と同様に、ベース画像処理が行われ、行われたベース画像処理に基づいて差分データが補正される。そして、ベース画像処理が行われた後のベース画像データと、補正された後の差分データとから、合成画像データが生成される。それにより、画像処理が施された後のHDR画像データに対応する画像データとして、所望の画像データを、簡易な構成で且つ高精度に得ることができる。上記具体例によれば、「8ビットのデータ処理」と「データ処理後のデータの合成」とを行うことで、32ビットのHDR画像データ(元画像データ)に所望の画像処理を施すことによって得られる画像データと略同一の画像データを得ることができる。そのため、所望の画像処理の処理負荷、回路規模、等を低減できる。また、上記具体例によれば、8ビットのベ
ース画像データから特徴量が取得されるため、32ビットのHDR画像データから取得される特徴量に比べデータサイズが小さい特徴量を得ることができる。そのため、特徴量を記憶する記憶部の記憶容量(回路規模)を低減することができる。それらの結果、表示装置(画像処理装置)の処理負荷、回路規模、消費電力、製造コスト、等を低減することができる。
As described above, according to the present embodiment, the base image processing is performed as in the first embodiment, and the difference data is corrected based on the performed base image processing. Then, composite image data is generated from the base image data after the base image processing is performed and the corrected difference data. Thereby, desired image data can be obtained with high accuracy and simple configuration as image data corresponding to HDR image data after image processing. According to the above specific example, by performing “8-bit data processing” and “combining data after data processing”, by performing desired image processing on 32-bit HDR image data (original image data). Image data substantially the same as the obtained image data can be obtained. Therefore, it is possible to reduce the processing load of desired image processing, the circuit scale, and the like. Further, according to the above specific example, since the feature amount is acquired from the 8-bit base image data, it is possible to obtain a feature amount whose data size is smaller than the feature amount acquired from the 32-bit HDR image data. Therefore, the storage capacity (circuit scale) of the storage unit that stores the feature amount can be reduced. As a result, the processing load, circuit scale, power consumption, manufacturing cost, etc. of the display device (image processing device) can be reduced.

なお、「特徴量に応じたパラメータを用いて画像データの階調値を変更する処理」は、上記階調変換処理に限られない。例えば、「特徴量に応じたパラメータを用いて画像データの階調値を変更する処理」として、「特徴量に応じたパラメータを用いて画像をぼかす処理」が行われてもよい。特徴量に応じたパラメータとして、特徴量そのものが使用されてもよい。「特徴量に応じたパラメータを用いて画像データの階調値を変更する処理」がベース画像処理に含まれていなくてもよい。ベース画像処理として、特徴取得処理のみが行われてもよい。そして、差分データの補正において、ベース画像処理の結果として特徴量が使用されてもよい。   Note that the “process for changing the tone value of image data using a parameter corresponding to the feature amount” is not limited to the tone conversion process. For example, “a process for blurring an image using a parameter corresponding to a feature amount” may be performed as “a process for changing a gradation value of image data using a parameter corresponding to a feature amount”. The feature quantity itself may be used as a parameter corresponding to the feature quantity. “Process for changing the gradation value of image data using a parameter corresponding to a feature amount” may not be included in the base image processing. Only the feature acquisition process may be performed as the base image process. Then, in the correction of the difference data, the feature amount may be used as a result of the base image processing.

<実施例3>
以下、本発明の実施例3について説明する。本実施例に係るベース画像処理は、画像データの階調値を変更する画像処理(所望の画像処理)の一部である。具体的には、本実施例に係る所望の画像処理は、所定の画像領域を検出し、所定の画像領域の検出結果に基づいて画像データの階調値を変更する処理である。そして、ベース画像処理は、所定の画像領域を検出する処理である。より具体的には、本実施例に係る所望の画像処理は、エッジを検出するエッジ検出処理と、検出されたエッジを強調するエッジ強調処理とを含む。そして、本実施例に係るベース画像処理は、エッジ検出処理である。なお、以下では、実施例1,と異なる点(構成および処理)について詳しく説明し、実施例1,2と同じ点についての説明は省略する。
<Example 3>
Embodiment 3 of the present invention will be described below. The base image processing according to the present embodiment is a part of image processing (desired image processing) for changing the gradation value of image data. Specifically, the desired image processing according to the present embodiment is processing for detecting a predetermined image region and changing the gradation value of the image data based on the detection result of the predetermined image region. The base image process is a process for detecting a predetermined image area. More specifically, the desired image processing according to the present embodiment includes an edge detection process for detecting an edge and an edge enhancement process for enhancing the detected edge. The base image processing according to the present embodiment is edge detection processing. In the following, points (configuration and processing) that are different from the first embodiment will be described in detail, and description of the same points as those of the first and second embodiments will be omitted.

図6は、本実施例に係る画像処理部4の構成例を示すブロック図である。図6において、実施例1(図1,2)と同じ機能部には、実施例1と同じ符号が付されている。本実施例に係るベース画像処理部4aは、色空間変換部401、座標取得部402、処理情報生成部405、及び、エッジ処理部800を有する。   FIG. 6 is a block diagram illustrating a configuration example of the image processing unit 4 according to the present embodiment. In FIG. 6, the same reference numerals as those in the first embodiment are assigned to the same functional units as those in the first embodiment (FIGS. 1 and 2). The base image processing unit 4a according to the present embodiment includes a color space conversion unit 401, a coordinate acquisition unit 402, a processing information generation unit 405, and an edge processing unit 800.

エッジ処理部800は、ベース画像データからエッジを検出するエッジ検出処理を行う。本実施例では、色空間変換部401から出力されたベース画像データ(色空間変換部401の処理が施された後のベース画像データ;各画素値がYCbCr値であるベース画像データ)がエッジ処理部800に入力される。そして、エッジ処理部800は、色空間変換部401から出力されたベース画像データを用いて、エッジ検出処理を行う。なお、色空間変換部401の処理が施された後のベース画像データではなく、色空間変換部401の処理が施される前のベース画像データを用いて、エッジ検出処理が行われてもよい。   The edge processing unit 800 performs an edge detection process for detecting an edge from the base image data. In this embodiment, the base image data output from the color space conversion unit 401 (base image data after the processing of the color space conversion unit 401; base image data in which each pixel value is a YCbCr value) is edge processed. Input to the unit 800. Then, the edge processing unit 800 performs edge detection processing using the base image data output from the color space conversion unit 401. Note that the edge detection process may be performed using base image data before the processing of the color space conversion unit 401, instead of the base image data after the processing of the color space conversion unit 401. .

エッジ処理部800により、ベース画像処理(エッジ検出処理)が行われた後のベース画像データが得られる。実施例1と同様に、ベース画像処理が行われた後のベース画像データの画素値であるYCbCr値(Y’,Cb’,Cr’)は、合成部5へ出力される。そして、Y値(Y’)は輝度比率処理部4bへ出力され、Cb値(Cb’)とCr値(Cr’)は色差差分処理部4cへ出力される。本実施例のベース画像処理(エッジ検出処理)では、ベース画像データの階調値(Y値、Cd値、及び、Cr値)は変更されない。そのため、Y値(Y’)は、色空間変換部401の出力値であるY値(Y)と等しく、Cb値(Cb’)は、色空間変換部401の出力値であるCb値(Cb)と等しく、Cr値(Cr’)は、色空間変換部401の出力値であるCr値(Cr)と等しい。   The edge processing unit 800 obtains base image data after the base image processing (edge detection processing) is performed. Similarly to the first embodiment, YCbCr values (Y ′, Cb ′, Cr ′), which are pixel values of the base image data after the base image processing is performed, are output to the synthesis unit 5. The Y value (Y ') is output to the luminance ratio processing unit 4b, and the Cb value (Cb') and the Cr value (Cr ') are output to the color difference difference processing unit 4c. In the base image processing (edge detection processing) of this embodiment, the gradation values (Y value, Cd value, and Cr value) of the base image data are not changed. Therefore, the Y value (Y ′) is equal to the Y value (Y) that is the output value of the color space conversion unit 401, and the Cb value (Cb ′) is the Cb value (Cb) that is the output value of the color space conversion unit 401. ) And the Cr value (Cr ′) is equal to the Cr value (Cr) that is the output value of the color space conversion unit 401.

エッジ処理部800の構成は特に限定されないが、本実施例では、エッジ処理部800
は、ブロックバッファ800a、フィルタ800b、及び、テーブル800cを有する。ブロックバッファ800aは、画像データを一時的に記憶するバッファである。エッジ処理部800は、ベース画像処理(エッジ検出処理)で使用される画像データ(一部の画像領域に対応するベース画像データ)を、ブロックバッファ800aに記録する(バッファリング処理)。フィルタ800bは、エッジ検出処理のためのフィルタである。エッジ処理部800は、ブロックバッファ800aが記憶している画像データに対して、フィルタ800bを用いたフィルタリング処理を施すことにより、当該画像データからエッジを検出する。本実施例では、エッジ強調処理として、エッジのY値を変更する処理が想定されている。具体的には、エッジ強調処理として、エッジのY値にゲイン値(≠1)を乗算する処理が想定されている。テーブル800cは、エッジの検出結果と、エッジ強調処理のゲイン値との対応関係を示すテーブルである。エッジ処理部800は、エッジの検出結果(得られた検出結果)に応じたゲイン値をテーブル800cから取得する。
The configuration of the edge processing unit 800 is not particularly limited, but in this embodiment, the edge processing unit 800 is used.
Has a block buffer 800a, a filter 800b, and a table 800c. The block buffer 800a is a buffer that temporarily stores image data. The edge processing unit 800 records image data (base image data corresponding to a part of the image area) used in the base image processing (edge detection processing) in the block buffer 800a (buffering processing). The filter 800b is a filter for edge detection processing. The edge processing unit 800 detects an edge from the image data by performing a filtering process using the filter 800b on the image data stored in the block buffer 800a. In the present embodiment, a process for changing the Y value of the edge is assumed as the edge enhancement process. Specifically, as the edge enhancement process, a process of multiplying the Y value of the edge by a gain value (≠ 1) is assumed. The table 800c is a table showing a correspondence relationship between the edge detection result and the edge enhancement gain value. The edge processing unit 800 acquires a gain value corresponding to the edge detection result (the obtained detection result) from the table 800c.

なお、エッジ強調処理は、エッジのY値にゲイン値(≠1)を乗算する処理に限られない。例えば、エッジ強調処理では、オフセット値を加算する処理などの他の処理によって、エッジのY値が変更されてもよい。エッジ強調処理では、エッジにおける他の種類の階調値(Cb値、Cr値、等)が変更されてもよい。エッジとは異なる画像領域の階調値が変更されてもよい。   The edge enhancement process is not limited to the process of multiplying the Y value of the edge by the gain value (≠ 1). For example, in the edge enhancement process, the Y value of the edge may be changed by another process such as a process of adding an offset value. In the edge enhancement process, other types of gradation values (Cb value, Cr value, etc.) at the edge may be changed. The gradation value of the image area different from the edge may be changed.

上述したように、本実施例では、エッジ強調処理は、Y値のみを変更し、且つ、Cb値とCr値を変更しない処理である。そこで、本実施例では、処理情報生成部405は、エッジの検出結果とエッジ強調処理のゲイン値とを示す情報を、処理情報として、輝度比率処理部4bへ出力する。そして、処理情報生成部405は、色差差分データを変更しないことを示す情報を、処理情報として、色差差分処理部4cへ出力する。具体的には、エッジの検出結果とエッジ強調処理のゲイン値とを示す処理情報が、HDR−Y値判断部407と補正比率決定部408へ出力される。そして、色差差分データを変更しないことを示す処理情報が、HDR−Cb・Cr値判断部410と補正差分決定部411へ出力される。その結果、輝度比率処理部4bでは、輝度比率データが補正されて出力され、色差差分処理部4cでは、色差差分データが変更されずに出力される。なお、本実施例において、ベース画像処理はエッジ検出処理であるため、「エッジの検出結果」は「ベース画像処理の結果」である。   As described above, in this embodiment, the edge emphasis process is a process that changes only the Y value and does not change the Cb value and the Cr value. Therefore, in this embodiment, the processing information generation unit 405 outputs information indicating the edge detection result and the gain value of the edge enhancement processing to the luminance ratio processing unit 4b as processing information. Then, the processing information generation unit 405 outputs information indicating that the color difference difference data is not changed to the color difference difference processing unit 4c as processing information. Specifically, processing information indicating the edge detection result and the gain value of the edge enhancement processing is output to the HDR-Y value determination unit 407 and the correction ratio determination unit 408. Then, processing information indicating that the color difference difference data is not changed is output to the HDR-Cb / Cr value determination unit 410 and the correction difference determination unit 411. As a result, the luminance ratio processing unit 4b corrects and outputs the luminance ratio data, and the color difference difference processing unit 4c outputs the color difference difference data without being changed. In this embodiment, since the base image processing is edge detection processing, the “edge detection result” is “base image processing result”.

図7は、本実施例に係る表示装置1の処理フローの一例を示すフローチャートである。図7を用いて、本実施例に係る表示装置1の処理フローの一例を説明する。図7において、実施例1(図3)と同じ処理には、実施例1と同じ符号が付されている。   FIG. 7 is a flowchart illustrating an example of a processing flow of the display device 1 according to the present embodiment. An example of the processing flow of the display device 1 according to the present embodiment will be described with reference to FIG. In FIG. 7, the same processes as those in the first embodiment (FIG. 3) are denoted by the same reference numerals as those in the first embodiment.

まず、実施例1と同様に、S101〜S104の処理が行われる。次に、エッジ処理部800は、S301の処理を行う。S301では、エッジ処理部800は、S103の処理が施された後のベース画像データ(各画素値がYCbCr値へ変換された後のベース画像データ)を用いて、エッジ検出処理を行う。   First, similarly to the first embodiment, the processes of S101 to S104 are performed. Next, the edge processing unit 800 performs the process of S301. In S301, the edge processing unit 800 performs edge detection processing using the base image data (base image data after each pixel value is converted into a YCbCr value) after the processing in S103 is performed.

S301の処理により、ベース画像処理が行われた後のベース画像データ(エッジ強調処理が施された後のベース画像データ)が得られる。上述したように、ベース画像処理が行われた後のベース画像データの画素値であるYCbCr値(Y’,Cb’,Cr’)は、合成部5へ出力される。そして、Y値(Y’)は、ベース画像処理の結果として輝度比率処理部4bへ出力され、Cb値(Cb’)とCr値(Cr’)は、ベース画像処理の結果として色差差分処理部4cへ出力される。本実施例では、YCbCr値(Y’,Cb’,Cr’)は、ベース画像処理が行われる前のベース画像データの画素値であるYCbCr値(Y,Cb,Cr)と等しい。   Through the processing in S301, base image data after the base image processing (base image data after the edge enhancement processing) is obtained. As described above, the YCbCr values (Y ′, Cb ′, Cr ′) that are the pixel values of the base image data after the base image processing is performed are output to the synthesizing unit 5. The Y value (Y ′) is output to the luminance ratio processing unit 4b as a result of the base image processing, and the Cb value (Cb ′) and the Cr value (Cr ′) are output as the color difference difference processing unit as a result of the base image processing. To 4c. In this embodiment, the YCbCr value (Y ′, Cb ′, Cr ′) is equal to the YCbCr value (Y, Cb, Cr) that is the pixel value of the base image data before the base image processing is performed.

S301の処理の次に、S110へ処理が進められる。本実施例でも、S104の処理の後且つS110の処理の前の期間に、輝度比率処理部4bと色差差分処理部4cにより、S107〜S109の処理が行われる。S109の処理の次に、S110へ処理が進められる。   Following the process of S301, the process proceeds to S110. Also in the present embodiment, the processing of S107 to S109 is performed by the luminance ratio processing unit 4b and the color difference difference processing unit 4c after the processing of S104 and before the processing of S110. Following the processing of S109, the processing proceeds to S110.

但し、輝度比率処理部4b(HDR−Y値判断部407)は、S108にて、オフセット値、ゲイン値、変換特性、等ではなく、エッジの検出結果とエッジ強調処理のゲイン値とに基づいて、Y値(HDR_Y)を判断する。例えば、元画像データのY値(Y×r)にエッジ強調処理のゲイン値を乗算することにより、Y値(HDR_Y)が算出される。エッジのゲイン値として1とは異なる値を使用し、且つ、エッジとは異なる画像領域のゲイン値として1を使用することにより、エッジとは異なる画像領域のY値は元画像データのY値から変更されず、エッジのY値のみが元画像データのY値から変更される。エッジとは異なる画像領域については、元画像データのY値にゲイン値を乗算する処理は省略されてもよい。エッジの検出結果とエッジ強調処理のゲイン値とは、エッジの検出結果とエッジ強調処理のゲイン値とを示す処理情報から判断される。   However, the luminance ratio processing unit 4b (HDR-Y value determination unit 407) is based on the edge detection result and the gain value of the edge emphasis process in S108, not the offset value, the gain value, the conversion characteristic, or the like. , Y value (HDR_Y) is determined. For example, the Y value (HDR_Y) is calculated by multiplying the Y value (Y × r) of the original image data by the gain value of the edge enhancement process. By using a value different from 1 as the gain value of the edge and using 1 as the gain value of the image area different from the edge, the Y value of the image area different from the edge is obtained from the Y value of the original image data. Only the Y value of the edge is changed from the Y value of the original image data without being changed. For an image area different from the edge, the process of multiplying the Y value of the original image data by the gain value may be omitted. The edge detection result and the edge enhancement gain value are determined from processing information indicating the edge detection result and the edge enhancement gain value.

また、色差差分処理部4cは、S108の処理(Cb値(HDR_Cb)とCr値(HDR_Cr)の判断)を省略し、S107とS109の処理を行う。HDR−Cb・Cr値判断部410は、色差差分データを変更しないことを示す処理情報から、S108の処理の省略を決定する。そして、HDR−Cb・Cr値判断部410は、色差差分値db,drを補正差分決定部411へ出力する。色差差分データを変更しないことを示す処理情報と、色差差分値db,drとが補正差分決定部411へ入力されると、補正差分決定部411は、S109にて、色差差分値db,drを補正差分値db’,dr’として決定する処理を行う。   The color difference difference processing unit 4c omits the processing of S108 (determination of Cb value (HDR_Cb) and Cr value (HDR_Cr)), and performs the processing of S107 and S109. The HDR-Cb / Cr value determination unit 410 determines to omit the processing of S108 from the processing information indicating that the color difference difference data is not changed. Then, the HDR-Cb / Cr value determination unit 410 outputs the color difference difference values db and dr to the correction difference determination unit 411. When processing information indicating that the color difference difference data is not changed and the color difference difference values db and dr are input to the correction difference determination unit 411, the correction difference determination unit 411 determines the color difference difference values db and dr in S109. Processing to determine the correction difference values db ′ and dr ′ is performed.

本実施例の方法でも、処理情報(エッジの検出結果とエッジ強調処理のゲイン値)などに基づいて差分データ(輝度比率データ)が補正される。そのため、合成画像データとして、元画像データに所望の画像処理を施すことによって得られる画像データと略同一の画像データを得ることができる。   Also in the method of this embodiment, difference data (luminance ratio data) is corrected based on processing information (edge detection result and edge enhancement gain value) and the like. Therefore, it is possible to obtain substantially the same image data as the composite image data, which is obtained by performing desired image processing on the original image data.

以上述べたように、本実施例によれば、ベース画像処理として所望の画像処理の一部が行われる構成において、実施例1と同様に、行われたベース画像処理に基づいて差分データが補正される。そして、ベース画像処理が行われた後のベース画像データと、補正された後の差分データとから、合成画像データが生成される。それにより、画像処理が施された後のHDR画像データに対応する画像データとして、所望の画像データを、簡易な構成で且つ高精度に得ることができる。上記具体例によれば、「8ビットのデータ処理」と「データ処理後のデータの合成」とを行うことで、32ビットのHDR画像データ(元画像データ)に所望の画像処理を施すことによって得られる画像データと略同一の画像データを得ることができる。そのため、所望の画像処理の処理負荷、回路規模、等を低減できる。例えば、フィルタリング処理に使用されるフィルタのデータサイズ、バッファリング処理に使用されるブロックバッファの記憶容量、等を低減することができる。その結果、表示装置(画像処理装置)の処理負荷、消費電力、製造コスト、等を低減することができる。   As described above, according to the present embodiment, in the configuration in which a part of desired image processing is performed as the base image processing, the difference data is corrected based on the performed base image processing as in the first embodiment. Is done. Then, composite image data is generated from the base image data after the base image processing is performed and the corrected difference data. Thereby, desired image data can be obtained with high accuracy and simple configuration as image data corresponding to HDR image data after image processing. According to the above specific example, by performing “8-bit data processing” and “combining data after data processing”, by performing desired image processing on 32-bit HDR image data (original image data). Image data substantially the same as the obtained image data can be obtained. Therefore, it is possible to reduce the processing load of desired image processing, the circuit scale, and the like. For example, the data size of a filter used for filtering processing, the storage capacity of a block buffer used for buffering processing, and the like can be reduced. As a result, the processing load, power consumption, manufacturing cost, etc. of the display device (image processing device) can be reduced.

なお、所定の画像領域はエッジに限られない。例えば、所定の画像領域は、山、人物、自動車、建物、等の所定の物体に対応する画像領域であってもよい。ベース画像処理は、所定の画像領域の検出結果に基づいて階調値を変更する処理を含んでもよい。その場合には、「所定の画像領域(エッジ)の検出結果」は「ベース画像処理で使用されたパラメータ」とも言える。「所定の画像領域の検出結果に基づいて階調値を変更する処理」はエッジ強調処理に限られない。例えば、「所定の画像領域の検出結果に基づいて階調値を変更
する処理」は「所定の画像領域をぼかす処理」であってもよい。エッジ強調処理のゲイン値は処理情報に含まれていなくてもよい。エッジのゲイン値が所定の固定値である場合には、エッジの検出結果(ベース画像処理の結果)のみを用いて輝度比率データを補正することができる。
The predetermined image area is not limited to the edge. For example, the predetermined image area may be an image area corresponding to a predetermined object such as a mountain, a person, a car, or a building. The base image processing may include processing for changing the gradation value based on the detection result of a predetermined image area. In this case, the “predetermined image region (edge) detection result” can also be said to be “a parameter used in the base image processing”. The “process for changing the gradation value based on the detection result of the predetermined image area” is not limited to the edge enhancement process. For example, the “process for changing the gradation value based on the detection result of the predetermined image area” may be the “process for blurring the predetermined image area”. The gain value of the edge enhancement process may not be included in the process information. When the edge gain value is a predetermined fixed value, the luminance ratio data can be corrected using only the edge detection result (the result of the base image processing).

なお、実施例1〜3はあくまで一例であり、本発明の要旨の範囲内で実施例1〜3の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1〜3の構成を適宜組み合わせて得られる構成も、本発明に含まれる。   In addition, Examples 1-3 are an example to the last, and the structure obtained by changing suitably and changing the structure of Examples 1-3 within the range of the summary of this invention is also contained in this invention. Configurations obtained by appropriately combining the configurations of Examples 1 to 3 are also included in the present invention.

<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1:表示装置 2:レシーバ 3:デコード部 4:画像処理部
4a:ベース画像処理部 4b:輝度比率処理部 4c:色差差分処理部
5:合成部
1: Display device 2: Receiver 3: Decoding unit 4: Image processing unit 4a: Base image processing unit 4b: Luminance ratio processing unit 4c: Color difference difference processing unit 5: Composition unit

Claims (15)

第1画像データ、及び、前記第1画像データと、前記第1画像データよりもデータサイズが大きい第2画像データとの差分に関する差分データを取得する取得手段と、
前記第1画像データを用いてデータ処理を行う処理手段と、
前記データ処理に基づいて前記差分データを補正する補正手段と、
前記データ処理が行われた後の第1画像データと、補正された後の差分データとから、第3画像データを生成する生成手段と、
を有することを特徴とする画像処理装置。
Acquisition means for acquiring first image data and difference data relating to a difference between the first image data and second image data having a data size larger than the first image data;
Processing means for performing data processing using the first image data;
Correction means for correcting the difference data based on the data processing;
Generating means for generating third image data from the first image data after the data processing and the corrected difference data;
An image processing apparatus comprising:
前記第3画像データは、前記第2画像データと同じデータフォーマットを有する画像データである
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the third image data is image data having the same data format as the second image data.
前記データ処理は、画像データの階調値を変更する画像処理の少なくとも一部であり、
前記第3画像データは、前記第2画像データに前記画像処理を施すことによって得られる画像データと略一致する
ことを特徴とする請求項1または2に記載の画像処理装置。
The data processing is at least a part of image processing for changing a gradation value of image data,
The image processing apparatus according to claim 1, wherein the third image data substantially matches image data obtained by performing the image processing on the second image data.
前記第1画像データのビット数は、第1ビット数であり、
前記第2画像データのビット数と、前記第3画像データのビット数とは、前記第1ビット数よりも多い第2ビット数である
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
The number of bits of the first image data is a first number of bits,
The number of bits of the second image data and the number of bits of the third image data are a second number of bits larger than the first number of bits. An image processing apparatus according to 1.
前記第2画像データは、前記第1画像データの輝度域と色域の少なくとも一方を拡大した画像データである
ことを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the second image data is image data obtained by enlarging at least one of a luminance range and a color gamut of the first image data.
前記差分データは、前記第1画像データの輝度と前記第2画像データの輝度との差分に関する輝度差分データ、及び、前記第1画像データの色と前記第2画像データの色との差分に関する色差分データの少なくとも一方を含み、
前記補正手段は、前記輝度差分データと前記色差分データの少なくとも一方を補正することを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
The difference data includes luminance difference data relating to a difference between the luminance of the first image data and the luminance of the second image data, and a color relating to a difference between the color of the first image data and the color of the second image data. Including at least one of the differential data,
The image processing apparatus according to claim 1, wherein the correction unit corrects at least one of the luminance difference data and the color difference data.
前記補正手段は、前記データ処理で使用されたパラメータと、前記データ処理の結果との少なくとも一方を用いて前記差分データを補正する
ことを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。
The said correction | amendment means correct | amends the said difference data using at least one of the parameter used by the said data processing, and the result of the said data processing, The any one of Claims 1-6 characterized by the above-mentioned. Image processing apparatus.
前記データ処理は、設定されたゲイン値を画像データの階調値に乗算する処理と、設定されたオフセット値を画像データの階調値に加算する処理との少なくとも一方を含み、
前記補正手段は、前記ゲイン値と前記オフセット値の少なくとも一方を用いて前記差分データを補正する
ことを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
The data processing includes at least one of a process of multiplying the set gain value by the gradation value of the image data and a process of adding the set offset value to the gradation value of the image data,
The image processing apparatus according to claim 1, wherein the correction unit corrects the difference data using at least one of the gain value and the offset value.
前記データ処理は、画像データの特徴量を取得する処理を含み、
前記補正手段は、前記特徴量を少なくとも用いて前記差分データを補正する
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。
The data processing includes processing for acquiring a feature amount of image data,
The image processing apparatus according to claim 1, wherein the correction unit corrects the difference data using at least the feature amount.
前記データ処理は、画像データの特徴量を取得し、取得した特徴量に応じたパラメータを用いて画像データの階調値を変更する処理を含み、
前記補正手段は、前記特徴量に応じた前記パラメータを少なくとも用いて前記差分データを補正する
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。
The data processing includes a process of acquiring a feature amount of image data and changing a gradation value of the image data using a parameter corresponding to the acquired feature amount,
The image processing apparatus according to claim 1, wherein the correction unit corrects the difference data by using at least the parameter according to the feature amount.
前記データ処理は、所定の画像領域を検出する処理を含み、
前記補正手段は、前記所定の画像領域の検出結果を少なくとも用いて前記差分データを補正する
ことを特徴とする請求項1〜10のいずれか1項に記載の画像処理装置。
The data processing includes processing for detecting a predetermined image area,
The image processing apparatus according to claim 1, wherein the correction unit corrects the difference data by using at least a detection result of the predetermined image region.
前記第3画像データを、表示部に対応するデータフォーマットを有し、且つ、前記第3画像データよりもデータサイズが小さい第4画像データへ変換する変換手段、をさらに有する
ことを特徴とする請求項1〜11のいずれか1項に記載の画像処理装置。
The image processing apparatus further comprises conversion means for converting the third image data into fourth image data having a data format corresponding to a display unit and having a data size smaller than that of the third image data. Item 12. The image processing device according to any one of Items 1 to 11.
前記データ処理は、画像データの階調値を変更する画像処理の少なくとも一部であり、
前記取得手段によって、前記第1画像データと前記差分データが取得されずに、第5画像データが取得された場合に、
前記変換手段は、前記第5画像データを、前記表示部に対応する前記データフォーマットを有し、且つ、前記第5画像データよりもデータサイズが小さい第6画像データへ変換し、
前記処理手段は、前記第6画像データに前記画像処理を施し、
前記補正手段と前記生成手段とは処理を省略する
ことを特徴とする請求項12に記載の画像処理装置。
The data processing is at least a part of image processing for changing a gradation value of image data,
When the fifth image data is acquired without acquiring the first image data and the difference data by the acquisition unit,
The converting means converts the fifth image data into sixth image data having the data format corresponding to the display unit and having a data size smaller than the fifth image data,
The processing means performs the image processing on the sixth image data,
The image processing apparatus according to claim 12, wherein the correction unit and the generation unit omit processing.
第1画像データ、及び、前記第1画像データと、前記第1画像データよりもデータサイズが大きい第2画像データとの差分に関する差分データを取得するステップと、
前記第1画像データを用いてデータ処理を行うステップと、
前記データ処理に基づいて前記差分データを補正するステップと、
前記データ処理が行われた後の第1画像データと、補正された後の差分データとから、第3画像データを生成するステップと、
を有することを特徴とする画像処理方法。
Obtaining difference data relating to a difference between the first image data and the first image data and second image data having a data size larger than the first image data;
Performing data processing using the first image data;
Correcting the difference data based on the data processing;
Generating third image data from the first image data after the data processing is performed and the corrected difference data;
An image processing method comprising:
請求項14に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。   The program for making a computer perform each step of the image processing method of Claim 14.
JP2016100063A 2016-05-19 2016-05-19 Image processing apparatus Pending JP2017208719A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016100063A JP2017208719A (en) 2016-05-19 2016-05-19 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016100063A JP2017208719A (en) 2016-05-19 2016-05-19 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2017208719A true JP2017208719A (en) 2017-11-24

Family

ID=60416599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016100063A Pending JP2017208719A (en) 2016-05-19 2016-05-19 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2017208719A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038505A (en) * 2018-09-04 2020-03-12 キヤノン株式会社 Image processing device, capturing device, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038505A (en) * 2018-09-04 2020-03-12 キヤノン株式会社 Image processing device, capturing device, image processing method, and program
JP7227719B2 (en) 2018-09-04 2023-02-22 キヤノン株式会社 IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP6443857B2 (en) Image processing apparatus, image processing method, and program
JP4214457B2 (en) Image processing apparatus and method, recording medium, and program
US8582923B2 (en) Image processing apparatus, image processsing method, and program
JP4523008B2 (en) Image processing apparatus and imaging apparatus
TW201030669A (en) Real-time image generator
JP4872508B2 (en) Image processing apparatus, image processing method, and program
JP2007180851A (en) Gray scale transformation device, program and method for raw image, and electronic camera
JP2011015277A (en) Image processing device, image processing method, image processing program, and recording medium recording image processing program
JP2017208719A (en) Image processing apparatus
JPWO2017203941A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
US20150312538A1 (en) Image processing apparatus that performs tone correction and edge enhancement, control method therefor, and storage medium
JP2006114006A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
JP5365881B2 (en) Image processing apparatus and image processing method
JP2019096049A (en) Image generation device and method
JP5846885B2 (en) Image processing apparatus and image processing method
JP2018133043A (en) Image processing device and image processing method
JP4632100B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP5111310B2 (en) Image processing method and image processing apparatus
JP2016045392A (en) Image processor, image processing method, and program
JP2011199787A (en) Image processing apparatus and image processing method
JP6318497B2 (en) Image processing apparatus, imaging apparatus, and program
JP5277388B2 (en) Image processing apparatus and imaging apparatus
JP5582966B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JPH10173958A (en) Video signal processor
JP2012147052A (en) Image processing apparatus, image processing program, and image processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116