JP6355345B2 - Image processing apparatus, image processing method, display apparatus, display method, and program - Google Patents

Image processing apparatus, image processing method, display apparatus, display method, and program Download PDF

Info

Publication number
JP6355345B2
JP6355345B2 JP2014014515A JP2014014515A JP6355345B2 JP 6355345 B2 JP6355345 B2 JP 6355345B2 JP 2014014515 A JP2014014515 A JP 2014014515A JP 2014014515 A JP2014014515 A JP 2014014515A JP 6355345 B2 JP6355345 B2 JP 6355345B2
Authority
JP
Japan
Prior art keywords
image data
data
input
difference data
base image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014014515A
Other languages
Japanese (ja)
Other versions
JP2015142275A (en
Inventor
哲二 齊藤
哲二 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014014515A priority Critical patent/JP6355345B2/en
Publication of JP2015142275A publication Critical patent/JP2015142275A/en
Application granted granted Critical
Publication of JP6355345B2 publication Critical patent/JP6355345B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は、画像処理装置、画像処理方法、表示装置、表示方法、及び、プログラムに関する。   The present invention relates to an image processing device, an image processing method, a display device, a display method, and a program.

近年、ダイナミックレンジの広い画像データであるHDR(High Dynamic
Range)画像データを扱う機会が増している。また、HDR画像データのフォーマットとして、JPEG−HDRが提案されている。
JPEG−HDRは、HDR画像データをベース画像データと差分データで表現したフォーマットである。差分データは、例えば、輝度差分データ、色差分データ、又は、それら両方を含む。
In recent years, HDR (High Dynamic) which is image data with a wide dynamic range.
Range) Opportunities to handle image data are increasing. Further, JPEG-HDR has been proposed as a format of HDR image data.
JPEG-HDR is a format in which HDR image data is expressed by base image data and difference data. The difference data includes, for example, luminance difference data, color difference data, or both.

HDR画像データは、例えば、Y値、Cb値、及び、Cr値のそれぞれが32ビット相当の階調値である画像データである。なお、HDR画像データは、画素値がY値、Cb値、及び、Cr値の組み合わせであるYCbCrデータであってもよいし、画素値がR値、G値、及び、B値の組み合わせであるRGBデータであってもよい。
ベース画像データは、HDR画像データをダウンサンプリング(階調圧縮)したJPEG規格の画像データである。ベース画像データは、例えば、Y値、Cb値、及び、Cr値のそれぞれが8ビット相当の階調値である画像データである。なお、HDR画像データは、YCbCrデータであってもよいし、RGBデータであってもよい。
The HDR image data is, for example, image data in which each of the Y value, the Cb value, and the Cr value is a gradation value corresponding to 32 bits. The HDR image data may be YCbCr data in which the pixel value is a combination of the Y value, the Cb value, and the Cr value, and the pixel value is a combination of the R value, the G value, and the B value. It may be RGB data.
The base image data is JPEG standard image data obtained by down-sampling (gradation compression) HDR image data. The base image data is, for example, image data in which each of the Y value, Cb value, and Cr value is a gradation value equivalent to 8 bits. The HDR image data may be YCbCr data or RGB data.

輝度差分データは、画像データのダイナミックレンジを拡大する輝度域拡大処理で使用されるデータであり、HDR画像データとベース画像データの輝度値の差分を表すデータである。例えば、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)とHDR画像データの輝度値(階調値)との比率である輝度比率を表す輝度比率データである。即ち、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)に対するHDR画像データの輝度値(階調値)の比率またはその逆数を表す輝度比率データである。ただし、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)とHDR画像データの輝度値(階調値)の一方から他方を減算した差分値である輝度差分値を表すデータであってもよい。また、輝度差分データは、輝度域拡大処理における入力輝度値と出力輝度値との対応関係を表す輝度変換テーブルデータであってもよい。なお、輝度域拡大処理は、ベース画像データで表現しきれていない輝度を再現する処理と言うこともできる。   The luminance difference data is data used in the luminance range expansion process for expanding the dynamic range of the image data, and is data representing the difference between the luminance values of the HDR image data and the base image data. For example, the luminance difference data is a ratio between the luminance value (gradation value) of the base image data and the luminance value (gradation value) of the HDR image data in pixel units (or in units of regions including a predetermined number of pixels). This is luminance ratio data representing the luminance ratio. That is, the luminance difference data is the ratio of the luminance value (gradation value) of the HDR image data to the luminance value (gradation value) of the base image data or the reciprocal thereof in pixel units (or an area unit composed of a predetermined number of pixels). Is luminance ratio data representing However, the luminance difference data is obtained by subtracting one from the luminance value (gradation value) of the base image data and the luminance value (gradation value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). Data representing a luminance difference value which is a subtracted difference value may be used. Further, the luminance difference data may be luminance conversion table data representing a correspondence relationship between the input luminance value and the output luminance value in the luminance range expansion process. Note that the luminance range expansion processing can also be said to be processing for reproducing luminance that cannot be expressed in the base image data.

色差分データは、画像データの色域を拡大する色域拡大処理で使用されるデータであり、HDR画像データとベース画像データの色の差分を表すデータである。例えば、色差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの色差値(Cb値、Cr値)とHDR画像データの色差値(Cb値、Cr値)の一方から他方を減算した差分値である色差分値を表すデータである。ただし、色差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの色差値(Cb値、Cr値)とHDR画像データの色差値(Cb値、Cr値)との比率である色比率を表す色差比率データであってもよい。また、色差分値や色比率は、色差値の代わりに、R値、G値、及びB値を用いて算出された値であってもよい。なお、色域拡大処理は、ベース画像データで表現しきれていない色を再現する処理と言うこともできる。   The color difference data is data used in the color gamut expansion process for expanding the color gamut of the image data, and is data representing the color difference between the HDR image data and the base image data. For example, the color difference data is a color difference value (Cb value, Cr value) of the base image data and a color difference value (Cb value, Cr value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). This is data representing a color difference value which is a difference value obtained by subtracting the other from one. However, the color difference data is a color difference value (Cb value, Cr value) of the base image data and a color difference value (Cb value, Cr value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). Color difference ratio data representing a color ratio that is a ratio of Further, the color difference value and the color ratio may be values calculated using R value, G value, and B value instead of the color difference value. Note that the color gamut expansion processing can be said to be processing for reproducing colors that cannot be expressed by the base image data.

JPEG−HDRを使用することにより、従来から使用されているJPEG規格の画像
データの表示と、HDR画像データの表示との両方を行うことが可能となる(特許文献1)。従来から使用されているJPEG規格の画像データは、例えば、Y値、Cb値、及び、Cr値のそれぞれが8ビット相当の階調値である画像データである。従来から使用されているJPEG規格の画像データを表示したい場合には、ベース画像データを表示すればよい。HDR画像データを表示したい場合には、ベース画像データと差分データを用いてHDR画像データを復元し、復元したHDR画像データを表示すればよい。より具体的には、ベース画像データと、輝度差分データ及び色差分データの少なくとも一方と、を用いてHDR画像データが復元されてもよい。
By using JPEG-HDR, it is possible to display both JPEG standard image data and HDR image data that have been used conventionally (Patent Document 1). Conventionally used JPEG image data is, for example, image data in which each of a Y value, a Cb value, and a Cr value is a gradation value equivalent to 8 bits. In order to display JPEG standard image data used in the past, the base image data may be displayed. When it is desired to display the HDR image data, the HDR image data may be restored using the base image data and the difference data, and the restored HDR image data may be displayed. More specifically, HDR image data may be restored using base image data and at least one of luminance difference data and color difference data.

上述したように、HDR画像データは、Y値、Cb値、及び、Cr値のそれぞれが32ビット相当の階調値である画像データである。しかしながら、表示装置で表示可能な階調値のビット数が32ビット相当であるとは限らない。例えば、表示装置で表示可能な階調値のビット数が32ビットより少ない10ビットであることがある。そのような場合には、表示装置で表示可能なビット数までHDR画像データのビット数が低減され、ビット数の低減後のHDR画像データが表示される。即ち、表示装置で表示可能な画像データのダイナミックレンジまでHDR画像データのダイナミックレンジが縮小され、ダイナミックレンジの縮小後のHDR画像データが表示される。   As described above, the HDR image data is image data in which each of the Y value, the Cb value, and the Cr value is a gradation value equivalent to 32 bits. However, the number of bits of the gradation value that can be displayed by the display device is not necessarily 32 bits. For example, the number of bits of the gradation value that can be displayed on the display device may be 10 bits, which is less than 32 bits. In such a case, the number of bits of the HDR image data is reduced to the number of bits that can be displayed by the display device, and the HDR image data after the reduction of the number of bits is displayed. That is, the dynamic range of the HDR image data is reduced to the dynamic range of the image data that can be displayed on the display device, and the HDR image data after the reduction of the dynamic range is displayed.

JPEG−HDRが普及すると、撮影現場において、撮影されたHDR画像データがストリーミング再生されることが考えられる。具体的には、撮影装置が、撮影によってJPEG−HDRのデータを生成し、生成したJPEG−HDRのデータを表示装置(ディスプレイ)に出力する処理を次々に行うことが考えられる。そして、表示装置が、JPEG−HDRのデータを取得し、取得したデータからHDR画像データを復元し、復元したHDR画像データを表示する処理を次々に行うことが考えられる。それにより、表示装置をライブビュー用のディスプレイとして用いて、リアルタイムに撮影結果を確認することが可能となる。
また、撮影現場に限らず、JPEG−HDRのデータが画像処理装置から表示装置に送られることが考えられる。そして、表示装置が、取得したJPEG−HDRのデータからHDR画像データを復元し、復元したHDR画像データを表示することが考えられる。
When JPEG-HDR becomes widespread, it is conceivable that captured HDR image data is streamed and reproduced at the shooting site. Specifically, it is conceivable that the image capturing device generates JPEG-HDR data by image capturing, and sequentially performs processing for outputting the generated JPEG-HDR data to a display device (display). Then, it is conceivable that the display device sequentially acquires JPEG-HDR data, restores HDR image data from the acquired data, and displays the restored HDR image data. Accordingly, it is possible to check the photographing result in real time using the display device as a display for live view.
Further, it is conceivable that JPEG-HDR data is sent from the image processing apparatus to the display apparatus, not limited to the shooting site. Then, it is conceivable that the display device restores the HDR image data from the acquired JPEG-HDR data and displays the restored HDR image data.

撮影現場や画像制作現場で使用されている既存のSDIケーブルを使用してストリーム形式のHDR画像データが表示装置に出力されることが考えられる。換言すれば、HDR画像データが表示装置にストリーム転送されることが考えられる。
SDIケーブルを使用することにより、既存のケーブルが使用できるというメリットと、デイジーチェーンで複数の機器を接続できるというメリットと、を得ることができる。
しかし、SDIケーブルではJPEG−HDRファイル(ファイル形式のJPEG−HDRのデータ)を伝送することは出来ない。
また、HDR対応機(HDR画像データに対応した表示装置)ではHDR画像データを適切に表示することができるが、HDR非対応機(HDR画像データに対応していない表示装置)ではHDR画像データを適切に表示することはできない。そのため、HDR画像データを表示装置に出力するよりも、JPEG−HDRのデータを表示装置に出力することが望ましい。
なお、様々な差分データを用いれば、様々なHDR画像データを得ることができ、様々なHDR画像データを確認することが可能となる。
It is conceivable that stream-format HDR image data is output to a display device using an existing SDI cable used at a shooting site or an image production site. In other words, it is conceivable that the HDR image data is stream-transferred to the display device.
By using the SDI cable, it is possible to obtain an advantage that an existing cable can be used and an advantage that a plurality of devices can be connected in a daisy chain.
However, the SDI cable cannot transmit JPEG-HDR files (file format JPEG-HDR data).
In addition, HDR image data can be appropriately displayed on an HDR compatible device (display device that supports HDR image data), but HDR image data cannot be displayed on a non-HDR compatible device (display device that does not support HDR image data). It cannot be displayed properly. Therefore, it is desirable to output JPEG-HDR data to the display device rather than outputting HDR image data to the display device.
In addition, if various difference data are used, various HDR image data can be obtained and various HDR image data can be confirmed.

また近年、液晶表示装置のバックライトの発光輝度を領域毎に制御することにより、表示画像(画面に表示された画像)のダイナミックレンジを拡大する技術が一般的になりつつある。
そして、ベース画像データのダイナミックレンジだけでなくバックライトの発光輝度を差分データに基づいて制御することができれば、液晶パネルの透過率を制御するだけでは
表示しきれなかった輝度をバックライトの発光輝度に割り当てることができる。その結果、よりダイナミックレンジが広い表示画像を得ることができる。例えば、表示装置で表示可能な階調値のビット数が10ビットである場合に、10ビット相当のダイナミックレンジよりもダイナミックレンジが広い表示画像を得ることができる。
このような観点から、JPEG−HDRのデータを表示装置に出力することが望ましい。
In recent years, a technique for expanding the dynamic range of a display image (an image displayed on a screen) by controlling the light emission luminance of a backlight of a liquid crystal display device for each region is becoming common.
If not only the dynamic range of the base image data but also the backlight emission brightness can be controlled based on the difference data, the brightness that could not be displayed simply by controlling the transmittance of the liquid crystal panel is reduced. Can be assigned to. As a result, a display image with a wider dynamic range can be obtained. For example, when the number of bits of the gradation value that can be displayed on the display device is 10 bits, a display image having a wider dynamic range than the dynamic range corresponding to 10 bits can be obtained.
From such a viewpoint, it is desirable to output JPEG-HDR data to a display device.

JPEG規格の画像データの伝送に関する従来技術は、例えば、特許文献2に開示されている。特許文献2に開示の技術では、4:1:1の画像データを伝送する場合には画像データのみが伝送され、4:2:2の画像データを伝送する場合には画像データだけでなくエンハンスメントデータも伝送される。
特許文献2に開示の技術では、輝度(Y)データと色(C)データを足し合わせて圧縮符号化することにより、4:1:1の圧縮画像データ(第1圧縮画像データ)が生成される。
また、特許文献2に開示の技術では、色(C)データがアップコンバートされる。そして、輝度(Y)データとアップコンバートされた色(C)データを足し合わせて圧縮符号化することにより、4:2:2の圧縮画像データ(第2圧縮画像データ)が生成される。その後、第1圧縮画像データと第2圧縮画像データの差分が、エンハンスメントデータとして取得される。
そして、特許文献2に開示の技術では、生成された第1圧縮画像データとエンハンスメント画像データが伝送される。
For example, Patent Document 2 discloses a conventional technique related to transmission of JPEG image data. In the technique disclosed in Patent Document 2, only image data is transmitted when 4: 1: 1 image data is transmitted, and not only image data but also enhancement is transmitted when 4: 2: 2 image data is transmitted. Data is also transmitted.
In the technique disclosed in Patent Document 2, 4: 1: 1 compressed image data (first compressed image data) is generated by adding and coding luminance (Y) data and color (C) data. The
In the technique disclosed in Patent Document 2, color (C) data is up-converted. Then, the luminance (Y) data and the up-converted color (C) data are added and subjected to compression encoding, thereby generating 4: 2: 2 compressed image data (second compressed image data). Thereafter, the difference between the first compressed image data and the second compressed image data is acquired as enhancement data.
In the technique disclosed in Patent Document 2, the generated first compressed image data and enhancement image data are transmitted.

特許文献2に開示の技術を用いれば、HDR画像データを伝送する場合にベース画像データと差分データが伝送されるように、伝送対象のデータを制御することができる。
しかしながら、特許文献2に開示の技術を用いた場合、ベース画像データと差分データからHDR画像データを復元する際に、誤った差分データが使用され、HDR画像データが正確に復元されないことがある。複数のデータを受け付ける装置に、ベース画像データA1に対応する差分データA2と、ベース画像データB1に対応する差分データB2と、が入力されることがある。そして、そのような場合に、ベース画像データA1と差分データB2を使用して誤ったHDR画像データが復元されてしまうことがある。また、ベース画像データB1と差分データA2を使用して誤ったHDR画像データが復元されてしまうことがある。誤った差分データを使用してしまうと、表示画像の品質が低下してしまう。
If the technique disclosed in Patent Document 2 is used, the transmission target data can be controlled so that the base image data and the difference data are transmitted when the HDR image data is transmitted.
However, when the technique disclosed in Patent Document 2 is used, when restoring HDR image data from base image data and difference data, wrong difference data may be used, and HDR image data may not be restored accurately. The difference data A2 corresponding to the base image data A1 and the difference data B2 corresponding to the base image data B1 may be input to a device that accepts a plurality of data. In such a case, erroneous HDR image data may be restored using the base image data A1 and the difference data B2. In addition, erroneous HDR image data may be restored using the base image data B1 and the difference data A2. If incorrect difference data is used, the quality of the display image is degraded.

特開2011−193511号公報JP 2011-193511 A 特開平10−200921号公報Japanese Patent Laid-Open No. 10-200921

本発明の第1の目的は、HDR対応機とHDR非対応機のどちらであっても適切な画像表示ができるようにストリーム形式のHDR画像データを伝送することができる技術を提供することである。本発明の第2の目的は、ベース画像データと差分データを用いてHDR画像データを正確に復元することができる技術を提供することである。   A first object of the present invention is to provide a technique capable of transmitting HDR image data in a stream format so that an appropriate image display can be performed by either an HDR compatible device or an HDR non-compatible device. . A second object of the present invention is to provide a technique capable of accurately restoring HDR image data using base image data and difference data.

本発明の第1の態様は、
入力画像データに基づいて、前記入力画像データよりもダイナミックレンジと色域の少なくとも一方が狭いベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データと、を生成する生成処理を行う生成手段と、
前記ベース画像データと前記差分データの少なくとも一方に、前記ベース画像データと前記差分データの対応関係を表す対応情報を付加する付加処理を行う付加手段と、
前記付加処理が行われた後のベース画像データと差分データを個別に出力する出力手段と

を有し、
前記付加処理では、前記生成処理で生成された差分データに、表示装置での表示ができないことを表す表示不可情報が付加され
ことを特徴とする画像処理装置である。
The first aspect of the present invention is:
Based on input image data, base image data having at least one of a dynamic range and a color gamut narrower than the input image data, and difference data used in an enlargement process for enlarging at least one of the dynamic range and the color gamut of the image data And generating means for performing a generating process for generating
An adding means for performing an adding process of adding correspondence information representing a correspondence relationship between the base image data and the difference data to at least one of the base image data and the difference data;
Output means for individually outputting the base image data and the difference data after the additional processing is performed;
Have
Wherein in addition processing, the difference data generated by the generation processing, an image processing apparatus characterized by displaying failure information indicating the inability to display on the display device Ru is added.

本発明の第2の態様は、
ベース画像データである入力ベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データである入力差分データと、を個別に取得する取得手段と、
前記入力ベース画像データと前記入力差分データの少なくとも一方に、ベース画像データと差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力差分データが前記入力ベース画像データに対応するデータであるか否かを判断する判断手段と、
前記取得手段で前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータであると判断された場合に、前記入力差分データを用いた拡大処理を前記入力ベース画像データに施すことにより、レンジ拡大画像データを生成し、前記取得手段で前記入力差分データが取得されなかった場合には、前記レンジ拡大画像データを生成しない生成手段と、
前記生成手段により前記レンジ拡大画像データが生成された場合に、前記レンジ拡大画像データに基づく画像を表示し、前記生成手段により前記レンジ拡大画像データが生成されない場合には、前記入力ベース画像データに基づく画像を表示する表示手段と、
前記生成手段により前記レンジ拡大画像データが生成されず、且つ、前記表示手段により前記入力ベース画像データに基づく画像が表示される場合に、前記レンジ拡大画像データを生成する処理に必要なデータが取得されていないことをユーザに通知する第1通知手段と、
を有する
ことを特徴とする表示装置である。
本発明の第3の態様は、
ベース画像データである入力ベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データである入力差分データと、を個別に取得する取得手段と、
前記入力ベース画像データと前記入力差分データの少なくとも一方に、ベース画像データと差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力差分データが前記入力ベース画像データに対応するデータであるか否かを判断する判断手段と、
前記取得手段で前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータであると判断された場合に、前記入力差分データを用いた拡大処理を前記入力ベース画像データに施すことにより、レンジ拡大画像データを生成し、前記取得手段で前記入力差分データが取得されなかった場合には、前記レンジ拡大画像データを生成しない生成手段と、
前記生成手段により前記レンジ拡大画像データが生成された場合に、前記レンジ拡大画像データに基づく画像を表示し、前記生成手段により前記レンジ拡大画像データが生成されない場合には、前記入力ベース画像データに基づく画像を表示する表示手段と、
前記生成手段により前記レンジ拡大画像データが生成され、且つ、前記レンジ拡大画像データを生成する処理に要する時間が閾値よりも長い場合に、前記表示手段は、前記入力ベース画像データに基づく画像を表示する
ことを特徴とする表示装置である。
The second aspect of the present invention is:
Acquisition means for individually acquiring input base image data that is base image data, and input difference data that is difference data used in enlargement processing for enlarging at least one of the dynamic range and color gamut of the image data;
When correspondence information indicating the correspondence between the base image data and the difference data is added to at least one of the input base image data and the input difference data, the input difference data is input based on the correspondence information. Determining means for determining whether the data corresponds to the base image data;
The input difference data is acquired by the acquisition means, and when it is determined that the acquired input difference data is data corresponding to the input base image data, an enlargement process using the input difference data is performed as the input A range expansion image data is generated by applying to the base image data, and if the input difference data is not acquired by the acquisition unit, a generation unit that does not generate the range expansion image data ;
When the range expansion image data is generated by the generation unit, an image based on the range expansion image data is displayed. When the range expansion image data is not generated by the generation unit, the input base image data is displayed. Display means for displaying an image based on;
Data required for the processing for generating the range expansion image data is acquired when the range expansion image data is not generated by the generation unit and an image based on the input base image data is displayed by the display unit. First notification means for notifying the user that it has not been performed;
It is a display device characterized by having.
The third aspect of the present invention is:
Acquisition means for individually acquiring input base image data that is base image data, and input difference data that is difference data used in enlargement processing for enlarging at least one of the dynamic range and color gamut of the image data;
When correspondence information indicating the correspondence between the base image data and the difference data is added to at least one of the input base image data and the input difference data, the input difference data is input based on the correspondence information. Determining means for determining whether the data corresponds to the base image data;
The input difference data is acquired by the acquisition means, and when it is determined that the acquired input difference data is data corresponding to the input base image data, an enlargement process using the input difference data is performed as the input A range expansion image data is generated by applying to the base image data, and if the input difference data is not acquired by the acquisition unit, a generation unit that does not generate the range expansion image data;
When the range expansion image data is generated by the generation unit, an image based on the range expansion image data is displayed. When the range expansion image data is not generated by the generation unit, the input base image data is displayed. Display means for displaying an image based on;
The display means displays an image based on the input base image data when the generation means generates the range expansion image data and the time required to generate the range expansion image data is longer than a threshold value. Do
This is a display device.

本発明の第の態様は、
入力画像データに基づいて、前記入力画像データよりもダイナミックレンジと色域の少なくとも一方が狭いベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データと、を生成する生成処理を行う生成ステップと、
前記ベース画像データと前記差分データの少なくとも一方に、前記ベース画像データと前記差分データの対応関係を表す対応情報を付加する付加処理を行う付加ステップと、
前記付加処理が行われた後のベース画像データと輝度差分データを個別に出力する出力ステップと、
を有し、
前記付加ステップでは、前記生成処理で生成された差分データに、表示装置での表示ができないことを表す表示不可情報が付加される
ことを特徴とする画像処理方法である。
The fourth aspect of the present invention is:
Based on input image data, base image data having at least one of a dynamic range and a color gamut narrower than the input image data, and difference data used in an enlargement process for enlarging at least one of the dynamic range and the color gamut of the image data And a generation step for performing a generation process for generating
An addition step of performing an addition process of adding correspondence information representing a correspondence relationship between the base image data and the difference data to at least one of the base image data and the difference data;
An output step of individually outputting the base image data and the luminance difference data after the additional processing is performed;
I have a,
In the adding step, display disable information indicating that display on the display device cannot be performed is added to the difference data generated in the generation process .

本発明の第の態様は、
ベース画像データである入力ベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データである入力差分データと、を取得する取得ステップと、
前記入力ベース画像データと前記入力差分データの少なくとも一方に、ベース画像データと差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力差分データが前記入力ベース画像データに対応するデータであるか否かを判断する判断ステップと、
前記判断ステップでは前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータであると判断された場合に、前記入力差分データを用いた拡大処理を前記入力ベース画像データに施すことにより、レンジ拡大画像データを生成し、前記取得ステップで前記入力差分データが取得されなかった場合には、前記レンジ拡大画像データを生成しない生成ステップと、
前記生成ステップにおいて前記レンジ拡大画像データが生成された場合に、前記レンジ拡大画像データに基づく画像を表示し、前記生成ステップにおいて前記レンジ拡大画像データが生成されない場合には、前記入力ベース画像データに基づく画像を表示する表示ステップと、
前記生成ステップにおいて前記レンジ拡大画像データが生成されず、且つ、前記表示ステップにおいて前記入力ベース画像データに基づく画像が表示される場合に、前記レンジ
拡大画像データを生成する処理に必要なデータが取得されていないことをユーザに通知する第1通知ステップと、
を有する
ことを特徴とする表示方法である。
本発明の第の態様は、
ベース画像データである入力ベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データである入力差分データと、を個別に取得する取得ステップと、
前記入力ベース画像データと前記入力差分データの少なくとも一方に、ベース画像データと差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力差分データが前記入力ベース画像データに対応するデータであるか否かを判断する判断ステップと、
前記取得ステップで前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータであると判断された場合に、前記入力差分データを用いた拡大処理を前記入力ベース画像データに施すことにより、レンジ拡大画像データを生成し、前記取得手段で前記入力差分データが取得されなかった場合には、前記レンジ拡大画像データを生成しない生成ステップと、
前記生成ステップにおいて前記レンジ拡大画像データが生成された場合に、前記レンジ拡大画像データに基づく画像を表示し、前記生成手段により前記レンジ拡大画像データが生成されない場合には、前記入力ベース画像データに基づく画像を表示する表示ステップと、
前記生成ステップにおいて前記レンジ拡大画像データが生成され、且つ、前記レンジ拡大画像データを生成する処理に要する時間が閾値よりも長い場合に、前記表示ステップでは、前記入力ベース画像データに基づく画像を表示する
ことを特徴とする表示方法である。
According to a fifth aspect of the present invention,
An acquisition step of acquiring input base image data that is base image data, and input difference data that is difference data used in an enlargement process for enlarging at least one of a dynamic range and a color gamut of the image data;
When correspondence information indicating the correspondence between the base image data and the difference data is added to at least one of the input base image data and the input difference data, the input difference data is input based on the correspondence information. A determination step of determining whether the data corresponds to the base image data;
In the determination step, the input difference data is acquired, and when it is determined that the acquired input difference data is data corresponding to the input base image data, an enlargement process using the input difference data is performed. By applying to the base image data, to generate a range expansion image data, if the input difference data is not acquired in the acquisition step, a generation step that does not generate the range expansion image data ,
When the range expansion image data is generated in the generation step, an image based on the range expansion image data is displayed . When the range expansion image data is not generated in the generation step, the input base image data is displayed. A display step for displaying an image based on ;
When the range expansion image data is not generated in the generation step and an image based on the input base image data is displayed in the display step, the range
A first notification step for notifying a user that data necessary for processing for generating enlarged image data has not been acquired;
It is the display method characterized by having.
The sixth aspect of the present invention is:
An acquisition step of individually acquiring input base image data that is base image data, and input difference data that is difference data used in an enlargement process for enlarging at least one of the dynamic range and color gamut of the image data;
When correspondence information indicating the correspondence between the base image data and the difference data is added to at least one of the input base image data and the input difference data, the input difference data is input based on the correspondence information. A determination step of determining whether the data corresponds to the base image data;
The input difference data is acquired in the acquisition step, and when it is determined that the acquired input difference data is data corresponding to the input base image data, an enlargement process using the input difference data is performed as the input A range expansion image data is generated by applying to the base image data, and if the input difference data is not acquired by the acquisition unit, a generation step of not generating the range expansion image data;
When the range enlarged image data is generated in the generating step, an image based on the range enlarged image data is displayed. When the range enlarged image data is not generated by the generating unit, the input base image data is displayed. A display step for displaying an image based on;
In the generation step, when the range enlarged image data is generated and the time required for the processing for generating the range enlarged image data is longer than a threshold, the display step displays an image based on the input base image data Do
This is a display method characterized by this.

本発明の第の態様は、上述した画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。
A seventh aspect of the present invention is a program that causes a computer to execute each step of the above-described image processing method.

本発明の第の態様は、上述した表示方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。 An eighth aspect of the present invention is a program that causes a computer to execute each step of the display method described above.

本発明によれば、HDR対応機とHDR非対応機のどちらであっても適切な画像表示ができるようにストリーム形式のHDR画像データを伝送することができる。また、本発明によれば、ベース画像データと差分データを用いてHDR画像データを正確に復元することができる。   According to the present invention, stream format HDR image data can be transmitted so that an appropriate image display can be performed by either an HDR compatible device or an HDR non-compatible device. Further, according to the present invention, HDR image data can be accurately restored using base image data and difference data.

本実施形態に係る表示システムの一例を示すブロック図The block diagram which shows an example of the display system which concerns on this embodiment 本実施形態に係るSDIデータのデータマップの一例を示す図The figure which shows an example of the data map of the SDI data which concerns on this embodiment 本実施形態に係る表示装置の処理フローの一例を示すフローチャートThe flowchart which shows an example of the processing flow of the display apparatus which concerns on this embodiment.

以下、本発明の実施形態に係る画像処理装置、画像処理方法、表示装置、及び、表示方法について、説明する。   Hereinafter, an image processing device, an image processing method, a display device, and a display method according to embodiments of the present invention will be described.

<システム構成>
図1は、本実施形態に係る表示システムの一例を示すブロック図である。
図1に示すように、本実施形態に係る表示システムは、画像処理装置100と表示装置120を有する。画像処理装置100と表示装置120は、有線または無線により互いに通信可能に接続されている。図1の例では、SDI(Serial Digital Interface)規格のケーブルであるSDIケーブル140を用いて画像処理装置100と表示装置120が互いに接続されている。また、SDIケーブル150を用いて画像処理装置100と表示装置120が互いに接続されている。
本実施形態では、表示装置120の解像度が水平方向1920画素×垂直方向1080画素(以下、Full−HD)であるものとする。また、本実施形態では、画像処理装置
100が出力する画像データの解像度もFull−HDであるものとする。
<System configuration>
FIG. 1 is a block diagram illustrating an example of a display system according to the present embodiment.
As shown in FIG. 1, the display system according to the present embodiment includes an image processing device 100 and a display device 120. The image processing apparatus 100 and the display apparatus 120 are connected to be communicable with each other by wire or wireless. In the example of FIG. 1, the image processing apparatus 100 and the display apparatus 120 are connected to each other using an SDI cable 140 that is an SDI (Serial Digital Interface) standard cable. Further, the image processing apparatus 100 and the display apparatus 120 are connected to each other using an SDI cable 150.
In the present embodiment, it is assumed that the resolution of the display device 120 is 1920 pixels in the horizontal direction × 1080 pixels in the vertical direction (hereinafter, Full-HD). In the present embodiment, the resolution of the image data output from the image processing apparatus 100 is also assumed to be Full-HD.

なお、図1の例では、2本のケーブルを用いて画像処理装置100と表示装置120が互いに接続されているが、1本のケーブルを用いて画像処理装置100と表示装置120が互いに接続されていてもよい。
なお、図1の例では、データを伝送するために使用するケーブルとしてSDIケーブル(SDIケーブル140,150)が使用されているが、SDIケーブルとは異なるケーブルが使用されてもよい。
なお、表示装置120の解像度はFull−HDより低くても高くてもよい。また、画
像処理装置100が出力する画像データの解像度もFull−HDより低くても高くてもよい。
なお、本実施形態では、画像処理装置100の外部装置が表示装置120である場合の例を説明するが、画像処理装置100の外部装置は表示装置に限らない。例えば、外部装置は、画像処理装置100から出力されたデータを記憶する記憶装置であってもよい。
In the example of FIG. 1, the image processing apparatus 100 and the display apparatus 120 are connected to each other using two cables, but the image processing apparatus 100 and the display apparatus 120 are connected to each other using one cable. It may be.
In the example of FIG. 1, SDI cables (SDI cables 140 and 150) are used as cables used to transmit data, but a cable different from the SDI cable may be used.
Note that the resolution of the display device 120 may be lower or higher than Full-HD. Further, the resolution of the image data output from the image processing apparatus 100 may be lower or higher than Full-HD.
In this embodiment, an example in which the external device of the image processing apparatus 100 is the display device 120 will be described, but the external device of the image processing device 100 is not limited to the display device. For example, the external device may be a storage device that stores data output from the image processing apparatus 100.

画像処理装置100は、ダイナミックレンジ縮小部101、差分生成部102、ベースJPEGエンコーダ103、差分JPEGエンコーダ104、JPEG−HDR生成部105、ベースフラグ付加部106、差分フラグ付加部107、コンテンツ識別フラグ付加部108、SDIエンコーダ109,110、SDI出力端子111,112、等を有する。
なお、画像処理装置100は、ベースJPEGエンコーダ103、差分JPEGエンコ
ーダ104、及び、JPEG−HDR生成部105を有していなくてもよい。
The image processing apparatus 100 includes a dynamic range reduction unit 101, a difference generation unit 102, a base JPEG encoder 103, a difference JPEG encoder 104, a JPEG-HDR generation unit 105, a base flag addition unit 106, a difference flag addition unit 107, and a content identification flag addition. Section 108, SDI encoders 109 and 110, SDI output terminals 111 and 112, and the like.
The image processing apparatus 100 may not include the base JPEG encoder 103, the difference JPEG encoder 104, and the JPEG-HDR generation unit 105.

表示装置120は、SDI入力端子121,122、SDIデコーダ123,124、データ形式判断部125、コンテンツ識別フラグ解析部126、拡大処理部127、BL制御部128、画像処理部129、表示部130、CPU131、メモリ132、等を有する。SDI入力端子121,122以外の各機能部は、不図示のデータバスを用いてCPU131に接続されている。
なお、本実施形態では、表示装置120が透過型の液晶表示装置であり、表示部130が液晶パネルとバックライトを有する例を説明するが、表示装置120が透過型の液晶表示装置に限らない。例えば、表示装置120は反射型の液晶表示装置であってもよいし、プラズマ表示装置であってもよいし、有機EL表示装置であってもよい。表示装置120は、液晶素子の代わりにMEMS(Micro Electro Mechanical
System)シャッターを用いたMEMSシャッター方式ディスプレイであってもよい。
The display device 120 includes SDI input terminals 121 and 122, SDI decoders 123 and 124, a data format determination unit 125, a content identification flag analysis unit 126, an enlargement processing unit 127, a BL control unit 128, an image processing unit 129, a display unit 130, A CPU 131, a memory 132, and the like are included. Each functional unit other than the SDI input terminals 121 and 122 is connected to the CPU 131 using a data bus (not shown).
In this embodiment, an example in which the display device 120 is a transmissive liquid crystal display device and the display unit 130 includes a liquid crystal panel and a backlight will be described. However, the display device 120 is not limited to a transmissive liquid crystal display device. . For example, the display device 120 may be a reflective liquid crystal display device, a plasma display device, or an organic EL display device. The display device 120 is a MEMS (Micro Electro Mechanical) instead of a liquid crystal element.
(System) A MEMS shutter type display using a shutter may be used.

<画像処理装置>
画像処理装置100の各機能部について、データの流れに従って説明する。
画像処理装置100には、入力画像データとして、Y値、Cb値、及び、Cr値のそれぞれが32ビット相当の階調値であるHDR画像データが入力される。そして、画像処理装置100は、HDR画像データからJPEG−HDRファイルを生成したり、HDR画像データに対応するデータを出力したりする。HDR画像データは、例えば、露出時間を変えながら連続撮影したブラケット画像データから、PCや撮像装置を用いて生成された画像データである。JPEG−HDRファイルは、ベース画像データと差分データが格納されたデータファイルである。ベース画像データは、入力画像データよりもダイナミックレンジと色域の少なくとも一方が狭い画像データである。
<Image processing device>
Each functional unit of the image processing apparatus 100 will be described according to a data flow.
The image processing apparatus 100 receives HDR image data in which each of the Y value, Cb value, and Cr value is a gradation value equivalent to 32 bits as input image data. Then, the image processing apparatus 100 generates a JPEG-HDR file from the HDR image data or outputs data corresponding to the HDR image data. The HDR image data is, for example, image data generated by using a PC or an imaging device from bracket image data continuously shot while changing the exposure time. A JPEG-HDR file is a data file in which base image data and difference data are stored. The base image data is image data that has a narrower dynamic range and / or color gamut than input image data.

差分データは、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用されるデータである。差分データは、例えば、輝度差分データと色差分データの少なくとも一方を含む。   The difference data is data used in an enlargement process for enlarging at least one of the dynamic range and the color gamut of the image data. The difference data includes, for example, at least one of luminance difference data and color difference data.

輝度差分データは、画像データのダイナミックレンジを拡大する輝度域拡大処理で使用されるデータであり、HDR画像データとベース画像データの輝度値の差分を表すデータである。例えば、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)とHDR画像データの輝度値(階調値)との比率である輝度比率を表す輝度比率データである。即ち、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)に対するHDR画像データの輝度値(階調値)の比率またはその逆数を表す輝度比率データである。ただし、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)とHDR画像データの輝度値(階調値)の一方から他方を減算した差分値である輝度差分値を表すデータであってもよい。また、輝度差分データは、拡大処理における入力輝度値と出力輝度値との対応関係を表す輝度変換テーブルデータ(例えば、後述する逆トーンマップ)であってもよい。なお、輝度域拡大処理は、ベース画像データで表現しきれていない輝度を再現する処理と言うこともできる。   The luminance difference data is data used in the luminance range expansion process for expanding the dynamic range of the image data, and is data representing the difference between the luminance values of the HDR image data and the base image data. For example, the luminance difference data is a ratio between the luminance value (gradation value) of the base image data and the luminance value (gradation value) of the HDR image data in pixel units (or in units of regions including a predetermined number of pixels). This is luminance ratio data representing the luminance ratio. That is, the luminance difference data is the ratio of the luminance value (gradation value) of the HDR image data to the luminance value (gradation value) of the base image data or the reciprocal thereof in pixel units (or an area unit composed of a predetermined number of pixels). Is luminance ratio data representing However, the luminance difference data is obtained by subtracting one from the luminance value (gradation value) of the base image data and the luminance value (gradation value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). Data representing a luminance difference value which is a subtracted difference value may be used. Further, the luminance difference data may be luminance conversion table data (for example, a reverse tone map described later) representing a correspondence relationship between the input luminance value and the output luminance value in the enlargement process. Note that the luminance range expansion processing can also be said to be processing for reproducing luminance that cannot be expressed in the base image data.

色差分データは、画像データの色域を拡大する色域拡大処理で使用されるデータであり、HDR画像データとベース画像データの色の差分を表すデータである。この色差分データは、画像データの色成分のダイナミックレンジを拡大する拡大処理で使用されるデータとも言い換えられる。例えば、色差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの色差値(Cb値、Cr値)とHDR画像データの色差値(Cb値、Cr値)の一方から他方を減算した差分値である色差分値を表すデータである
。ただし、色差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの色差値(Cb値、Cr値)とHDR画像データの色差値(Cb値、Cr値)との比率である色比率を表す色差比率データであってもよい。また、色差分値や色比率は、色差値の代わりに、R値、G値、及びB値を用いて算出された値であってもよい。なお、色域拡大処理は、ベース画像データで表現しきれていない色を再現する処理と言うこともできる。
The color difference data is data used in the color gamut expansion process for expanding the color gamut of the image data, and is data representing the color difference between the HDR image data and the base image data. This color difference data is also referred to as data used in the enlargement process for expanding the dynamic range of the color component of the image data. For example, the color difference data is a color difference value (Cb value, Cr value) of the base image data and a color difference value (Cb value, Cr value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). This is data representing a color difference value which is a difference value obtained by subtracting the other from one. However, the color difference data is a color difference value (Cb value, Cr value) of the base image data and a color difference value (Cb value, Cr value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). Color difference ratio data representing a color ratio that is a ratio of Further, the color difference value and the color ratio may be values calculated using R value, G value, and B value instead of the color difference value. Note that the color gamut expansion processing can be said to be processing for reproducing colors that cannot be expressed by the base image data.

なお、入力画像データ(HDR画像データ)のビット数は32ビットより多くても少なくてもよい。
なお、HDR画像データは、静止画のデータであってもよいし、動画のデータであってもよい。HDR画像データをベース画像データと差分データで表現したフォーマットであるJPEG−HDRは、例えば、MPEG形式やMOTION−JPEG形式の動画データにも適用可能である。各フレームの画像データがベース画像データと差分データで表現されたHDR画像データであるMPEG形式の動画データのフォーマットは、MPEG−HDRと称してもよい。また、画像処理装置100は、HDR画像データに対応するデータを生成して出力する処理を1回だけ行ってもよいし、HDR画像データに対応するデータを次々に生成して出力するストリーミング出力を行ってもよい。
Note that the number of bits of the input image data (HDR image data) may be more or less than 32 bits.
The HDR image data may be still image data or moving image data. JPEG-HDR, which is a format in which HDR image data is expressed by base image data and difference data, can be applied to, for example, moving image data in MPEG format or MOTION-JPEG format. The format of moving image data in MPEG format, which is HDR image data in which image data of each frame is expressed by base image data and difference data, may be referred to as MPEG-HDR. The image processing apparatus 100 may perform the process of generating and outputting the data corresponding to the HDR image data only once, or the streaming output for generating and outputting the data corresponding to the HDR image data one after another. You may go.

ダイナミックレンジ縮小部101と差分生成部102によって、HDR画像データである入力画像データに基づいて、ベース画像データと差分データを生成する生成処理が行われる。   A generation process for generating base image data and difference data is performed by the dynamic range reduction unit 101 and the difference generation unit 102 based on input image data which is HDR image data.

ダイナミックレンジ縮小部101は、入力画像データに、ダイナミックレンジを縮小する縮小処理を施すことにより、ベース画像データを生成する。例えば、縮小前の階調値と縮小後の階調値との対応関係を表す所定のトーンマップを用いて、入力画像データの階調値からベース画像データの階調値が算出される。縮小処理で使用されるトーンマップは、縮小前の階調値が入力値であり、縮小後の階調値が出力値であるトーンマップと言うこともできる。本実施形態では、Y値、Cb値、及び、Cr値のそれぞれが8ビット相当の階調値であるベース画像データが生成される。   The dynamic range reduction unit 101 generates base image data by performing reduction processing for reducing the dynamic range on the input image data. For example, the tone value of the base image data is calculated from the tone value of the input image data using a predetermined tone map that represents the correspondence between the tone value before reduction and the tone value after reduction. It can be said that the tone map used in the reduction process is a tone map in which the gradation value before reduction is an input value and the gradation value after reduction is an output value. In this embodiment, base image data in which each of the Y value, the Cb value, and the Cr value is a gradation value equivalent to 8 bits is generated.

なお、画像の領域全体に対して1つのトーンマップが用意されていてもよいし、画素位置毎にトーンマップが用意されていてもよいし、領域毎にトーンマップが用意されていてもよい。
なお、複数のトーンマップが予め用意されており、複数のトーンマップのいずれか1つを用いてベース画像データの階調値が算出されてもよい。
なお、ベース画像データのビット数は8ビットより多くても少なくてもよい。
Note that one tone map may be prepared for the entire area of the image, a tone map may be prepared for each pixel position, or a tone map may be prepared for each area.
A plurality of tone maps may be prepared in advance, and the tone value of the base image data may be calculated using any one of the plurality of tone maps.
Note that the number of bits of the base image data may be more or less than 8 bits.

差分生成部102は、ダイナミックレンジ縮小部101で生成されたベース画像データと入力画像データとに基づいて、差分データを生成する。本実施形態では、ベース画像データの輝度値(Y値)と入力画像データの輝度値との比である輝度比率を画素毎に表すデータが輝度差分データとして生成される。ベース画像データの色と入力画像データの色との差分を表す色差分値を画素毎に表すデータが色差分データとして生成される。具体的には、Cb差分値とCr差分値を画素毎に表すデータが色差分データとして生成される。Cb差分値は、ベース画像データのCb値と入力画像データのCb値との一方から他方を減算した値であり、Cr差分値は、ベース画像データのCr値と入力画像データのCr値との一方から他方を減算した値である。   The difference generation unit 102 generates difference data based on the base image data and input image data generated by the dynamic range reduction unit 101. In the present embodiment, data representing the luminance ratio, which is the ratio between the luminance value (Y value) of the base image data and the luminance value of the input image data, is generated as luminance difference data. Data representing a color difference value representing a difference between the color of the base image data and the color of the input image data for each pixel is generated as the color difference data. Specifically, data representing the Cb difference value and the Cr difference value for each pixel is generated as the color difference data. The Cb difference value is a value obtained by subtracting the other from one of the Cb value of the base image data and the Cb value of the input image data. The Cr difference value is a value between the Cr value of the base image data and the Cr value of the input image data. A value obtained by subtracting the other from one.

なお、輝度差分データと色差分データの一方が生成されなくてもよい。例えば、ベース画像データの輝度値と入力画像データの輝度値が同じ場合には、輝度差分データは生成されなくてもよい。ベース画像データの色と入力画像データの色が同じ場合には、色差分デ
ータは生成されなくてもよい。
なお、縮小処理で使用されたトーンマップの入力値と出力値を入れ替えた逆トーンマップが、輝度差分データとして生成されてもよい。
Note that one of the luminance difference data and the color difference data may not be generated. For example, when the luminance value of the base image data and the luminance value of the input image data are the same, the luminance difference data may not be generated. When the color of the base image data and the color of the input image data are the same, the color difference data may not be generated.
Note that an inverted tone map in which the input value and the output value of the tone map used in the reduction process are exchanged may be generated as the luminance difference data.

ベースJPEGエンコーダ103は、ダイナミックレンジ縮小部101で生成されたベース画像データをJPEG形式の画像データにエンコードする。なお、ダイナミックレンジ縮小部101で、ベース画像データとしてJPEG形式の画像データが生成されてもよい。
差分JPEGエンコーダ104は、差分生成部102で生成された輝度差分データと色差分データを、それぞれJPEG形式のデータにエンコードする。なお、差分生成部102で、輝度差分データと色差分データとしてJPEG形式のデータが生成されてもよい。
JPEG−HDR生成部105は、ベースJPEGエンコーダ103で生成されたJPEG形式のベース画像データと、差分JPEGエンコーダ104で生成されたJPEG形式の輝度差分データ及び色差分データと、を1つのデータファイルに格納する。それにより、JPEG−HDRファイルが生成される。
The base JPEG encoder 103 encodes the base image data generated by the dynamic range reduction unit 101 into JPEG image data. Note that the dynamic range reduction unit 101 may generate JPEG image data as the base image data.
The difference JPEG encoder 104 encodes the luminance difference data and the color difference data generated by the difference generation unit 102 into JPEG format data, respectively. Note that the difference generation unit 102 may generate JPEG format data as luminance difference data and color difference data.
The JPEG-HDR generation unit 105 combines the JPEG format base image data generated by the base JPEG encoder 103 and the JPEG format luminance difference data and color difference data generated by the difference JPEG encoder 104 into one data file. Store. Thereby, a JPEG-HDR file is generated.

ベースフラグ付加部106、差分フラグ付加部107、コンテンツ識別フラグ付加部108、及び、SDIエンコーダ109,110により、付加処理が行われる。本実施形態では、付加処理として、ベース画像データ、輝度差分データ、及び、色差分データの全てに、対応情報を付加する処理が実行される。対応情報は、ベース画像データ、輝度差分データ、及び、色差分データの対応関係を表す情報である。   The base flag adding unit 106, the difference flag adding unit 107, the content identification flag adding unit 108, and the SDI encoders 109 and 110 perform addition processing. In the present embodiment, as addition processing, processing for adding correspondence information to all of base image data, luminance difference data, and color difference data is executed. The correspondence information is information representing the correspondence relationship between the base image data, the luminance difference data, and the color difference data.

なお、付加処理では、ベース画像データ、輝度差分データ、及び、色差分データの少なくともいずれかに対応情報が付加されればよい。例えば、ベース画像データにのみ対応情報が付加されてもよい。その場合には、ベース画像データを参照することによって、ベース画像データに対応する輝度差分データと色差分データ(正確なHDR画像データを得るために使用すべき輝度差分データと色差分データ)を判断することができる。
なお、輝度差分データが生成されなかった場合には、付加処理では、ベース画像データと色差分データの少なくとも一方に対応情報が付加されればよい。その場合、対応情報として、ベース画像データと色差分データの対応関係を表す情報が付加されればよい。色差分データが生成されなかった場合には、付加処理では、ベース画像データと輝度差分データの少なくとも一方に対応情報が付加されればよい。その場合、対応情報として、ベース画像データと輝度差分データの対応関係を表す情報が付加されればよい。
In addition processing, it is only necessary to add correspondence information to at least one of base image data, luminance difference data, and color difference data. For example, correspondence information may be added only to the base image data. In that case, the luminance difference data and the color difference data (luminance difference data and color difference data to be used for obtaining accurate HDR image data) corresponding to the base image data are determined by referring to the base image data. can do.
If the luminance difference data is not generated, the adding process may add the correspondence information to at least one of the base image data and the color difference data. In this case, information indicating the correspondence between the base image data and the color difference data may be added as the correspondence information. When the color difference data is not generated, in the addition process, the correspondence information may be added to at least one of the base image data and the luminance difference data. In that case, information indicating the correspondence between the base image data and the luminance difference data may be added as the correspondence information.

ベースフラグ付加部106と差分フラグ付加部107により、生成処理で生成された各データに、データの種類を示す種類情報が付加される。
なお、種類情報を付加する処理は省略されてもよい。
なお、本実施形態では、ベース画像データ、輝度差分データ、及び、色差分データのそれぞれに種類情報が付加される例を説明する。しかし、輝度差分データが生成されなかった場合には、ベース画像データと色差分データに種類情報が付加され、色差分データが生成されなかった場合には、ベース画像データと輝度差分データに種類情報が付加される。
The base flag adding unit 106 and the difference flag adding unit 107 add type information indicating the type of data to each data generated by the generation process.
Note that the process of adding type information may be omitted.
In the present embodiment, an example will be described in which type information is added to each of base image data, luminance difference data, and color difference data. However, if luminance difference data is not generated, type information is added to the base image data and color difference data. If color difference data is not generated, type information is added to the base image data and luminance difference data. Is added.

ベースフラグ付加部106は、ダイナミックレンジ縮小部101が生成したベース画像データに、ベース画像データであることを表す種類フラグ(種類情報)を付加する。そして、ベースフラグ付加部106は、種類フラグが付加されたベース画像データである第1付加ベース画像データを、コンテンツ識別フラグ付加部108に出力する。
差分フラグ付加部107は、差分生成部102が生成した輝度差分データに、輝度差分データであることを表す種類フラグ(種類情報)を付加し、差分生成部102が生成した色差分データに、色差分データであることを表す種類フラグ(種類情報)を付加する。そして、差分フラグ付加部107は、種類フラグが付加された輝度差分データである第1付
加輝度差分データと、種類フラグが付加された色差分データである第1付加色差分データと、をコンテンツ識別フラグ付加部108に出力する。
The base flag adding unit 106 adds a type flag (type information) indicating base image data to the base image data generated by the dynamic range reducing unit 101. Then, the base flag adding unit 106 outputs the first additional base image data, which is the base image data to which the type flag is added, to the content identification flag adding unit 108.
The difference flag addition unit 107 adds a type flag (type information) indicating luminance difference data to the luminance difference data generated by the difference generation unit 102, and adds a color flag to the color difference data generated by the difference generation unit 102. A type flag (type information) indicating difference data is added. Then, the difference flag adding unit 107 identifies the first additional luminance difference data that is the luminance difference data to which the type flag is added and the first additional color difference data that is the color difference data to which the type flag is added. The data is output to the flag adding unit 108.

また、ベースフラグ付加部106と差分フラグ付加部107により、生成処理で生成された各データが、表示装置120で処理可能なデータに変換される。具体的には、ベースフラグ付加部106と差分フラグ付加部107は、表示装置120がデータを処理する処理タイミングで表示装置120にデータが入力されるようなタイミングで、種類情報が付加されたデータを出力する。
なお、データを伝送する伝送タイミングを制御する処理は、どの機能部で実行されてもよい。
Further, the base flag adding unit 106 and the difference flag adding unit 107 convert each data generated by the generation processing into data that can be processed by the display device 120. Specifically, the base flag adding unit 106 and the difference flag adding unit 107 are the data to which the type information is added at the timing when the data is input to the display device 120 at the processing timing at which the display device 120 processes the data. Is output.
The processing for controlling the transmission timing for transmitting data may be executed by any functional unit.

コンテンツ識別フラグ付加部108は、第1付加ベース画像データ、第1付加輝度差分データ、及び、第1付加色差分データのそれぞれに、それらのデータが同じコンテンツのデータであることを表すコンテンツ識別フラグ(対応情報)を付加する。本実施形態では、第1付加ベース画像データに付加されたコンテンツ識別フラグと同じコンテンツ識別フラグが、第1付加輝度差分データと第1付加色差分データに付加される。そして、コンテンツ識別フラグ付加部108は、コンテンツ識別フラグが付加されたベース画像データである第2付加ベース画像データを、SDIエンコーダ109に出力する。また、コンテンツ識別フラグ付加部108は、コンテンツ識別フラグが付加された輝度差分データである第2付加輝度差分データと、コンテンツ識別フラグが付加された色差分データである第2付加色差分データと、をSDIエンコーダ110に出力する。   The content identification flag adding unit 108 includes a content identification flag indicating that each of the first additional base image data, the first additional luminance difference data, and the first additional color difference data is the same content data. (Correspondence information) is added. In the present embodiment, the same content identification flag as the content identification flag added to the first additional base image data is added to the first additional luminance difference data and the first additional color difference data. Then, the content identification flag adding unit 108 outputs the second additional base image data, which is the base image data to which the content identification flag is added, to the SDI encoder 109. Further, the content identification flag adding unit 108 includes second additional luminance difference data that is luminance difference data to which a content identification flag is added, second additional color difference data that is color difference data to which a content identification flag is added, Is output to the SDI encoder 110.

また、本実施形態では、コンテンツ識別フラグ付加部108は、第1付加ベース画像データから第2付加ベース画像データを生成する際に、第1付加ベース画像データに対し、HDR識別フラグを付加する。HDR識別フラグは、HDR画像データに対応するベース画像データであることを表す。図1の例では、JPEG−HDR生成部105でJPEG−HDRファイルが生成された場合に、JPEG−HDR生成部105が、JPEG−HDRファイルが生成されたことをコンテンツ識別フラグ付加部108に通知する。そして、コンテンツ識別フラグ付加部108は、JPEG−HDR生成部105の通知に応じて、HDR識別フラグを付加する処理を実行する。   In the present embodiment, the content identification flag adding unit 108 adds the HDR identification flag to the first additional base image data when generating the second additional base image data from the first additional base image data. The HDR identification flag represents base image data corresponding to HDR image data. In the example of FIG. 1, when a JPEG-HDR file is generated by the JPEG-HDR generation unit 105, the JPEG-HDR generation unit 105 notifies the content identification flag addition unit 108 that a JPEG-HDR file has been generated. To do. Then, the content identification flag adding unit 108 executes processing for adding an HDR identification flag in response to the notification from the JPEG-HDR generation unit 105.

なお、種類情報を付加する処理が省略された場合には、生成処理で生成されたデータに対応情報が付加される。
なお、データ毎に異なる対応情報が付加されてもよい。例えば、ベース画像データには、当該ベース画像データに対応する輝度差分データと色差分データを表す対応情報が付加されてもよい。輝度差分データには、当該輝度差分データに対応するベース画像データと色差分データを表す対応情報が付加されてもよい。そして、色差分データには、当該色差分データに対応するベース画像データと輝度差分データを表す対応情報が付加されてもよい。そのような対応情報を用いれば、ベース画像データ、輝度差分データ、及び、色差分データのいずれか1つにしか対応情報が付加されていなかったとしても、ベース画像データ、輝度差分データ、及び、色差分データの対応関係を判断することができる。
When the process for adding the type information is omitted, the correspondence information is added to the data generated by the generation process.
Different correspondence information may be added for each data. For example, correspondence information representing luminance difference data and color difference data corresponding to the base image data may be added to the base image data. Correspondence information representing base image data and color difference data corresponding to the luminance difference data may be added to the luminance difference data. Then, correspondence information representing base image data and luminance difference data corresponding to the color difference data may be added to the color difference data. If such correspondence information is used, even if the correspondence information is added to only one of the base image data, the luminance difference data, and the color difference data, the base image data, the luminance difference data, and The correspondence between the color difference data can be determined.

SDIエンコーダ109,110により、付加処理が行われた後のデータとして、SDI形式のシリアルデータ(SDIデータ)が生成される。
SDIエンコーダ109は、パラレルデータである第2付加ベース画像データをSDIデータであるSDIベース画像データに変換し、SDIベース画像データをSDI出力端子111に出力する。
SDIエンコーダ110は、パラレルデータである第2付加輝度差分データをSDIデータであるSDI輝度差分データに変換し、パラレルデータである第2付加色差分データをSDIデータであるSDI色差分データに変換する。そして、SDIエンコーダ110
は、SDI輝度差分データとSDI色差分データをSDI出力端子112に出力する。
なお、付加処理が行われた後のデータはSDIデータに限らない。
SDI format serial data (SDI data) is generated by the SDI encoders 109 and 110 as the data after the additional processing.
The SDI encoder 109 converts the second additional base image data that is parallel data into SDI base image data that is SDI data, and outputs the SDI base image data to the SDI output terminal 111.
The SDI encoder 110 converts the second additional luminance difference data that is parallel data into SDI luminance difference data that is SDI data, and converts the second additional color difference data that is parallel data into SDI color difference data that is SDI data. . And the SDI encoder 110
Outputs SDI brightness difference data and SDI color difference data to the SDI output terminal 112.
Note that the data after the addition processing is not limited to SDI data.

SDI出力端子111,112により、付加処理が行われた後の各データが、画像処理装置100の外部に個別に出力される。
SDI出力端子111は、SDIケーブル140を用いて、SDIベース画像データを外部装置である表示装置120に出力する。
SDI出力端子112は、SDIケーブル150を用いて、SDI輝度差分データとSDI色差分データを表示装置120に出力する。
The SDI output terminals 111 and 112 individually output the data after the addition processing is performed to the outside of the image processing apparatus 100.
The SDI output terminal 111 outputs the SDI base image data to the display device 120 which is an external device using the SDI cable 140.
The SDI output terminal 112 outputs SDI luminance difference data and SDI color difference data to the display device 120 using the SDI cable 150.

このように、本実施形態では、付加処理が行われた後の各データが、SDIケーブルを用いて外部装置に個別に出力される。また、本実施形態では、付加処理が行われた後のベース画像データが、付加処理が行われた後の差分データ(輝度差分データと色差分データ)とは異なるケーブルを用いて、外部装置に出力される。
なお、付加処理が行われた後の各データは同じケーブルを用いて外部装置に出力されてもよい。また、付加処理が行われた後の各データを外部装置に出力するために使用するケーブルはSDIケーブルに限らない。データは、無線通信によって外部装置に出力されてもよい。
なお、付加処理が行われた後の各データを1つのケーブルを用いて外部装置に出力する場合には、上述したHDR識別フラグを対応情報として使用することもできる。例えば、HDR識別フラグが付加されたベース画像データD1と、差分データD2と、がその順番で出力されれば、HDR識別フラグの有無に応じて、差分データD2がベース画像データD1に対応するデータであることを判断することができる。
As described above, in this embodiment, each data after the additional processing is performed is individually output to the external device using the SDI cable. Further, in the present embodiment, the base image data after the addition processing is performed on the external device using a cable different from the difference data (luminance difference data and color difference data) after the addition processing is performed. Is output.
In addition, each data after the addition process is performed may be output to an external device using the same cable. Also, the cable used to output each data after the additional processing is performed to the external device is not limited to the SDI cable. The data may be output to an external device by wireless communication.
In addition, when outputting each data after an additional process is performed to an external device using one cable, the HDR identification flag mentioned above can also be used as correspondence information. For example, if the base image data D1 to which the HDR identification flag is added and the difference data D2 are output in that order, the difference data D2 corresponds to the data corresponding to the base image data D1 depending on the presence or absence of the HDR identification flag. Can be determined.

<付加処理>
本実施形態に係る付加処理について、図2を用いて詳しく説明する。
図2は、SDIデータのデータ構造(データマップ)の一例を示す。図2には、Full−HDのデータマップが示されている。
<Additional processing>
The additional processing according to the present embodiment will be described in detail with reference to FIG.
FIG. 2 shows an example of the data structure (data map) of SDI data. FIG. 2 shows a Full-HD data map.

データマップ200は、1ライン分のSDIベース画像データのデータマップである。
データマップ201は、1ライン分のSDI輝度差分データとSDI色差分データを含むSDIデータのデータマップである。
データマップ202は、1フレーム分のSDIデータのデータマップである。
データマップ200,201の縦軸はビット数を示し、横軸はサンプル番号を示す。本実施形態では、サンプル番号の小さいデータから順番に、データが伝送される。
データマップ202の縦軸はライン番号を示し、横軸はサンプル番号を示す。本実施形態では、ライン番号の小さいデータから順番に、データが伝送される。
The data map 200 is a data map of SDI base image data for one line.
The data map 201 is a data map of SDI data including SDI luminance difference data and SDI color difference data for one line.
The data map 202 is a data map of SDI data for one frame.
The vertical axis of the data maps 200 and 201 indicates the number of bits, and the horizontal axis indicates the sample number. In this embodiment, data is transmitted in order from the data with the smallest sample number.
The vertical axis of the data map 202 indicates the line number, and the horizontal axis indicates the sample number. In the present embodiment, data is transmitted in order from the data with the smallest line number.

図2において、横線で示された領域は補助データ(水平補助データ)を格納可能なアンシラリ部である。斜め線で示された領域も補助データ(垂直補助データ)を格納可能なアンシラリ部である。本実施形態では、付加処理により、アンシラリ部に種類情報や対応情報が格納される。   In FIG. 2, an area indicated by a horizontal line is an ancillary portion capable of storing auxiliary data (horizontal auxiliary data). The area indicated by the diagonal lines is also an ancillary portion that can store auxiliary data (vertical auxiliary data). In the present embodiment, the type information and the correspondence information are stored in the ancillary part by the addition process.

EAV(End of Active Video)には、SDIデータのTRS(Timing Reference Signal)における水平/垂直の有効画像領域終了点を表す識別子が格納されている。本実施形態には、EVFには、識別子として、[3FF][000][000][XYZ]の4ワードからなる同期識別コードが格納されている。[XYZ]の内容から、EAV、SAV、フィールド、水平/垂直を識別することができる。
LN(Line Number)には、SDIデータのライン番号を監視するためのデ
ータが格納されている。
CRCC(CycliCredundancy Check Code)には、有効画像領域のデータ、EAV、及び、LNの伝送エラーをチェックするためのデータが格納されている。
SAV(Start of Active Video)には、SDIデータのTRSにおける水平/垂直の有効画像領域開始点を表す識別子が格納されている。本実施形態では、SAVには、識別子として、[3FF][000][000][XYZ]の4ワードからなる同期識別コードが格納されている。[XYZ]の内容から、EAV、SAV、フィールド、水平/垂直を識別することができる。
EAV (End of Active Video) stores an identifier representing the end point of the horizontal / vertical effective image area in TRS (Timing Reference Signal) of SDI data. In this embodiment, the EVF stores a synchronization identification code consisting of 4 words [3FF] [000] [000] [XYZ] as an identifier. EAV, SAV, field, and horizontal / vertical can be identified from the contents of [XYZ].
LN (Line Number) stores data for monitoring the line number of SDI data.
CRCC (Cyclic Redundancy Check Code) stores data for valid image area, EAV, and data for checking LN transmission errors.
SAV (Start of Active Video) stores an identifier representing a horizontal / vertical effective image area start point in TRS of SDI data. In this embodiment, the SAV stores a synchronization identification code consisting of 4 words [3FF] [000] [000] [XYZ] as an identifier. EAV, SAV, field, and horizontal / vertical can be identified from the contents of [XYZ].

図2の例では、データマップ200は20ビットのデータ幅を有している。そして、図2の例では、SMPTE425Mに準拠した形式でベース画像データの画素値(Y値、Cb値、及び、Cr値)がマッピングされている。画素値は、有効画像領域にマッピングされている。
データマップ200に示す「Y」にはY値が格納されており、「Cb」にはCb値が格納されており、「Cr」にはCr値が格納されている。また、「A」にはアルファ値を格納することができる。「Y」、「Cb」、「Cr」、及び、「A」の横に記載されている数値は、サンプル番号である。本実施形態ではアルファ値は使用されないため、「A」にはデータは格納されていない。
ベース画像データの画素値は、SMPTE425Mに準拠した形式でマッピングされているため、HDR画像データに対応していない表示装置でも、ベース画像データを表示することができる。
In the example of FIG. 2, the data map 200 has a data width of 20 bits. In the example of FIG. 2, the pixel values (Y value, Cb value, and Cr value) of the base image data are mapped in a format that conforms to SMPTE425M. Pixel values are mapped to the effective image area.
In the data map 200, “Y” stores a Y value, “Cb” stores a Cb value, and “Cr” stores a Cr value. In addition, an alpha value can be stored in “A”. The numerical values indicated next to “Y”, “Cb”, “Cr”, and “A” are sample numbers. Since no alpha value is used in the present embodiment, no data is stored in “A”.
Since the pixel values of the base image data are mapped in a format compliant with SMPTE425M, the base image data can be displayed even on a display device that does not support HDR image data.

図2の例では、データマップ201もデータマップ200と同様に20ビットのデータ幅を有している。そして、図2の例では、輝度差分データの値(輝度比率)と色差分データの値(色差分値;Cb差分値とCr差分値の組み合わせ)が、有効画像領域にマッピングされている。
データマップ201に示す「YR」には輝度比率が格納されており、「CbR」にはCb差分値が格納されており、「CrR」にはCr差分値が格納されている。また、「N/A」は非使用領域である。「YR」、「CbR」、及び、「CrR」の横に記載されている数値は、サンプル番号である。
In the example of FIG. 2, the data map 201 also has a 20-bit data width like the data map 200. In the example of FIG. 2, the value of luminance difference data (luminance ratio) and the value of color difference data (color difference value; combination of Cb difference value and Cr difference value) are mapped to the effective image area.
“YR” shown in the data map 201 stores a luminance ratio, “CbR” stores a Cb difference value, and “CrR” stores a Cr difference value. “N / A” is a non-use area. The numerical values described next to “YR”, “CbR”, and “CrR” are sample numbers.

データマップ202において、黒で塗りつぶされた領域は、フォーマット情報等が格納されているペイロードIDである。本実施形態では、付加処理において、種類情報や対応情報が、ペイロードIDが存在するラインの次のラインのアンシラリ部に格納される。具体的には、データマップにおいてペイロードIDの直下の位置に、種類情報や対応情報が格納される。図2の例では、位置(サンプル番号,ライン番号)=(1928,10)にペイロードIDが存在し、位置(1928,11)に種類情報や対応情報が格納される。
なお、種類情報や対応情報の格納位置は上記位置に限らない。例えば、水平補助データを格納可能なアンシラリ部(横線で示された領域)ではなく、垂直補助データを格納可能なアンシラリ部(斜め線で示された領域)に種類情報や対応情報が格納されてもよい。
In the data map 202, an area filled with black is a payload ID in which format information or the like is stored. In the present embodiment, in the additional processing, type information and correspondence information are stored in the ancillary part of the line next to the line where the payload ID exists. Specifically, type information and correspondence information are stored at a position immediately below the payload ID in the data map. In the example of FIG. 2, the payload ID exists at the position (sample number, line number) = (1928, 10), and the type information and the correspondence information are stored at the position (1928, 11).
The storage position of the type information and the correspondence information is not limited to the above position. For example, type information and correspondence information are stored in an ancillary part (area indicated by diagonal lines) capable of storing vertical auxiliary data, not an ancillary part (area indicated by horizontal lines) capable of storing horizontal auxiliary data. Also good.

また、本実施形態では、付加処理において、生成処理で生成された差分データに、表示装置での表示ができないことを表す表示不可情報が付加される。表示不可情報の付加は、例えば、差分フラグ付加部107またはコンテンツ識別フラグ付加部108で行われる。
本実施形態では、SDI輝度差分データとSDI色差分データとを含むSDIデータのペイロードIDに表示不可情報が付加される。具体的には、ペイロードIDを構成するデータ識別ワード(DID)に、表示不可情報として、表示装置が解読できないコード(ワード)を格納する。それにより、表示装置でSDI輝度差分データとSDI色差分データとを含むSDIデータが誤って表示されることを抑制することができる。
In the present embodiment, in the addition process, display impossibility information indicating that display on the display device cannot be performed is added to the difference data generated in the generation process. For example, the display impossibility information is added by the difference flag adding unit 107 or the content identification flag adding unit 108.
In this embodiment, display disable information is added to the payload ID of SDI data including SDI luminance difference data and SDI color difference data. Specifically, a code (word) that cannot be decoded by the display device is stored as display-impossible information in a data identification word (DID) constituting the payload ID. Thereby, it is possible to prevent the SDI data including the SDI brightness difference data and the SDI color difference data from being displayed erroneously on the display device.

表示装置が解読できないコードは、例えば、規格で定義されていないコードである。レベルAの場合、DIDには241hが格納されている。この場合には、例えば、241hを3FFhや000hに書き替えることで、表示装置にSDIデータのフォーマットが非対応のフォーマットであると判断させることができる。その結果、SDI輝度差分データとSDI色差分データとを含むSDIデータが誤って表示されることを抑制することができる。   The code that cannot be decoded by the display device is, for example, a code that is not defined in the standard. In the case of level A, 241h is stored in DID. In this case, for example, by rewriting 241h to 3FFh or 000h, the display device can determine that the format of the SDI data is an incompatible format. As a result, it is possible to suppress erroneous display of SDI data including SDI luminance difference data and SDI color difference data.

なお、図2には、SDI輝度差分データとSDI色差分データを含むSDIデータが生成された場合の例が示されているが、SDI輝度差分データとSDI色差分データは個別に伝送されてもよい。例えば、SDI輝度差分データは、SDI色差分データとは異なるケーブルを用いて伝送されてもよい。その場合には、SDI輝度差分データとSDI色差分データに個別に表示不可情報を付加すればよい。
なお、表示不可情報を付加する処理は省略されてもよい。表示不可情報を付加する処理が省略されたとしても、種類情報が付加されていれば、輝度差分データや色差分データが誤って表示されてしまうことを抑制することができる。
なお、表示不可情報は表示装置が解読できないコードに限らない。表示不可情報は、表示装置での表示ができないことを表す情報であれば、どのような情報であってもよい。
FIG. 2 shows an example in which SDI data including SDI brightness difference data and SDI color difference data is generated, but the SDI brightness difference data and SDI color difference data may be transmitted separately. Good. For example, the SDI luminance difference data may be transmitted using a cable different from the SDI color difference data. In that case, display disable information may be added individually to the SDI luminance difference data and the SDI color difference data.
It should be noted that the process of adding display impossible information may be omitted. Even if the process of adding the display impossibility information is omitted, if the type information is added, it is possible to prevent the luminance difference data and the color difference data from being erroneously displayed.
The display impossible information is not limited to a code that cannot be decoded by the display device. The non-displayable information may be any information as long as it is information indicating that display on the display device cannot be performed.

<表示装置>
表示装置120の各機能部について、図3のフローチャートを用いて説明する。図3は、表示装置120の動作の流れ(処理フロー)の一例を示すフローチャートである。表示装置120では、メモリ132(ROM)に格納されたプログラムをCPU131が実行する。それにより、図3に示す処理フローで各処理が実行される。
<Display device>
Each functional unit of the display device 120 will be described with reference to the flowchart of FIG. FIG. 3 is a flowchart illustrating an example of the operation flow (processing flow) of the display device 120. In the display device 120, the CPU 131 executes a program stored in the memory 132 (ROM). Thereby, each processing is executed in the processing flow shown in FIG.

まず、SDI入力端子121,122とSDIデコーダ123,124により、ベース画像データである入力ベース画像データと、差分データである入力差分データと、の少なくとも一方が取得される(S301)。入力差分データとして、例えば、輝度差分データである入力輝度差分データと、色差分データである入力色差分データと、の少なくとも一方が取得される。
本実施形態では、入力ベース画像データと入力差分データが個別に取得される。
First, at least one of input base image data that is base image data and input difference data that is difference data is acquired by the SDI input terminals 121 and 122 and the SDI decoders 123 and 124 (S301). As input difference data, for example, at least one of input luminance difference data that is luminance difference data and input color difference data that is color difference data is acquired.
In this embodiment, input base image data and input difference data are acquired separately.

SDI入力端子121は、SDIケーブル140を用いて、画像処理装置100からSDIベース画像データを取得する。SDI入力端子121は、取得したデータをSDIデコーダ123に出力する。   The SDI input terminal 121 acquires SDI base image data from the image processing apparatus 100 using the SDI cable 140. The SDI input terminal 121 outputs the acquired data to the SDI decoder 123.

SDI入力端子122は、SDIケーブル150を用いて、画像処理装置100からSDI輝度差分データとSDI色差分データを取得する。そして、SDI入力端子122は、取得したデータをSDIデコーダ124に出力する。   The SDI input terminal 122 acquires SDI brightness difference data and SDI color difference data from the image processing apparatus 100 using the SDI cable 150. Then, the SDI input terminal 122 outputs the acquired data to the SDI decoder 124.

SDIデコーダ123は、SDI入力端子121で取得されたシリアルデータであるSDIベース画像データを、パラレルデータである入力ベース画像データに変換する。そして、SDIデコーダ123は、入力ベース画像データをデータ形式判断部125に出力する。   The SDI decoder 123 converts the SDI base image data that is serial data acquired at the SDI input terminal 121 into input base image data that is parallel data. Then, the SDI decoder 123 outputs the input base image data to the data format determination unit 125.

SDIデコーダ124は、SDI入力端子122で取得されたシリアルデータであるSDI輝度差分データとSDI色差分データを、パラレルデータである入力輝度差分データと入力色差分データに変換する。そして、SDIデコーダ123は、入力輝度差分データと入力色差分データをデータ形式判断部125に出力する。   The SDI decoder 124 converts the SDI luminance difference data and SDI color difference data, which are serial data acquired at the SDI input terminal 122, into input luminance difference data and input color difference data, which are parallel data. Then, the SDI decoder 123 outputs the input luminance difference data and the input color difference data to the data format determination unit 125.

SDI入力端子121かSDI入力端子122の少なくとも一方にSDIデータが入力され、入力されたSDIデータがパラレルデータにデコードされた後、S302に処理が進められる。   After the SDI data is input to at least one of the SDI input terminal 121 and the SDI input terminal 122 and the input SDI data is decoded into parallel data, the process proceeds to S302.

なお、本実施形態では、表示装置120が画像処理装置100からデータを取得する例を説明するが、表示装置120の外部装置は画像処理装置100に限らない。例えば、表示装置120は、ベース画像データ、輝度差分データ、色差分データ、等を記憶する記憶装置からデータを取得してもよい。
なお、本実施形態では、SDIケーブルを用いてデータを取得する例を説明するが、データを取得するために使用するケーブルはSDIケーブルに限らない。データは、無線通信によって取得されてもよい。
なお、各データは同じケーブルを用いて外部装置から取得されてもよい。また、SDI輝度差分データ、SDI色差分データとは異なる入力端子によって取得されてもよい。
In the present embodiment, an example in which the display device 120 acquires data from the image processing device 100 will be described, but the external device of the display device 120 is not limited to the image processing device 100. For example, the display device 120 may acquire data from a storage device that stores base image data, luminance difference data, color difference data, and the like.
In this embodiment, an example in which data is acquired using an SDI cable will be described. However, a cable used for acquiring data is not limited to an SDI cable. Data may be acquired by wireless communication.
Each data may be acquired from an external device using the same cable. Further, the SDI brightness difference data and the SDI color difference data may be acquired by different input terminals.

S302では、データ形式判断部125が、データ形式判断部125に入力されたデータの種類を判断する。本実施形態では、データに種類情報が付加されているか否かが判断される。そして、種類情報が付加されているデータの種類が、種類情報に基づいて判断される。具体的には、種類情報が付加されているデータが、入力ベース画像データ、入力輝度差分データ、及び、入力色差分データのいずれであるかが判断される。データ形式判断部125に複数のデータが入力された場合には、データ毎に判断が行われる。
なお、種類情報が付加されていないデータは、不明なデータとして処理の対象から除外されてもよいし、そうでなくてもよい。例えば、種類情報が付加されていないデータは、画像データ(入力ベース画像データ)であると判断されてもよい。
なお、本実施形態では、従来のSDI形式の画像データ(対応する輝度差分データが存在しない画像データ)は、入力ベース画像データであると判断されるものとする。
In S <b> 302, the data format determination unit 125 determines the type of data input to the data format determination unit 125. In this embodiment, it is determined whether or not type information is added to the data. Then, the type of data to which the type information is added is determined based on the type information. Specifically, it is determined whether the data to which the type information is added is input base image data, input luminance difference data, or input color difference data. When a plurality of data is input to the data format determination unit 125, determination is performed for each data.
Note that data to which type information is not added may be excluded from processing targets as unknown data, or not. For example, data to which type information is not added may be determined as image data (input base image data).
In the present embodiment, it is assumed that conventional SDI format image data (image data for which there is no corresponding luminance difference data) is input base image data.

次に、CPU131が、S302の判断結果に基づいて、入力ベース画像データが取得されたか否かを判断する(S303)。
入力ベース画像データが取得された場合には(S303:YES)、S304に処理が進められ、入力ベース画像データが取得されなかった場合には(S303:NO)、S311に処理が進められる。
Next, the CPU 131 determines whether or not input base image data has been acquired based on the determination result of S302 (S303).
When the input base image data is acquired (S303: YES), the process proceeds to S304. When the input base image data is not acquired (S303: NO), the process proceeds to S311.

S304では、CPU131が、S302の判断結果に基づいて、入力輝度差分データと入力色差分データの両方が取得されたか否かを判断する。
入力輝度差分データと入力色差分データの両方が取得された場合には(S304:YES)、S305に処理が進められ、入力輝度差分データと入力色差分データの少なくとも一方が取得されなかった場合には(S303:NO)、S310に処理が進められる。
なお、上述したように、ベース画像データに対応するデータとして、輝度差分データのみが生成され、色差分データが生成されないことがある。その場合には、入力ベース画像データに対応する色差分データは存在しない。また、ベース画像データに対応するデータとして、色差分データのみが生成され、輝度差分データが生成されないことがある。その場合には、入力ベース画像データに対応する輝度差分データは存在しない。そのため、S304では、入力輝度差分データと入力色差分データの少なくとも一方が取得されたか否かが判断されてもよい。そして、入力輝度差分データと入力色差分データの少なくとも一方が取得された場合にS305に処理が進められ、入力輝度差分データと入力色差分データの両方が取得されなかった場合にS310に処理が進められてもよい。
In S304, the CPU 131 determines whether both input luminance difference data and input color difference data have been acquired based on the determination result in S302.
When both the input luminance difference data and the input color difference data are acquired (S304: YES), the process proceeds to S305, and at least one of the input luminance difference data and the input color difference data is not acquired. (S303: NO), the process proceeds to S310.
As described above, only luminance difference data may be generated as data corresponding to the base image data, and color difference data may not be generated. In that case, there is no color difference data corresponding to the input base image data. Further, only the color difference data may be generated as the data corresponding to the base image data, and the luminance difference data may not be generated. In that case, there is no luminance difference data corresponding to the input base image data. Therefore, in S304, it may be determined whether or not at least one of the input luminance difference data and the input color difference data has been acquired. If at least one of the input luminance difference data and the input color difference data is acquired, the process proceeds to S305. If both the input luminance difference data and the input color difference data are not acquired, the process proceeds to S310. May be.

S305では、コンテンツ識別フラグ解析部126が、入力輝度差分データと入力色差分データの両方が、入力ベース画像データに対応するデータであるか否かを判断する。本実施形態では、入力ベース画像データ、入力輝度差分データ、及び、入力色差分データに
コンテンツ識別フラグ(対応情報)が付加されているか否かが判断される。そして、入力ベース画像データ、入力輝度差分データ、及び、入力色差分データに対応情報が付加されていた場合に、当該対応情報に基づいて、入力輝度差分データと入力色差分データの両方が、入力ベース画像データに対応するデータであるか否かが判断される。具体的には、入力ベース画像データ、入力輝度差分データ、及び、入力色差分データに同じコンテンツ識別フラグが付加されている場合に、入力輝度差分データと入力色差分データの両方が、入力ベース画像データに対応するデータであると判断される。入力輝度差分データに入力ベース画像データと異なるコンテンツ識別フラグが付加されている場合には、入力輝度差分データが入力ベース画像データに対応するデータではないと判断される。そして、入力色差分データに入力ベース画像データと異なるコンテンツ識別フラグが付加されている場合には、入力色差分データが入力ベース画像データに対応するデータではないと判断される。
入力輝度差分データと入力色差分データの両方が、入力ベース画像データに対応するデータであると判断された場合には(S305:YES)、S306に処理が進められる。入力輝度差分データと入力色差分データの少なくとも一方が、入力ベース画像データに対応するデータでないと判断された場合には(S305:NO)、S310に処理が進められる。
In S305, the content identification flag analysis unit 126 determines whether both the input luminance difference data and the input color difference data are data corresponding to the input base image data. In this embodiment, it is determined whether or not a content identification flag (corresponding information) is added to the input base image data, the input luminance difference data, and the input color difference data. Then, when correspondence information is added to the input base image data, the input luminance difference data, and the input color difference data, both the input luminance difference data and the input color difference data are input based on the correspondence information. It is determined whether the data corresponds to the base image data. Specifically, when the same content identification flag is added to the input base image data, the input luminance difference data, and the input color difference data, both the input luminance difference data and the input color difference data are It is determined that the data corresponds to the data. When a content identification flag different from the input base image data is added to the input luminance difference data, it is determined that the input luminance difference data is not data corresponding to the input base image data. If a content identification flag different from the input base image data is added to the input color difference data, it is determined that the input color difference data is not data corresponding to the input base image data.
If it is determined that both the input luminance difference data and the input color difference data are data corresponding to the input base image data (S305: YES), the process proceeds to S306. If it is determined that at least one of the input luminance difference data and the input color difference data is not data corresponding to the input base image data (S305: NO), the process proceeds to S310.

なお、上述したように、入力ベース画像データ、入力輝度差分データ、及び、入力色差分データの少なくともいずれかにコンテンツ識別フラグが付加されていれば、S305の判断処理を行うことができる。
なお、入力ベース画像データ、入力輝度差分データ、及び、入力色差分データの少なくともいずれかにコンテンツ識別フラグが付加されていないことにより、S305の判断処理を実行することができない場合には、S306またはS310に処理が進められる。但し、入力ベース画像データに誤った輝度域拡大処理や色域拡大処理が施されることを抑制するために、S310に処理が進められることが好ましい。“誤った輝度域拡大処理”は、入力ベース画像データに対応していない輝度差分データを用いた輝度域拡大処理であり、“誤った色域拡大処理”は、入力ベース画像データに対応していない色差分データを用いた色域拡大処理である。
なお、上述したように、入力ベース画像データに対応する輝度差分データと色差分データの一方が存在しないことがある。そのため、入力輝度差分データと入力色差分データの少なくとも一方が入力ベース画像データに対応するデータであると判断された場合にS306に処理が進められてもよい。そして、入力輝度差分データと入力色差分データの両方が入力ベース画像データに対応するデータでないと判断された場合にS310に処理が進められてもよい。入力ベース画像データに対応する輝度差分データと色差分データが生成されているにも拘らず、入力ベース画像データに対応する入力色差分データが取得されていない場合には、画質の観点からS310に処理が進められることが好ましい。入力ベース画像データに対応する輝度差分データと色差分データが生成されているにも拘らず、入力ベース画像データに対応する入力輝度差分データが取得されていない場合にも、画質の観点からS310に処理が進められることが好ましい。
As described above, if a content identification flag is added to at least one of the input base image data, the input luminance difference data, and the input color difference data, the determination process in S305 can be performed.
If the content identification flag is not added to at least one of the input base image data, the input luminance difference data, and the input color difference data, the determination process of S305 cannot be executed. The process proceeds to S310. However, it is preferable that the process proceeds to S310 in order to prevent erroneous luminance range expansion processing and color gamut expansion processing from being performed on the input base image data. “Incorrect luminance gamut expansion processing” is luminance luminance expansion processing using luminance difference data that does not correspond to input base image data. “Incorrect color gamut expansion processing” corresponds to input base image data. This is a color gamut expansion process using no color difference data.
As described above, one of the luminance difference data and the color difference data corresponding to the input base image data may not exist. Therefore, when it is determined that at least one of the input luminance difference data and the input color difference data is data corresponding to the input base image data, the process may proceed to S306. Then, when it is determined that both the input luminance difference data and the input color difference data are not data corresponding to the input base image data, the process may be advanced to S310. If the input color difference data corresponding to the input base image data is not acquired even though the luminance difference data and the color difference data corresponding to the input base image data are generated, the process proceeds to S310 from the viewpoint of image quality. It is preferable that the process proceeds. Even if the luminance difference data and the color difference data corresponding to the input base image data are generated, but the input luminance difference data corresponding to the input base image data is not acquired, the process proceeds to S310 from the viewpoint of image quality. It is preferable that the process proceeds.

S306では、拡大処理部127が、入力輝度差分データを用いた輝度域拡大処理と入力色差分データを用いた色域拡大処理とを入力ベース画像データに施すことにより、レンジ拡大画像データを生成する。レンジ拡大画像データは、例えば、Y値、Cb値、及び、Cr値のそれぞれが32ビット相当の階調値であるHDR画像データである。
輝度域拡大処理と色域拡大処理が行われた後の画像データ(処理画像データ)のビット数が、表示装置120で表示可能な階調値のビット数よりも多い場合には、表示装置で表示可能なビット数まで処理画像データのビット数が低減される。それにより、レンジ拡大画像データが生成される。即ち、表示装置で表示可能な画像データのダイナミックレンジまで処理画像データのダイナミックレンジを縮小することにより、レンジ拡大画像データ
が生成される。表示装置120で表示可能な階調値のビット数は、例えば、画像処理部129で処理可能な階調値のビット数である。
In step S306, the enlargement processing unit 127 performs range gamut expansion processing using the input luminance difference data and color gamut expansion processing using the input color difference data on the input base image data, thereby generating range expansion image data. . The range expansion image data is, for example, HDR image data in which each of the Y value, the Cb value, and the Cr value is a gradation value equivalent to 32 bits.
When the number of bits of the image data (processed image data) after the luminance gamut expansion processing and the color gamut expansion processing is larger than the number of bits of the gradation value that can be displayed on the display device 120, the display device The number of bits of the processed image data is reduced to the number of bits that can be displayed. Thereby, range-enlarged image data is generated. That is, the range-enhanced image data is generated by reducing the dynamic range of the processed image data to the dynamic range of the image data that can be displayed on the display device. The number of bits of the gradation value that can be displayed by the display device 120 is, for example, the number of bits of the gradation value that can be processed by the image processing unit 129.

なお、レンジ拡大画像データのビット数は、メーカーによって予め定められた値であってもよいし、ユーザが設定や変更をすることのできる値であってもよい。レンジ拡大画像データのビット数は、表示装置の使用環境、ベース画像データの種類(イラスト、写真、動画、静止画、等)、用途(観賞用、診断用、等)、等に応じて表示装置が自動で決定してもよい。
なお、HDR画像データのビット数は32ビットより多くても少なくてもよい。
なお、入力ベース画像データに対応する入力輝度差分データが存在しなかったり取得されなかったりしている場合には、S306において輝度域拡大処理は行われない。また、入力ベース画像データに対応する入力色差分データが存在しなかったり取得されなかったりしている場合には、S306において色域拡大処理は行われない。
Note that the number of bits of the range-enlarged image data may be a value determined in advance by the manufacturer, or may be a value that can be set or changed by the user. The number of bits of the range-enlarged image data depends on the usage environment of the display device, the type of base image data (illustration, photograph, video, still image, etc.), application (for ornamental use, diagnostic use, etc.) May be determined automatically.
Note that the number of bits of HDR image data may be more or less than 32 bits.
If the input luminance difference data corresponding to the input base image data does not exist or has not been acquired, the luminance range expansion process is not performed in S306. If the input color difference data corresponding to the input base image data does not exist or is not acquired, the color gamut expansion process is not performed in S306.

次に、CPU131が、レンジ拡大画像データを生成する処理(例えば、輝度域拡大処理と色域拡大処理)に要する時間が閾値以下か否かを判断する(S307)。
レンジ拡大画像データを生成する処理に要する時間(処理時間)が閾値以下である場合には(S307:YES)、S308に処理が進められ、処理時間が閾値より長い場合には、S310に処理が進められる。
なお、処理時間と比較する閾値は、メーカーによって予め定められた値であってもよいし、ユーザが設定や変更をすることのできる値であってもよい。閾値は、表示装置の使用環境、ベース画像データの種類、用途、等に応じて表示装置が自動で決定してもよい。
Next, the CPU 131 determines whether or not the time required for the processing for generating the range expansion image data (for example, the luminance region expansion processing and the color gamut expansion processing) is equal to or less than the threshold (S307).
When the time (processing time) required for the processing for generating the range enlarged image data is equal to or smaller than the threshold (S307: YES), the processing proceeds to S308, and when the processing time is longer than the threshold, the processing proceeds to S310. It is advanced.
The threshold value to be compared with the processing time may be a value determined in advance by the manufacturer, or may be a value that can be set or changed by the user. The threshold value may be automatically determined by the display device according to the use environment of the display device, the type of base image data, the application, and the like.

S308では、画像処理部129と表示部130により、レンジ拡大画像データに基づく画像が表示される。本実施形態では、画像処理部129が、レンジ拡大画像データに所定の画像処理を施すことにより、表示用画像データを生成する。そして、画像処理部129は、表示用画像データを表示部130に出力する。それにより、表示用画像データが画面に表示される。具体的には、表示用画像データに基づいて液晶パネルの透過率が制御されることにより、表示用画像データが画面に表示される。所定の画像処理は、例えば、ガンマ変換処理、色差分データを用いた色変換処理とは異なる色変換処理、等である。   In S308, the image processing unit 129 and the display unit 130 display an image based on the range expansion image data. In the present embodiment, the image processing unit 129 generates display image data by performing predetermined image processing on the range-enlarged image data. Then, the image processing unit 129 outputs the display image data to the display unit 130. Thereby, the display image data is displayed on the screen. Specifically, the display image data is displayed on the screen by controlling the transmittance of the liquid crystal panel based on the display image data. The predetermined image processing includes, for example, gamma conversion processing, color conversion processing different from color conversion processing using color difference data, and the like.

なお、所定の画像処理が行われずに、レンジ拡大画像データが表示用画像データとして使用されてもよい。
なお、ベース画像データのダイナミックレンジや色域だけでなくバックライトの発光が差分データに基づいて制御されてもよい。具体的には、入力差分データがBL制御部128に入力されてもよい。そして、BL制御部128が、入力差分データに基づいてバックライトの発光を制御してもよい。それにより、液晶パネルの透過率を制御するだけでは表示しきれなかった輝度をバックライトの発光輝度に割り当てることができ、液晶パネルの透過率を制御するだけでは表示しきれなかった色をバックライトの発光色に割り当てることができる。その結果、ダイナミックレンジや色域がより広い表示画像(画面に表示された画像)を得ることができる。例えば、表示装置で表示可能な階調値のビット数が10ビットである場合に、10ビット相当のダイナミックレンジよりもダイナミックレンジが広い表示画像を得ることができる。
Note that range-enhanced image data may be used as display image data without performing predetermined image processing.
Note that not only the dynamic range and color gamut of the base image data, but also the light emission of the backlight may be controlled based on the difference data. Specifically, input difference data may be input to the BL control unit 128. Then, the BL control unit 128 may control the light emission of the backlight based on the input difference data. As a result, the brightness that could not be displayed simply by controlling the transmittance of the liquid crystal panel can be assigned to the light emission brightness of the backlight. Can be assigned. As a result, it is possible to obtain a display image (image displayed on the screen) having a wider dynamic range and color gamut. For example, when the number of bits of the gradation value that can be displayed on the display device is 10 bits, a display image having a wider dynamic range than the dynamic range corresponding to 10 bits can be obtained.

次に、CPU131が、レンジ拡大画像データに基づく画像の表示中に、入力輝度差分データと入力色差分データの少なくとも一方が取得されなくなったか否かを判断する(S309)。本実施形態では、CPU131は、入力輝度差分データと入力色差分データの取得に使用されたSDI入力端子122を監視しており、SDI入力端子122の接続状態に基づいて、SDIケーブル150が表示装置120から取り外されたか否かを判断する。SDIケーブル150が表示装置120に接続されている場合には、入力輝度差分デ
ータと入力色差分データの両方が取得されていると判断される。SDIケーブル150が表示装置120から取り外された場合には、入力輝度差分データと入力色差分データの両方が取得されなくなったと判断される。
入力輝度差分データと入力色差分データの両方が取得されている場合には(S309:NO)、本フローが終了される。入力輝度差分データと入力色差分データの少なくとも一方が取得されなくなった場合には(S309:YES)、レンジ拡大画像データの生成が行えなくなるため、S310に処理が進められる。
Next, the CPU 131 determines whether or not at least one of the input luminance difference data and the input color difference data is not acquired during the display of the image based on the range expansion image data (S309). In the present embodiment, the CPU 131 monitors the SDI input terminal 122 used for acquiring the input luminance difference data and the input color difference data, and the SDI cable 150 is connected to the display device based on the connection state of the SDI input terminal 122. It is determined whether or not it has been removed from 120. When the SDI cable 150 is connected to the display device 120, it is determined that both input luminance difference data and input color difference data have been acquired. When the SDI cable 150 is removed from the display device 120, it is determined that both the input luminance difference data and the input color difference data are no longer acquired.
If both the input luminance difference data and the input color difference data have been acquired (S309: NO), this flow ends. If at least one of the input luminance difference data and the input color difference data is not acquired (S309: YES), the range enlarged image data cannot be generated, and the process proceeds to S310.

なお、上述したように、入力ベース画像データに対応する輝度差分データと色差分データの一方が存在しないことがある。そのため、S309では、入力輝度差分データと入力色差分データの両方が取得されなくなったか否かが判断されてもよい。そして、入力輝度差分データと入力色差分データの少なくとも一方が取得されている場合に本フローが終了され、入力輝度差分データと入力色差分データの両方が取得されなくなった場合にS310に処理が進められてもよい。入力ベース画像データに対応するデータとして輝度差分データと色差分データが生成されている場合には、画質の観点から、入力輝度差分データと入力色差分データの一方が取得されなくなった場合にもS310に処理が進められることが好ましい。   As described above, one of the luminance difference data and the color difference data corresponding to the input base image data may not exist. Therefore, in S309, it may be determined whether or not both input luminance difference data and input color difference data are acquired. Then, when at least one of the input luminance difference data and the input color difference data has been acquired, this flow is ended, and when both the input luminance difference data and the input color difference data are not acquired, the process proceeds to S310. May be. When the luminance difference data and the color difference data are generated as data corresponding to the input base image data, from the viewpoint of image quality, even when one of the input luminance difference data and the input color difference data is not acquired, S310 is performed. It is preferable that the process proceeds.

S310では、画像処理部129と表示部130により、入力ベース画像データに基づく画像が表示される。画像の表示方法は、S308と同じである。
本実施形態では、以下の場合1〜3に、入力ベース画像データに基づく画像が表示されることとなる。場合1,2では、レンジ拡大画像データを生成する処理が行われずに、入力ベース画像データに基づく画像が表示される。場合3では、レンジ拡大画像データを生成する処理が行われるが、入力ベース画像データに基づく画像が表示される。

場合1:入力輝度差分データと入力色差分データの少なくとも一方が取得されなかった場合(S304:NOとS309:YES)
場合2:入力輝度差分データと入力色差分データの少なくとも一方が入力ベース画像データに対応するデータでないと判断された場合(S305:NO)
場合3:レンジ拡大画像データを生成する処理に要する時間が閾値よりも長い場合(S307:NO)

S310の処理を行うことにより、レンジ拡大画像データに基づく画像が表示できない場合にも画像の表示を行うことができる。
In S310, the image processing unit 129 and the display unit 130 display an image based on the input base image data. The image display method is the same as S308.
In the present embodiment, images based on the input base image data are displayed in the following cases 1 to 3. In cases 1 and 2, an image based on the input base image data is displayed without performing the process of generating the range enlarged image data. In case 3, processing for generating range-enlarged image data is performed, but an image based on the input base image data is displayed.

Case 1: When at least one of the input luminance difference data and the input color difference data is not acquired (S304: NO and S309: YES)
Case 2: When it is determined that at least one of the input luminance difference data and the input color difference data is not data corresponding to the input base image data (S305: NO)
Case 3: When the time required for the processing for generating the range-enlarged image data is longer than the threshold (S307: NO)

By performing the process of S310, an image can be displayed even when an image based on the range expansion image data cannot be displayed.

なお、表示装置は、レンジ拡大画像データを生成する処理が行われず、且つ、入力ベース画像データに基づく画像が表示される場合(例えば場合1,2)に、ユーザへの通知を行う第1通知部を有していてもよい。第1通知部では、例えば、レンジ拡大画像データを生成する処理に必要なデータが取得されていないことがユーザに通知される。第1通知部によって、入力ベース画像データに基づく画像が表示されること、レンジ拡大画像データを生成する処理を行えないこと、等が通知されてもよい。
なお、表示装置は、レンジ拡大画像データを生成する処理が行われ、且つ、入力ベース画像データに基づく画像が表示される場合(例えば場合3)に、ユーザへの通知を行う第2通知部を有していてもよい。第2通知部では、例えば、レンジ拡大画像データを生成する処理の実行中であることがユーザに通知される。第2通知部によって、入力ベース画像データに基づく画像が表示されること、表示装置の全処理負荷が高いこと、等が通知されてもよい。
第1通知部や第2通知部による通知が行われることにより、ベース画像データが表示される原因をユーザに把握させることができる。ユーザへの通知は、例えば、音声や光を用いて行うことができる。具体的には、通知内容に応じた画像(メッセージ、アイコン、等
)を画面に表示することで、ユーザへの通知を行うことができる。また、通知内容に応じた音声を発したり、通知内容に応じた点滅パターン(連続点灯を含む)や色で画面外に設けられた光源を点灯させたりすることにより、ユーザへの通知を行うことができる。
第1通知部と第2通知部の処理は同じ機能部によって実現されてもよいし、第1通知部の処理は第2通知部の処理を実現する機能部とは異なる機能部によって実現されてもよい。第1通知部と第2通知部の処理は、例えば、CPU131によって行われる。
The display device performs the first notification for notifying the user when the processing for generating the range-enlarged image data is not performed and the image based on the input base image data is displayed (for example, cases 1 and 2). May have a part. In the first notification unit, for example, the user is notified that data necessary for the process of generating the range expansion image data has not been acquired. The first notification unit may notify that an image based on the input base image data is displayed, that processing for generating range-enlarged image data cannot be performed, and the like.
The display device includes a second notification unit that performs notification to the user when processing for generating range-enlarged image data is performed and an image based on the input base image data is displayed (for example, in case 3). You may have. In the second notification unit, for example, the user is notified that the process of generating the range enlarged image data is being executed. The second notification unit may notify that an image based on the input base image data is displayed, that the total processing load on the display device is high, and the like.
By the notification by the first notification unit or the second notification unit, the user can grasp the cause of the display of the base image data. The notification to the user can be performed using, for example, voice or light. Specifically, the user can be notified by displaying an image (message, icon, etc.) corresponding to the notification content on the screen. In addition, the user is notified by sounding according to the notification content or by turning on a light source provided outside the screen with a blinking pattern (including continuous lighting) or color according to the notification content. Can do.
The processing of the first notification unit and the second notification unit may be realized by the same functional unit, and the processing of the first notification unit is realized by a functional unit different from the functional unit that realizes the processing of the second notification unit. Also good. The processing of the first notification unit and the second notification unit is performed by the CPU 131, for example.

なお、場合3においては、レンジ拡大画像データが生成された後に、入力ベース画像データに基づく画像からレンジ拡大画像データに基づく画像へ表示が切り替えられてもよい。それにより、短時間で画像表示を行うことができ、レンジ拡大画像データが生成された後にダイナミックレンジが広い画像表示を行うことができる。   In case 3, the display may be switched from the image based on the input base image data to the image based on the range expanded image data after the range expanded image data is generated. As a result, image display can be performed in a short time, and image display with a wide dynamic range can be performed after the range expansion image data is generated.

S311では、CPU131が、S301で取得されたデータのフォーマットが非対応のフォーマットであることをユーザに通知する。換言すれば、S301で取得されたデータが表示できないデータであることがユーザに通知される(第3通知)。   In S311, the CPU 131 notifies the user that the format of the data acquired in S301 is an incompatible format. In other words, the user is notified that the data acquired in S301 is data that cannot be displayed (third notification).

以上述べたように、本実施形態によれば、画像データ(例えばHDR画像データ)がベース画像データと差分データに分割されて伝送される。それにより、HDR画像データのようなダイナミックレンジが広い画像データを少ない伝送帯域で伝送することができる。
また、本実施形態によれば、ベース画像データと差分データの少なくとも一方に対応情報が付加される。それにより、ベース画像データに対して誤った拡大処理が施されることを抑制することが可能となる。その結果、ベース画像データと差分データを用いてHDR画像データを正確に復元することが可能となる。具体的には、本実施形態に係る表示装置によれば、対応情報からデータの対応関係が判断され、入力差分データが入力ベース画像データに対応するデータである場合に限ってHDR画像データが復元される。それにより、本実施形態に係る表示装置によれば、HDR画像データを正確に復元することができる。
また、本実施形態によれば、ベース画像データと差分データが個別に伝送される。それにより、HDR対応機とHDR非対応機のどちらであっても適切な画像表示ができるようにストリーム形式のHDR画像データを伝送することができる。具体的には、HDR対応機(HDR画像データに対応した表示装置)では、ベース画像データと差分データから正確なHDR画像データを復元し、復元したHDR画像データを表示することができる。そして、HDR非対応機(HDR画像データに対応していない表示装置)では、ベース画像データを表示することができる。具体的には、ベース画像データが従来のSDIフォーマットと同様のフォーマットで伝送されるため、HDR非対応機でも、ベース画像データを取得し、表示することができる。
As described above, according to the present embodiment, image data (for example, HDR image data) is divided into base image data and difference data and transmitted. Thereby, image data with a wide dynamic range such as HDR image data can be transmitted in a small transmission band.
Further, according to the present embodiment, the correspondence information is added to at least one of the base image data and the difference data. Accordingly, it is possible to suppress erroneous enlargement processing on the base image data. As a result, it is possible to accurately restore the HDR image data using the base image data and the difference data. Specifically, according to the display device according to the present embodiment, the HDR image data is restored only when the correspondence relationship of the data is determined from the correspondence information and the input difference data is data corresponding to the input base image data. Is done. Thereby, according to the display apparatus which concerns on this embodiment, HDR image data can be decompress | restored correctly.
Further, according to the present embodiment, the base image data and the difference data are transmitted separately. Accordingly, it is possible to transmit the HDR image data in a stream format so that an appropriate image display can be performed by either an HDR compatible device or an HDR non-compatible device. Specifically, an HDR compatible device (a display device that supports HDR image data) can restore accurate HDR image data from base image data and difference data, and display the restored HDR image data. Base image data can be displayed on a non-HDR compatible device (a display device that does not support HDR image data). Specifically, since the base image data is transmitted in the same format as the conventional SDI format, the base image data can be acquired and displayed even by a non-HDR compatible device.

なお、S303、S304、S307、S309、S310、及び、S311の少なくともいずれかの処理が省略されてもよい。それらの処理が省略されたとしても、上述した効果を得ることができる。   Note that at least one of the processes of S303, S304, S307, S309, S310, and S311 may be omitted. Even if these processes are omitted, the above-described effects can be obtained.

<その他の実施例>
記憶装置に記録されたプログラムを読み込み実行することで前述した実施例の機能を実現するシステムや装置のコンピュータ(又はCPU、MPU等のデバイス)によっても、本発明を実施することができる。また、例えば、記憶装置に記録されたプログラムを読み込み実行することで前述した実施例の機能を実現するシステムや装置のコンピュータによって実行されるステップからなる方法によっても、本発明を実施することができる。この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。したがって、上記コンピュ
ータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
<Other examples>
The present invention can also be implemented by a system (or a device such as a CPU or MPU) of a system or apparatus that implements the functions of the above-described embodiments by reading and executing a program recorded in a storage device. The present invention can also be implemented by a method comprising steps executed by a computer of a system or apparatus that implements the functions of the above-described embodiments by reading and executing a program recorded in a storage device, for example. . For this purpose, the program is stored in the computer from, for example, various types of recording media that can serve as the storage device (ie, computer-readable recording media that holds data non-temporarily). Provided to. Therefore, the computer (including devices such as CPU and MPU), the method, the program (including program code and program product), and the computer-readable recording medium that holds the program non-temporarily are all present. It is included in the category of the invention.

100 画像処理装置
101 ダイナミックレンジ縮小部
102 差分生成部
108 コンテンツ識別フラグ付加部
111,112 SDI出力端子
120 表示装置
121,122 SDI入力端子
126 コンテンツ識別フラグ解析部
127 拡大処理部
130 表示部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Dynamic range reduction part 102 Difference production | generation part 108 Content identification flag addition part 111,112 SDI output terminal 120 Display apparatus 121,122 SDI input terminal 126 Content identification flag analysis part 127 Enlargement process part 130 Display part

Claims (28)

入力画像データに基づいて、前記入力画像データよりもダイナミックレンジと色域の少なくとも一方が狭いベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データと、を生成する生成処理を行う生成手段と、
前記ベース画像データと前記差分データの少なくとも一方に、前記ベース画像データと前記差分データの対応関係を表す対応情報を付加する付加処理を行う付加手段と、
前記付加処理が行われた後のベース画像データと差分データを個別に出力する出力手段と、
を有し、
前記付加処理では、前記生成処理で生成された差分データに、表示装置での表示ができないことを表す表示不可情報が付加されることを特徴とする画像処理装置。
Based on input image data, base image data having at least one of a dynamic range and a color gamut narrower than the input image data, and difference data used in an enlargement process for enlarging at least one of the dynamic range and the color gamut of the image data And generating means for performing a generating process for generating
An adding means for performing an adding process of adding correspondence information representing a correspondence relationship between the base image data and the difference data to at least one of the base image data and the difference data;
Output means for individually outputting the base image data and the difference data after the additional processing is performed;
I have a,
The additional processing is the differential data generated by the generation process, the image processing apparatus according to claim Rukoto not available information is added indicating that it can not be displayed on the display device.
前記付加処理では、前記ベース画像データと前記差分データの両方に対応情報が付加されることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein in the addition process, correspondence information is added to both the base image data and the difference data. 前記付加処理では、前記ベース画像データに付加された対応情報と同じ対応情報が前記差分データに付加されることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein in the addition processing, the same correspondence information as the correspondence information added to the base image data is added to the difference data. 前記差分データは、画像データのダイナミックレンジを拡大する輝度域拡大処理で使用される輝度差分データと、画像データの色域を拡大する色域拡大処理で使用される色差分データと、を含み、
前記付加処理では、前記ベース画像データ、前記輝度差分データ、及び、前記色差分データの少なくともいずれかに、前記ベース画像データ、前記輝度差分データ、及び、前記色差分データの対応関係を表す対応情報が付加され、
前記出力手段は、前記付加処理が行われた後のベース画像データ、輝度差分データ、及び、色差分データを出力することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
The difference data includes luminance difference data used in luminance gamut expansion processing for expanding the dynamic range of image data, and color difference data used in color gamut expansion processing for expanding the color gamut of image data,
In the addition processing, correspondence information representing a correspondence relationship between the base image data, the luminance difference data, and the color difference data in at least one of the base image data, the luminance difference data, and the color difference data. Is added,
The image processing according to any one of claims 1 to 3, wherein the output means outputs base image data, luminance difference data, and color difference data after the addition processing is performed. apparatus.
前記付加処理では、前記ベース画像データ、前記輝度差分データ、及び、前記色差分デ
ータの全てに対応情報が付加されることを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein in the addition process, correspondence information is added to all of the base image data, the luminance difference data, and the color difference data.
前記付加処理では、前記ベース画像データに付加された対応情報と同じ対応情報が前記輝度差分データと前記色差分データに付加されることを特徴とする請求項5に記載の画像処理装置。   6. The image processing apparatus according to claim 5, wherein in the addition process, the same correspondence information as the correspondence information added to the base image data is added to the luminance difference data and the color difference data. 前記出力手段は、前記付加処理が行われた後のベース画像データを、前記付加処理が行われた後の差分データとは異なるケーブルを用いて、外部装置に出力することを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。   The output means outputs the base image data after the addition processing is performed to an external device using a cable different from the difference data after the addition processing is performed. The image processing apparatus according to any one of 1 to 6. 前記出力手段は、前記付加処理が行われた後のベース画像データと差分データを、SDIケーブルを用いて外部装置に出力することを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。   The said output means outputs the base image data and difference data after the said addition process to an external device using an SDI cable, The one of Claims 1-7 characterized by the above-mentioned. Image processing device. 前記付加処理では、前記付加処理が行われた後のデータとしてSDIデータが生成され、
前記対応情報は、SDIデータのアンシラリ部に格納されることを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。
In the addition process, SDI data is generated as data after the addition process is performed,
The image processing apparatus according to claim 1, wherein the correspondence information is stored in an ancillary portion of SDI data.
前記付加処理では、前記生成処理で生成されたベース画像データと差分データに、データの種類を表す種類情報が付加されることを特徴とする請求項1〜9のいずれか1項に記載の画像処理装置。   The image according to any one of claims 1 to 9, wherein in the addition process, type information indicating a type of data is added to the base image data and the difference data generated in the generation process. Processing equipment. 記表示不可情報は、SDIデータのペイロードIDに格納されることを特徴とする請求項に記載の画像処理装置。 Before Symbol not available information, the image processing apparatus according to claim 9, characterized in that stored in the payload ID of the SDI data. 前記表示不可情報は、前記表示装置が解読できないコードであることを特徴とする請求項1〜11のいずれか1項に記載の画像処理装置。 The display failure information, the image processing apparatus according to any one of claims 1 to 11, wherein the display device is a code that can not be deciphered. ベース画像データである入力ベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データである入力差分データと、を個別に取得する取得手段と、
前記入力ベース画像データと前記入力差分データの少なくとも一方に、ベース画像データと差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力差分データが前記入力ベース画像データに対応するデータであるか否かを判断する判断手段と、
前記取得手段で前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータであると判断された場合に、前記入力差分データを用いた拡大処理を前記入力ベース画像データに施すことにより、レンジ拡大画像データを生成し、前記取得手段で前記入力差分データが取得されなかった場合には、前記レンジ拡大画像データを生成しない生成手段と、
前記生成手段により前記レンジ拡大画像データが生成された場合に、前記レンジ拡大画像データに基づく画像を表示し、前記生成手段により前記レンジ拡大画像データが生成されない場合には、前記入力ベース画像データに基づく画像を表示する表示手段と、
前記生成手段により前記レンジ拡大画像データが生成されず、且つ、前記表示手段により前記入力ベース画像データに基づく画像が表示される場合に、前記レンジ拡大画像データを生成する処理に必要なデータが取得されていないことをユーザに通知する第1通知手段と、
を有することを特徴とする表示装置。
Acquisition means for individually acquiring input base image data that is base image data, and input difference data that is difference data used in enlargement processing for enlarging at least one of the dynamic range and color gamut of the image data;
When correspondence information indicating the correspondence between the base image data and the difference data is added to at least one of the input base image data and the input difference data, the input difference data is input based on the correspondence information. Determining means for determining whether the data corresponds to the base image data;
The input difference data is acquired by the acquisition means, and when it is determined that the acquired input difference data is data corresponding to the input base image data, an enlargement process using the input difference data is performed as the input A range expansion image data is generated by applying to the base image data, and if the input difference data is not acquired by the acquisition unit, a generation unit that does not generate the range expansion image data ;
When the range expansion image data is generated by the generation unit, an image based on the range expansion image data is displayed. When the range expansion image data is not generated by the generation unit, the input base image data is displayed. Display means for displaying an image based on;
Data required for the processing for generating the range expansion image data is acquired when the range expansion image data is not generated by the generation unit and an image based on the input base image data is displayed by the display unit. First notification means for notifying the user that it has not been performed;
A display device comprising:
前記入力差分データは、画像データのダイナミックレンジを拡大する輝度域拡大処理で使用される輝度差分データである入力輝度差分データと、画像データの色域を拡大する色域拡大処理で使用される色差分データである入力色差分データと、を含み、
前記判断手段は、前記入力ベース画像データ、前記入力輝度差分データ、及び、前記入力色差分データの少なくともいずれかに、ベース画像データ、輝度差分データ、及び、色差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力輝度差分データと前記入力色差分データの両方が前記入力ベース画像データに対応するデータであるか否かを判断し、
前記生成手段は、前記入力輝度差分データと前記入力色差分データの両方が前記入力ベース画像データに対応するデータであると判断された場合に、前記入力輝度差分データを用いた輝度域拡大処理と前記入力色差分データを用いた色域拡大処理とを前記入力ベース画像データに施すことにより、前記レンジ拡大画像データを生成する
ことを特徴とする請求項13に記載の表示装置。
The input difference data includes input luminance difference data which is luminance difference data used in luminance range expansion processing for expanding the dynamic range of image data, and color used in color gamut expansion processing for expanding the color gamut of image data. Input color difference data that is difference data, and
The determination means includes correspondence information representing a correspondence relationship between base image data, luminance difference data, and color difference data in at least one of the input base image data, the input luminance difference data, and the input color difference data. Is added, based on the correspondence information, it is determined whether both the input luminance difference data and the input color difference data are data corresponding to the input base image data,
The generation means, when it is determined that both the input luminance difference data and the input color difference data are data corresponding to the input base image data, a luminance range expansion process using the input luminance difference data; The display device according to claim 13 , wherein the range expansion image data is generated by performing color gamut expansion processing using the input color difference data on the input base image data.
前記取得手段で前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータでないと判断された場合に、
前記生成手段は、前記レンジ拡大画像データを生成する処理を行わず、
前記表示手段は、前記入力ベース画像データに基づく画像を表示する
ことを特徴とする請求項13または14に記載の表示装置。
When the input difference data is acquired by the acquisition means, and it is determined that the acquired input difference data is not data corresponding to the input base image data,
The generating means does not perform the process of generating the range enlarged image data,
The display device according to claim 13 or 14 , wherein the display unit displays an image based on the input base image data.
前記取得手段で前記入力輝度差分データと前記入力色差分データの少なくとも一方が取得されなかった場合に、
前記生成手段は、前記レンジ拡大画像データを生成する処理を行わず、
前記表示手段は、前記入力ベース画像データに基づく画像を表示する
ことを特徴とする請求項14に記載の表示装置。
When at least one of the input luminance difference data and the input color difference data is not acquired by the acquisition unit,
The generating means does not perform the process of generating the range enlarged image data,
The display device according to claim 14 , wherein the display unit displays an image based on the input base image data.
前記入力輝度差分データと前記入力色差分データの少なくとも一方が前記入力ベース画像データに対応するデータでないと判断された場合に、
前記生成手段は、前記レンジ拡大画像データを生成する処理を行わず、
前記表示手段は、前記入力ベース画像データに基づく画像を表示する
ことを特徴とする請求項14または16に記載の表示装置。
When it is determined that at least one of the input luminance difference data and the input color difference data is not data corresponding to the input base image data,
The generating means does not perform the process of generating the range enlarged image data,
The display device according to claim 14 or 16 , wherein the display unit displays an image based on the input base image data.
ベース画像データである入力ベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データである入力差分データと、を個別に取得する取得手段と、
前記入力ベース画像データと前記入力差分データの少なくとも一方に、ベース画像データと差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力差分データが前記入力ベース画像データに対応するデータであるか否かを判断する判断手段と、
前記取得手段で前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータであると判断された場合に、前記入力差分データを用いた拡大処理を前記入力ベース画像データに施すことにより、レンジ拡大画像データを生成し、前記取得手段で前記入力差分データが取得されなかった場合には、前記レンジ拡大画像データを生成しない生成手段と、
前記生成手段により前記レンジ拡大画像データが生成された場合に、前記レンジ拡大画像データに基づく画像を表示し、前記生成手段により前記レンジ拡大画像データが生成されない場合には、前記入力ベース画像データに基づく画像を表示する表示手段と、
前記生成手段により前記レンジ拡大画像データが生成され、且つ、前記レンジ拡大画像データを生成する処理に要する時間が閾値よりも長い場合に、前記表示手段は、前記入力ベース画像データに基づく画像を表示する
ことを特徴とする表示装置。
Acquisition means for individually acquiring input base image data that is base image data, and input difference data that is difference data used in enlargement processing for enlarging at least one of the dynamic range and color gamut of the image data;
When correspondence information indicating the correspondence between the base image data and the difference data is added to at least one of the input base image data and the input difference data, the input difference data is input based on the correspondence information. Determining means for determining whether the data corresponds to the base image data;
The input difference data is acquired by the acquisition means, and when it is determined that the acquired input difference data is data corresponding to the input base image data, an enlargement process using the input difference data is performed as the input A range expansion image data is generated by applying to the base image data, and if the input difference data is not acquired by the acquisition unit, a generation unit that does not generate the range expansion image data;
When the range expansion image data is generated by the generation unit, an image based on the range expansion image data is displayed. When the range expansion image data is not generated by the generation unit, the input base image data is displayed. Display means for displaying an image based on;
The display means displays an image based on the input base image data when the generation means generates the range expansion image data and the time required to generate the range expansion image data is longer than a threshold value. Viewing device characterized by.
前記生成手段により前記レンジ拡大画像データが生成され、且つ、前記レンジ拡大画像データを生成する処理に要する時間が閾値よりも長い場合に、前記表示手段は、前記レンジ拡大画像データが生成された後に、前記入力ベース画像データに基づく画像から前記レンジ拡大画像データに基づく画像へ表示を切り替えることを特徴とする請求項18に記載の表示装置。 When the range-enlarged image data is generated by the generation unit and the time required for the process of generating the range-enlarged image data is longer than a threshold, the display unit is configured to generate the range-enlarged image data after the range-enlarged image data is generated. The display device according to claim 18 , wherein the display is switched from an image based on the input base image data to an image based on the range enlarged image data. 前記生成手段により前記レンジ拡大画像データが生成され、且つ、前記表示手段により前記入力ベース画像データに基づく画像が表示される場合に、前記レンジ拡大画像データを生成する処理の実行中であることをユーザに通知する第2通知手段をさらに有することを特徴とする請求項18または19に記載の表示装置。 The range enlarged image data is generated by the generating unit, and when the image based on the input base image data is displayed by the display unit, the process of generating the range expanded image data is being executed. the display device according to claim 18 or 19, further comprising a second notification unit configured to notify the user. 前記取得手段で前記入力ベース画像データが取得されなかった場合に、前記取得手段で取得されたデータが表示できないデータであることをユーザに通知する第3通知手段をさらに有することを特徴とする請求項1320のいずれか1項に記載の表示装置。 3. The apparatus according to claim 1, further comprising third notification means for notifying a user that the data acquired by the acquisition means cannot be displayed when the input base image data is not acquired by the acquisition means. Item 21. The display device according to any one of Items 13 to 20 . 前記取得手段は、前記入力ベース画像データを、前記入力差分データとは異なるケーブルを用いて、外部装置から取得することを特徴とする請求項1321のいずれか1項に記載の表示装置。 The display device according to any one of claims 13 to 21 , wherein the acquisition unit acquires the input base image data from an external device using a cable different from the input difference data. 前記取得手段は、SDIケーブルを用いて外部装置からデータを取得することを特徴とする請求項1322のいずれか1項に記載の表示装置。 The display device according to any one of claims 13 to 22 , wherein the acquisition unit acquires data from an external device using an SDI cable. 入力画像データに基づいて、前記入力画像データよりもダイナミックレンジと色域の少なくとも一方が狭いベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データと、を生成する生成処理を行う生成ステップと、
前記ベース画像データと前記差分データの少なくとも一方に、前記ベース画像データと前記差分データの対応関係を表す対応情報を付加する付加処理を行う付加ステップと、
前記付加処理が行われた後のベース画像データと輝度差分データを個別に出力する出力ステップと、
を有し、
前記付加ステップでは、前記生成処理で生成された差分データに、表示装置での表示ができないことを表す表示不可情報が付加される
ことを特徴とする画像処理方法。
Based on input image data, base image data having at least one of a dynamic range and a color gamut narrower than the input image data, and difference data used in an enlargement process for enlarging at least one of the dynamic range and the color gamut of the image data And a generation step for performing a generation process for generating
An addition step of performing an addition process of adding correspondence information representing a correspondence relationship between the base image data and the difference data to at least one of the base image data and the difference data;
An output step of individually outputting the base image data and the luminance difference data after the additional processing is performed;
I have a,
In the adding step, display disable information indicating that display on a display device cannot be performed is added to the difference data generated in the generation process .
ベース画像データである入力ベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データである入力差分データと、を取得する取得ステップと、
前記入力ベース画像データと前記入力差分データの少なくとも一方に、ベース画像データと差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力差分データが前記入力ベース画像データに対応するデータであるか否かを判断する判断ステップと、
前記判断ステップでは前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータであると判断された場合に、前記入力差分データを用いた拡大処理を前記入力ベース画像データに施すことにより、レンジ拡大画像データを生成し、前記取得ステップで前記入力差分データが取得されなかった場合には、前記レンジ拡大画像データを生成しない生成ステップと、
前記生成ステップにおいて前記レンジ拡大画像データが生成された場合に、前記レンジ
拡大画像データに基づく画像を表示し、前記生成ステップにおいて前記レンジ拡大画像データが生成されない場合には、前記入力ベース画像データに基づく画像を表示する表示ステップと、
前記生成ステップにおいて前記レンジ拡大画像データが生成されず、且つ、前記表示ステップにおいて前記入力ベース画像データに基づく画像が表示される場合に、前記レンジ拡大画像データを生成する処理に必要なデータが取得されていないことをユーザに通知する第1通知ステップと、
を有することを特徴とする表示方法。
An acquisition step of acquiring input base image data that is base image data, and input difference data that is difference data used in an enlargement process for enlarging at least one of a dynamic range and a color gamut of the image data;
When correspondence information indicating the correspondence between the base image data and the difference data is added to at least one of the input base image data and the input difference data, the input difference data is input based on the correspondence information. A determination step of determining whether the data corresponds to the base image data;
In the determination step, the input difference data is acquired, and when it is determined that the acquired input difference data is data corresponding to the input base image data, an enlargement process using the input difference data is performed. By applying to the base image data, to generate a range expansion image data, if the input difference data is not acquired in the acquisition step, a generation step that does not generate the range expansion image data ,
When the range expansion image data is generated in the generation step, an image based on the range expansion image data is displayed . When the range expansion image data is not generated in the generation step, the input base image data is displayed. A display step for displaying an image based on ;
When the range enlarged image data is not generated in the generation step and an image based on the input base image data is displayed in the display step, data necessary for the processing for generating the range enlarged image data is acquired. A first notification step of notifying the user that it has not been performed;
A display method characterized by comprising:
ベース画像データである入力ベース画像データと、画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データである入力差分データと、を個別に取得する取得ステップと、An acquisition step of individually acquiring input base image data that is base image data, and input difference data that is difference data used in an enlargement process for enlarging at least one of the dynamic range and color gamut of the image data;
前記入力ベース画像データと前記入力差分データの少なくとも一方に、ベース画像データと差分データの対応関係を表す対応情報が付加されていた場合に、当該対応情報に基づいて、前記入力差分データが前記入力ベース画像データに対応するデータであるか否かを判断する判断ステップと、When correspondence information indicating the correspondence between the base image data and the difference data is added to at least one of the input base image data and the input difference data, the input difference data is input based on the correspondence information. A determination step of determining whether the data corresponds to the base image data;
前記取得ステップで前記入力差分データが取得され、取得された前記入力差分データが前記入力ベース画像データに対応するデータであると判断された場合に、前記入力差分データを用いた拡大処理を前記入力ベース画像データに施すことにより、レンジ拡大画像データを生成し、前記取得ステップにおいて前記入力差分データが取得されなかった場合には、前記レンジ拡大画像データを生成しない生成ステップと、The input difference data is acquired in the acquisition step, and when it is determined that the acquired input difference data is data corresponding to the input base image data, an enlargement process using the input difference data is performed as the input A range expansion image data is generated by applying to the base image data, and if the input difference data is not acquired in the acquisition step, a generation step of not generating the range expansion image data;
前記生成ステップにおいて前記レンジ拡大画像データが生成された場合に、前記レンジ拡大画像データに基づく画像を表示し、前記生成ステップにおいて前記レンジ拡大画像データが生成されない場合には、前記入力ベース画像データに基づく画像を表示する表示ステップと、When the range expansion image data is generated in the generation step, an image based on the range expansion image data is displayed. When the range expansion image data is not generated in the generation step, the input base image data is displayed. A display step for displaying an image based on;
前記生成ステップにおいて前記レンジ拡大画像データが生成され、且つ、前記レンジ拡大画像データを生成する処理に要する時間が閾値よりも長い場合に、前記表示ステップでは、前記入力ベース画像データに基づく画像を表示するIn the generation step, when the range enlarged image data is generated and the time required for the processing for generating the range enlarged image data is longer than a threshold, the display step displays an image based on the input base image data Do
ことを特徴とする表示方法。A display method characterized by that.
請求項25に記載の画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラム。 A program for causing a computer to execute each step of the image processing method according to claim 25 . 請求項26または27に記載の表示方法の各ステップをコンピュータに実行させることを特徴とするプログラム。 A program causing a computer to execute each step of the display method according to claim 26 or 27 .
JP2014014515A 2014-01-29 2014-01-29 Image processing apparatus, image processing method, display apparatus, display method, and program Active JP6355345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014014515A JP6355345B2 (en) 2014-01-29 2014-01-29 Image processing apparatus, image processing method, display apparatus, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014014515A JP6355345B2 (en) 2014-01-29 2014-01-29 Image processing apparatus, image processing method, display apparatus, display method, and program

Publications (2)

Publication Number Publication Date
JP2015142275A JP2015142275A (en) 2015-08-03
JP6355345B2 true JP6355345B2 (en) 2018-07-11

Family

ID=53772359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014014515A Active JP6355345B2 (en) 2014-01-29 2014-01-29 Image processing apparatus, image processing method, display apparatus, display method, and program

Country Status (1)

Country Link
JP (1) JP6355345B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6535560B2 (en) * 2015-09-18 2019-06-26 東芝映像ソリューション株式会社 Electronic device and display method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186484A (en) * 1999-12-27 2001-07-06 Matsushita Electric Ind Co Ltd Method for processing digital signal
JP4941031B2 (en) * 2007-03-19 2012-05-30 ソニー株式会社 Video display device and video display system
WO2011099273A1 (en) * 2010-02-15 2011-08-18 パナソニック株式会社 Content communication device, content processing device and content communication system
CN107105229B9 (en) * 2011-04-14 2020-03-31 杜比实验室特许公司 Image decoding method, video decoder, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP2015142275A (en) 2015-08-03

Similar Documents

Publication Publication Date Title
JP6706846B2 (en) Display device, conversion device, display method, and computer program
EP3053335B1 (en) Transmitting display management metadata over hdmi
WO2021004176A1 (en) Image processing method and apparatus
EP3493532B1 (en) Mage processing device and image processing method
JP2019513323A (en) Method and apparatus for encoding high dynamic range pictures, corresponding encoding method and encoding apparatus
JP6598800B2 (en) Video display device, video display method, and video display system
KR20190117686A (en) Method and device for decoding high dynamic range images
TWI550557B (en) Video data compression format
CN114501023A (en) Video processing method and device, computer equipment and storage medium
CN111131654B (en) Watermark embedding method and device and coder-decoder
JP5904754B2 (en) Information processing system, information processing apparatus, control method therefor, and program
JP2015154270A (en) Image processing apparatus, data creating device, image processing method and data creating method
US20200389634A1 (en) Video processing apparatus, video processing method, and program
JP6355345B2 (en) Image processing apparatus, image processing method, display apparatus, display method, and program
CN108737877B (en) Image processing method and device and terminal equipment
KR101981161B1 (en) Signal processing apparatus, signal processing method, and imaging apparatus
JP2009200939A (en) Image processing apparatus, image processing method, and image processing system
JPWO2018037525A1 (en) Self-image diagnosis method, self-image diagnosis program, display device, and self-image diagnosis system
JP2017512421A (en) Method for generating a bitstream related to an image / video signal, a bitstream carrying specific information data, and a method for obtaining such specific information
JP6719200B2 (en) Digital signal transmission device and digital signal transmission method
KR101652095B1 (en) Realtime remote monitoring and playing system using digital video recoder, and method thereof
US20230319347A1 (en) Method, apparatus, and program product for authoring video content using stream embedded indicators
US20230164451A1 (en) Information processing apparatus, method, medium, and system for color correction
JP2008271572A (en) Image reproduction utilizing specific color space
JP2005039668A (en) Image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180612

R151 Written notification of patent or utility model registration

Ref document number: 6355345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151