JP5012493B2 - VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD, VIDEO OUTPUT PROGRAM, VIDEO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM - Google Patents

VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD, VIDEO OUTPUT PROGRAM, VIDEO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM Download PDF

Info

Publication number
JP5012493B2
JP5012493B2 JP2007333903A JP2007333903A JP5012493B2 JP 5012493 B2 JP5012493 B2 JP 5012493B2 JP 2007333903 A JP2007333903 A JP 2007333903A JP 2007333903 A JP2007333903 A JP 2007333903A JP 5012493 B2 JP5012493 B2 JP 5012493B2
Authority
JP
Japan
Prior art keywords
signal
data
video
exponent
mantissa
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007333903A
Other languages
Japanese (ja)
Other versions
JP2008236725A (en
Inventor
治久 倉根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2007333903A priority Critical patent/JP5012493B2/en
Priority to US12/033,041 priority patent/US20080198266A1/en
Publication of JP2008236725A publication Critical patent/JP2008236725A/en
Application granted granted Critical
Publication of JP5012493B2 publication Critical patent/JP5012493B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Systems (AREA)

Description

本発明は、画像データをYUV方式の映像信号に変換して出力する装置に係り、特に、浮動小数点形式の画像データをYUV方式の映像信号に変換して出力するのに好適な映像出力装置、映像出力方法及び映像出力プログラム、映像処理システム、並びに映像処理装置、映像処理方法及び映像処理プログラムに関する。   The present invention relates to an apparatus for converting image data into a YUV video signal and outputting the video data, and in particular, a video output apparatus suitable for converting floating-point format image data into a YUV video signal and outputting it, The present invention relates to a video output method, a video output program, a video processing system, a video processing apparatus, a video processing method, and a video processing program.

従来、撮像素子のダイナミックレンジ(以下、Dレンジという)の狭さを補うために、1フレーム期間に2種類以上の露光時間で撮影できる撮像素子が提案されている。また、2フィールドで1フレームを構成する撮像素子においては、奇数、偶数フィールドで露光時間を替えて撮像する方法も提案されている。
つまり、上記2種類以上の露光時間(例えば、標準露光時間T1、短露光時間T2(T1>T2)など)で撮影して得られた画像データを、センサ外部もしくは内部で合成することで、Dレンジの拡大された画像データを得る。比較的広いDレンジを有する画像データは、一般に、HDR(High Dynamic Range)画像データと呼ばれる。
Conventionally, in order to compensate for the narrowness of the dynamic range (hereinafter referred to as “D range”) of an image pickup device, an image pickup device capable of shooting with two or more types of exposure times in one frame period has been proposed. In addition, in an image sensor that constitutes one frame by two fields, a method of imaging by changing the exposure time in odd and even fields has been proposed.
In other words, the image data obtained by photographing with the above two or more types of exposure time (for example, standard exposure time T1, short exposure time T2 (T1> T2), etc.) is synthesized outside or inside the sensor, and thus D Obtain image data with an expanded range. Image data having a relatively wide D range is generally referred to as HDR (High Dynamic Range) image data.

上記のような撮像画像データのDレンジの拡大に関する技術として、例えば、特許文献1に記載の撮像装置がある。
特許文献1の撮像装置は、異なる露光時間で蓄積された電荷を、複数回読み出し、当該読み出した露光時間の異なる電荷から構成される画素データのうち、より長い露光時間において飽和している画素データを、より短い露光時間において飽和していない画素データに置き換えることでDレンジの拡大された画像データを得るものである。
As a technique related to the expansion of the D range of captured image data as described above, for example, there is an imaging apparatus described in Patent Document 1.
The imaging device of Patent Document 1 reads out charges accumulated at different exposure times a plurality of times, and pixel data that is saturated in a longer exposure time among pixel data composed of the read charges with different exposure times. Is replaced with pixel data that is not saturated in a shorter exposure time, thereby obtaining image data with an expanded D range.

また、特許文献1などの撮像装置において得られる、ダイナミックレンジの拡大された画像データは、固定小数点形式のデータとして、しかも出力装置の性能に合わせて情報量を削減した後に出力されることが多い。例えば、この情報量の削減によって、Dレンジは50dB程度となる。
一方、Dレンジの狭さに起因する白とびや黒つぶれという問題は、画素情報の欠落であり、システムに目的の動作を行わせる際の問題となり得る。特に、白とびは、マシンビジョンにおいては、それが画像なのか欠陥なのかを判別できず、致命的となる。また、マシンビジョンでは、領域検出(ラベリング)、エッジ検出、相関検出、2値化処理など、画像を大域的(マクロ)に捉えるので、画素値の演算誤差よりも、白とびや黒つぶれ等の情報損失の方が、認識等のシステム性能を大きく左右する。
Also, image data with an expanded dynamic range obtained in an imaging apparatus such as Patent Document 1 is often output as fixed-point format data after reducing the amount of information in accordance with the performance of the output device. . For example, this range of information reduces the D range to about 50 dB.
On the other hand, the problem of overexposure and underexposure due to the narrowness of the D range is a lack of pixel information, which can be a problem when the system performs a desired operation. In particular, overexposure is fatal in machine vision because it cannot be determined whether it is an image or a defect. In addition, machine vision captures images globally (macro), such as area detection (labeling), edge detection, correlation detection, and binarization processing. Information loss greatly affects system performance such as recognition.

この問題を解決する手段として、HDR映像を送受信する画像処理システムが注目されている。
HDR画像形式としては、画素値を浮動小数点で表現するRadianceと呼ばれる形式が知られている。Radiance形式は、各画素のRGB(各8ビット)の他に、指数部E(8ビット)を加え、画素あたり32ビットの浮動小数点形式で表現したものである。画素値が、Radiance形式(Ri,Gi,Bi,E)で表現された場合、実際の各色の輝度値は、下式(1)に示す浮動小数点形式で表現される。

R=Ri×2(E-128)
G=Gi×2(E-128)
B=Bi×2(E-128) ・・・(1)
As a means for solving this problem, an image processing system that transmits and receives HDR video has attracted attention.
As an HDR image format, a format called Radiance that expresses pixel values in floating point is known. The Radiance format is expressed in a floating point format of 32 bits per pixel by adding an exponent E (8 bits) in addition to RGB (8 bits each) of each pixel. When the pixel value is expressed in the Radiance format (Ri, Gi, Bi, E), the actual luminance value of each color is expressed in the floating-point format shown in the following equation (1).

R = Ri × 2 (E-128)
G = Gi × 2 (E-128)
B = Bi × 2 (E-128) (1)

次に、映像の出力側である電子カメラ等の映像信号源と、映像の受信側である映像処理・表示装置(以降、単に映像処理装置と呼ぶ)との間の映像信号の出力フォーマットについて記述する。   Next, the output format of the video signal between the video signal source such as an electronic camera on the video output side and the video processing / display device (hereinafter simply referred to as the video processing device) on the video receiving side will be described. To do.

映像信号源からの出力はカラー画像の場合、RGB信号やYUV信号(輝度信号と色差信号)などのフォーマットで映像処理装置に出力される。YUV信号は、国際電気通信連合(ITU:International Telecommunication Union)にてITU-R BT.601で規格化されている。この規格は、人間の眼の視覚特性を考慮し、人間の眼に認識されない範囲で情報量を削減する方式でNTSCやJPEGなどに利用されている。NTSCは限られた周波数帯域を有効活用する目的、JPEGはファイルサイズを小さくする目的で、情報量を削減できるYUV方式を採用している。   In the case of a color image, the output from the video signal source is output to the video processing device in a format such as an RGB signal or a YUV signal (luminance signal and color difference signal). YUV signals are standardized by ITU-R BT.601 by the International Telecommunication Union (ITU). This standard is used for NTSC, JPEG, and the like in a method that reduces the amount of information in a range that is not recognized by the human eye in consideration of the visual characteristics of the human eye. NTSC employs a YUV method capable of reducing the amount of information for the purpose of effectively utilizing a limited frequency band, and JPEG for the purpose of reducing the file size.

YUV方式は、輝度信号を示すY信号と、色差信号を示すU信号及びV信号(これらをまとめてUV信号ともいう)とで構成される。Y信号は画像を形成する総画素数分が映像処理装置に出力される。一方、UV信号は、人間の眼の、色に対する空間解像度の低さを利用し、出力する情報量が削減(間引き処理)される。例えばYUV411フォーマットのU信号とV信号とは、当該U信号及びV信号を画像を形成する総画素数分を出力したときと比較して、出力する情報量が1/4に削減される。   The YUV method includes a Y signal indicating a luminance signal, and a U signal and a V signal (collectively referred to as UV signals) indicating color difference signals. The Y signal is output to the video processing device for the total number of pixels forming the image. On the other hand, the UV signal uses the low spatial resolution of the human eye with respect to color, and the amount of information to be output is reduced (thinning-out processing). For example, the amount of information to be output for the U signal and V signal in the YUV411 format is reduced to ¼ compared to when the U signal and V signal are output for the total number of pixels forming the image.

また、映像信号源と映像処理装置とのインターフェースについて記述する。例えば、電子カメラなどの映像信号源と映像処理装置との間の映像データの出力には、映像情報の情報量の削減による出力効率の向上が目的でYUV411フォーマットが利用されることが多い。
このとき、映像信号源側は、例えば30[fps(frame/sec)]のフレームレートで、映像処理装置に映像信号を所定のインターフェースを介して出力する場合に、例えば、図13(a)に示すように、Y信号出力用の8ビットのポート、色差信号UとV信号の出力用の8ビットのポート、映像信号源と映像処理装置との同期を確立するための同期信号ポートの3つのポートを利用し、高速なデータ伝送を実現している。また、図13(b)に示すように、Y信号及びUV信号伝送用の8ビットのポートと、上記同期信号ポートとの2つのポートを利用してYUV方式の映像信号の出力を実現する構成もある。
An interface between the video signal source and the video processing apparatus will be described. For example, the YUV411 format is often used to output video data between a video signal source such as an electronic camera and a video processing device for the purpose of improving output efficiency by reducing the amount of video information.
At this time, when the video signal source outputs a video signal to the video processing device via a predetermined interface at a frame rate of 30 [fps (frame / sec)], for example, FIG. As shown, there are three 8-bit ports for Y signal output, 8-bit ports for color difference signal U and V signal output, and synchronization signal ports for establishing synchronization between the video signal source and the video processing device. The port is used to achieve high-speed data transmission. Further, as shown in FIG. 13B, a configuration for realizing output of a YUV video signal by using two ports of an 8-bit port for transmitting Y signal and UV signal and the synchronous signal port. There is also.

図13(a)において、同期信号ポートは、フレームの開始を示す垂直同期信号、ラインの開始を示す水平同期信号、画素の同期を取るための画素同期信号の3信号を出力するか、もしくはそれらが多重化された復号同期信号を出力する。Y信号用ポートは、全画像データを出力するので、画素同期信号に同期してデータが出力される。一方、UV出力用ポートは、UV信号が間引かれるので、色差信号UとV信号を多重化して出力(U、Vの順で切り替えて出力)する。また、間引きによって、偶数ラインにおいては、出力すべきUV信号は無いので、ダミーデータを出力する。
特開平5−22670号公報
In FIG. 13A, the sync signal port outputs three signals, ie, a vertical sync signal indicating the start of a frame, a horizontal sync signal indicating the start of a line, and a pixel sync signal for synchronizing pixels. Is output as a decoded synchronization signal. Since the Y signal port outputs all image data, the data is output in synchronization with the pixel synchronization signal. On the other hand, since the UV signal is thinned out at the UV output port, the color difference signal U and the V signal are multiplexed and output (switched in the order of U and V). In addition, because there is no UV signal to be output in the even-numbered line due to thinning, dummy data is output.
JP-A-5-22670

しかしながら、上記従来技術においては、例えば、上記特許文献1の撮像装置等においてDレンジの拡大された画像データを、浮動小数点形式のデータとして且つYUV方式で映像処理装置に出力する場合に、既存のY信号用のポート及びUV信号用のポートとは別に、指数部のデータ信号を出力するためのポートを設ける必要がある。   However, in the above prior art, for example, when the image data expanded in the D range in the imaging apparatus of Patent Document 1 is output to the video processing apparatus as floating point format data and in the YUV format, In addition to the Y signal port and the UV signal port, it is necessary to provide a port for outputting an exponent data signal.

そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであって、既存のインターフェースを用いて、浮動小数点形式の画像データをYUV方式の映像データに変換して出力するのに好適な映像出力装置、映像出力方法及び映像出力プログラム、映像処理システム、並びに映像処理装置、映像処理方法及び映像処理プログラムを提供することを目的としている。   Therefore, the present invention has been made paying attention to such an unsolved problem of the prior art, and converts image data in a floating-point format into YUV video data using an existing interface. It is an object of the present invention to provide a video output device, a video output method and a video output program, a video processing system, a video processing device, a video processing method, and a video processing program that are suitable for output.

〔形態1〕 上記目的を達成するために、形態1の映像出力装置は、
画像データを、輝度信号Y及び色差信号UVからなるYUV方式の映像信号に変換し、当該変換して得られた映像信号を所定のインターフェースを介して出力する映像出力装置であって、
画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される第1の画像データに対して、当該第1の画像データを構成する各画素データの仮数部のデータを、前記YUV方式の映像信号に変換する仮数部変換手段と、
前記第1の画像データを構成する各画素データの指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化する多重手段と、
前記輝度信号Y及び前記指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力する映像信号出力手段と、を備えることを特徴とする。
[Mode 1] In order to achieve the above object, a video output apparatus according to mode 1 includes:
A video output device that converts image data into a YUV video signal including a luminance signal Y and a color difference signal UV, and outputs the video signal obtained by the conversion via a predetermined interface,
The pixel value is expressed in a floating-point format with a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent part of M bits (M is a natural number of 2 or more). Mantissa conversion means for converting the mantissa data of each pixel data constituting the first image data into the YUV video signal for the first image data composed of the pixel data;
Multiplexing means for multiplexing the data of the exponent part of each pixel data constituting the first image data into the color difference signal UV in the YUV video signal;
Video signal output means for outputting a YUV video signal comprising the luminance signal Y and the color difference signal UV in which the exponent data is multiplexed.

このような構成であれば、仮数部変換手段によって、画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される画像データについて、当該画像データの各画素データにおける仮数部のデータを、前記YUV方式の映像信号に変換することが可能であり、多重手段によって、前記画像データの各画素データにおける指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化することが可能であり、映像信号出力手段によって、輝度信号Y及び指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力することが可能である。   With this configuration, the mantissa conversion means converts the pixel value into a mantissa part of N bits (N is a natural number of 2 or more), a base number of X (X is a natural number of 2 or more), and an exponent part of M bits ( For image data composed of pixel data expressed in floating point format (M is a natural number of 2 or more), the data of the mantissa part of each pixel data of the image data can be converted into the YUV video signal. It is possible to multiplex the exponent data in each pixel data of the image data into the color difference signal UV in the YUV video signal by the multiplexing means, and the luminance signal Y by the video signal output means. It is also possible to output a YUV video signal composed of the color difference signal UV in which the exponent data is multiplexed.

従って、浮動小数点形式の各画素データの指数部のデータを、色差信号UVに多重化して出力することができるので、指数部のデータを出力するためのインターフェース(ポート)を別途設けることなく、YUV方式の既存のインターフェースをそのまま利用して指数部のデータを含む映像信号を出力することができるという効果が得られる。
また、浮動小数点形式の画像データを扱えることから、浮動小数点形式のHDR画像データを既存のインターフェースを用いて簡易に出力することが可能となる。つまり、白とびや黒つぶれの発生しない、十分なコントラスト比及びダイナミックレンジを有したHDR画像データを簡易に出力することができる。例えば、仮数部8ビット、指数部4ビットの浮動小数点形式のHDR画像データであれば、従来の8ビットの整数値で表現されていたHDR画像データと比較して、約32000倍(90dB)のダイナミックレンジを表現することができる。
Accordingly, the exponent data of each pixel data in the floating-point format can be multiplexed and output on the color difference signal UV, so that the YUV is not provided separately without providing an interface (port) for outputting the exponent data. It is possible to output an image signal including exponent data by using an existing interface of the system as it is.
Further, since the floating point format image data can be handled, the floating point format HDR image data can be easily output using an existing interface. That is, it is possible to easily output HDR image data having a sufficient contrast ratio and dynamic range that does not cause overexposure or blackout. For example, in the case of HDR image data in a floating-point format with a mantissa part 8 bits and an exponent part 4 bits, it is about 32000 times (90 dB) compared to the HDR image data represented by a conventional 8-bit integer value. Dynamic range can be expressed.

〔形態2〕 更に、形態2の映像出力装置は、形態1の映像出力装置において、
前記第1の画像データを構成する各画素データの前記Mビットの指数部を、mビット(mは、M>mの自然数)の指数部に変換する指数部変換手段と、
前記指数部変換手段で指数部を変換した後の画像データである第2の画像データにおいて、所定走査方向に連続する所定数の画素の画素データ毎に、当該所定数の画素の画素データにおける指数部のデータによって構成されたパッキング指数部データを生成するパッキング指数部データ生成手段と、を備え、
前記仮数部変換手段は、前記第2の画像データを構成する各画素データの仮数部のデータを前記YUV方式の映像信号に変換し、
前記多重手段は、前記パッキング指数部データを、前記YUV方式の映像信号における色差信号UVに多重化することを特徴とする。
[Mode 2] Furthermore, the video output device of mode 2 is the video output device of mode 1,
Exponent part conversion means for converting the M-bit exponent part of each pixel data constituting the first image data into an m-bit exponent part (m is a natural number of M>m);
In the second image data, which is image data after the exponent part is converted by the exponent part conversion means, for each pixel data of a predetermined number of pixels continuous in a predetermined scanning direction, an exponent in the pixel data of the predetermined number of pixels Packing index part data generating means for generating packing index part data composed of parts of data,
The mantissa conversion means converts mantissa data of each pixel data constituting the second image data into the YUV video signal,
The multiplexing means multiplexes the packing index part data with a color difference signal UV in the YUV video signal.

このような構成であれば、浮動小数点形式の各画素データの指数部のデータ量を削減してデータ出力量を低減することができるという効果が得られる。
更に、指数部のデータをYUV方式で取り扱いやすいビット数に変換することによって、簡易に、浮動小数点形式の画像データの指数部のデータを、色差信号UVに多重化することができるという効果が得られる。
With such a configuration, the data output amount can be reduced by reducing the data amount of the exponent part of each pixel data in the floating point format.
Further, by converting the exponent data to the number of bits that can be handled easily by the YUV method, the exponent data of the floating point format image data can be easily multiplexed with the color difference signal UV. It is done.

〔形態3〕 更に、形態3の映像出力装置は、形態2の映像出力装置において、
前記第1の画像データは、RGB(Red,Green,Blue)形式のカラー画像データであって、前記画素値を構成するR、G、Bの各色要素を表す値が、仮数部が前記Nビット、基数が2及び指数部が前記Mビットの浮動小数点形式で表され、且つ前記Mビットの指数部が示す値が各色要素において同じ値となる画素データから構成されており、
前記指数部変換手段は、前記第1の画像データを構成する各画素データの前記各色要素に対応する前記Mビットの指数部を、前記各色要素において同じ値となる4ビット以下の指数部に変換し、
前記仮数部変換手段は、前記第2の画像データを構成する各画素データの前記各色要素に対応する仮数部のデータを、前記YUV方式の1種であるYUV411方式の映像信号に変換し、
前記パッキング指数部データ生成手段は、前記第2の画像データにおいて、水平走査方向に連続する4画素の画素データ毎に、当該4画素の画素データにおける指数部のデータから構成されたパッキング指数部データを生成することを特徴とする。
[Mode 3] Furthermore, the video output device of mode 3 is the video output device of mode 2,
The first image data is color image data in RGB (Red, Green, Blue) format, and a value representing each of R, G, and B color elements constituting the pixel value has a mantissa part of the N bits. The radix is 2 and the exponent is represented in the M-bit floating point format, and the value indicated by the M-bit exponent is composed of pixel data having the same value in each color element,
The exponent part converting means converts the M-bit exponent part corresponding to each color element of each pixel data constituting the first image data into an exponent part of 4 bits or less having the same value in each color element. And
The mantissa conversion means converts mantissa data corresponding to each color element of each pixel data constituting the second image data into a YUV411 video signal that is one type of the YUV method,
In the second image data, the packing index part data generation unit is configured to include, for each pixel data of four pixels continuous in the horizontal scanning direction, packing index part data composed of index part data in the pixel data of the four pixels. Is generated.

このような構成であれば、画像の2画素×2画素の各画素領域に対して、例えば、4バイトの輝度信号Y、1バイトの色差信号U、1バイトの色差信号V、及び2バイトのダミー信号が出力される、YUV411方式を用いた映像出力において、パッキング指数部データを2バイト以下で構成することができる。
これにより、色差信号UVに対して、色差信号U及び色差信号Vを多重化するときに間引いた2バイト分のデータ(ダミー信号に相当)の代わりに、パッキング指数部データを多重化することができるので、簡易に、色差信号UVに指数部のデータを多重化することができるという効果が得られる。
With such a configuration, for example, a 4-byte luminance signal Y, a 1-byte color difference signal U, a 1-byte color difference signal V, and a 2-byte color difference signal for each pixel region of 2 pixels × 2 pixels of the image. In the video output using the YUV411 system in which a dummy signal is output, the packing index part data can be configured with 2 bytes or less.
Thereby, the packing index portion data can be multiplexed with the color difference signal UV instead of the data of 2 bytes thinned out when the color difference signal U and the color difference signal V are multiplexed (corresponding to the dummy signal). Therefore, it is possible to easily multiplex the data of the exponent part with the color difference signal UV.

〔形態4〕 更に、形態4の映像出力装置は、形態3の映像出力装置において、
前記第1の画像データは、前記画素値を構成するR、G、Bの各色要素を表す値が、仮数部が8ビット、基数が2及び指数部が8ビットの浮動小数点形式で表され、且つ前記8ビットの指数部が示す値が各色要素において同じ値となる画素データから構成されており、
前記指数部変換手段は、前記第1の画像データを構成する各画素データの前記各色要素に対応する前記8ビットの指数部を、前記各色要素において同じ値となる4ビットの指数部に変換することを特徴とする。
[Mode 4] Furthermore, the video output device of mode 4 is the video output device of mode 3,
The first image data is expressed in a floating-point format in which values representing the R, G, and B color elements constituting the pixel value are 8 bits for the mantissa, 2 for the radix, and 8 bits for the exponent. And the value indicated by the 8-bit exponent part is composed of pixel data having the same value in each color element,
The exponent part conversion means converts the 8-bit exponent part corresponding to each color element of each pixel data constituting the first image data into a 4-bit exponent part having the same value in each color element. It is characterized by that.

このような構成であれば、画像の2画素×2画素の各画素領域に対して、4バイトの輝度信号Y、1バイトの色差信号U、1バイトの色差信号V、及び2バイトのダミー信号が出力される、YUV411方式を用いた映像出力において、パッキング指数部データを2バイトで構成することができる。
これにより、色差信号UVに対して、色差信号U及び色差信号Vを多重化するときに間引いた2バイト分のデータ(ダミー信号に相当)の代わりに、2バイトのパッキング指数部データを多重化することができるので、無駄なく且つ簡易に、色差信号UVに指数部のデータを多重化することができるという効果が得られる。
With such a configuration, a 4-byte luminance signal Y, a 1-byte color difference signal U, a 1-byte color difference signal V, and a 2-byte dummy signal for each pixel region of 2 pixels × 2 pixels of the image. In the video output using the YUV411 system, the packing index part data can be composed of 2 bytes.
As a result, the 2-byte packing index part data is multiplexed in place of the 2-byte data (corresponding to the dummy signal) thinned out when the color difference signal U and the color difference signal V are multiplexed with the color difference signal UV. Therefore, it is possible to obtain an effect that the data of the exponent part can be multiplexed with the color difference signal UV without waste and easily.

〔形態5〕 更に、形態5の映像出力装置は、形態1乃至4のいずれか1の映像出力装置において、
前記多重手段は、前記指数部のデータを、画像の奇数ライン又は偶数ラインのいずれか一方に対応する前記色差信号UVに多重化することを特徴とする。
このような構成であれば、色差信号UVを出力する際に、従来はダミー信号を出力する画像のライン(偶数ライン又は奇数ラインのいずれか一方)の信号出力において、ダミー信号に代えて指数部のデータ信号を出力することができるので、YUV方式を用いた映像出力側における既存の画像データ処理手段の構成を大きく変更することなく、簡易に、指数部のデータを多重化して出力することができるという効果が得られる。
[Mode 5] Furthermore, the video output device of mode 5 is the video output device of any one of modes 1 to 4,
The multiplexing means multiplexes the data of the exponent part with the color difference signal UV corresponding to either an odd line or an even line of an image.
With such a configuration, when the color difference signal UV is output, conventionally, in the signal output of an image line (either an even line or an odd line) for outputting a dummy signal, an exponent part is used instead of the dummy signal. Therefore, it is possible to easily multiplex and output the data of the exponent part without greatly changing the configuration of the existing image data processing means on the video output side using the YUV method. The effect that it can be obtained.

〔形態6〕 一方、上記目的を達成するために、形態6の映像処理システムは、
映像出力装置と映像処理装置とを備え、前記映像処理装置は、前記映像出力装置から出力された映像信号に基づき、所定の表示形式で映像を表示し得る表示データを生成する映像処理システムであって、
前記映像出力装置は、
画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される第1の画像データに対して、当該第1の画像データの各画素データにおける仮数部のデータを、輝度信号Y及び色差信号UVからなるYUV方式の映像信号に変換する仮数部変換手段と、
前記第1の画像データを構成する各画素データの指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化する多重手段と、
前記仮数部変換手段で変換して得られたYUV方式の映像信号における前記輝度信号Yと、前記多重手段で前記指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力する映像信号出力手段と、を備え、
前記映像信号出力手段は、前記輝度信号Yと前記色差信号UVとを、それぞれ独立に前記映像処理装置に出力し、
前記映像処理装置は、
前記映像出力装置から入力された前記指数部のデータが多重化された色差信号UVを、前記仮数部の色差信号UVと、前記指数部のデータ信号とに分離する信号分離手段と、
前記映像出力装置から入力された輝度信号Y及び前記分離して得られた色差信号UVを、前記YUV方式に変換する前の仮数部のデータ形式の信号に変換する形式変換手段と、
前記信号分離手段で分離した指数部のデータ信号と、前記形式変換手段で変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成する表示データ生成手段と、を備えることを特徴とする。
[Mode 6] On the other hand, in order to achieve the above object, the video processing system of mode 6
A video processing system comprising a video output device and a video processing device, the video processing device generating display data capable of displaying video in a predetermined display format based on a video signal output from the video output device. And
The video output device
The pixel value is expressed in a floating-point format with a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent part of M bits (M is a natural number of 2 or more). A mantissa for converting mantissa data in each pixel data of the first image data into YUV video signal composed of the luminance signal Y and the color difference signal UV with respect to the first image data composed of the pixel data. Part conversion means;
Multiplexing means for multiplexing the data of the exponent part of each pixel data constituting the first image data into the color difference signal UV in the YUV video signal;
A YUV video signal comprising the luminance signal Y in the YUV video signal obtained by the conversion by the mantissa conversion means and the color difference signal UV in which the exponent data is multiplexed by the multiplexing means. Video signal output means for outputting,
The video signal output means outputs the luminance signal Y and the color difference signal UV to the video processing device independently of each other,
The video processing device includes:
A signal separation means for separating the color difference signal UV multiplexed with the exponent data input from the video output device into the mantissa color difference signal UV and the exponent data signal;
A format converting means for converting the luminance signal Y input from the video output device and the color difference signal UV obtained by the separation into a signal in a data format of a mantissa before being converted into the YUV format;
Display data generating means for generating display data based on the data signal of the exponent part separated by the signal separating means and the signal of the data format of the mantissa part obtained by conversion by the format converting means. Features.

このような構成であれば、映像出力装置は、仮数部変換手段によって、画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される画像データについて、当該画像データの各画素データにおける仮数部のデータを、前記YUV方式の映像信号に変換することが可能であり、多重手段によって、前記画像データの各画素データにおける指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化することが可能であり、映像信号出力手段によって、輝度信号Y及び指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力することが可能である。   With such a configuration, the video output device uses the mantissa conversion unit to convert the pixel value into a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent. For image data composed of pixel data expressed in floating-point format with M bits (M is a natural number of 2 or more), the mantissa data in each pixel data of the image data is converted into the YUV video signal. The data of the exponent part in each pixel data of the image data can be multiplexed with the color difference signal UV in the YUV video signal by the multiplexing means, and the video signal output means Thus, it is possible to output a YUV video signal composed of the luminance signal Y and the color difference signal UV obtained by multiplexing the exponent data.

更に、映像処理装置は、信号分離手段によって、前記映像出力装置から入力された前記色差信号UVを、前記仮数部の色差信号UVと、指数部のデータ信号とに分離することが可能であり、形式変換手段によって、前記映像出力装置から入力された輝度信号Y及び前記指数部のデータが分離された色差信号UVを、前記YUV方式に変換前の仮数部のデータ形式の信号に変換することが可能であり、表示データ生成手段によって、前記信号分離手段で分離した指数部のデータ信号と、前記形式変換手段で変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成することが可能である。   Further, the video processing device can separate the color difference signal UV input from the video output device into a mantissa color difference signal UV and an exponent data signal by means of signal separation means, The format conversion means converts the luminance signal Y and the color difference signal UV separated from the exponent data input from the video output device into a signal in the mantissa data format before conversion into the YUV format. The display data generation means generates display data based on the exponent data signal separated by the signal separation means and the mantissa data format signal obtained by conversion by the format conversion means. It is possible.

従って、浮動小数点形式の画像データの映像信号を、既存のYUV方式のインターフェースを変更することなく映像処理装置に出力できるという効果が得られると共に、映像出力装置で出力された映像信号から、所定の表示形式で表示し得る表示データを生成することができるので、例えば、浮動小数点形式のHDR画像データの映像を表示する表示システムや、HDR画像データ映像を利用した監視システム、セキュリティーシステム等を簡易に構築することができるという効果が得られる。   Accordingly, it is possible to obtain an effect that the video signal of the image data in the floating point format can be output to the video processing device without changing the existing YUV interface, and from the video signal output from the video output device, a predetermined value is obtained. Since display data that can be displayed in the display format can be generated, for example, a display system that displays a video of HDR image data in a floating-point format, a monitoring system that uses HDR image data video, a security system, and the like can be simplified. The effect that it can be constructed is obtained.

ここで、所定の表示形式で映像を表示し得る表示データとは、例えば、出力側の装置が、浮動小数点形式の画像データに対応していれば、浮動小数点形式のHDR画像データなどが該当し、出力側の装置が浮動小数点形式の画像データに対応していなければ、浮動小数点形式の画像データを変換してなる、各画素値が整数値で表現されたRGB画像データなどが該当する。以下、映像処理装置に関する形態、映像処理方法に関する形態において同じである。   Here, the display data that can display a video in a predetermined display format corresponds to, for example, the HDR image data in the floating point format if the output side device supports the image data in the floating point format. If the output device does not support floating-point format image data, RGB image data in which each pixel value is expressed by an integer value, which is obtained by converting floating-point format image data, corresponds. Hereinafter, the same applies to the mode related to the video processing apparatus and the mode related to the video processing method.

〔形態7〕 更に、形態7の映像処理システムは、形態6の映像処理システムにおいて、
前記仮数部変換手段は、前記第2画像データを、隣接するj個(jは、2以上の自然数)の画素から構成される画素領域のデータ単位で複数に分割する分割部と、各前記画素領域のj個の画素に対応する前記画素データにおける前記仮数部のデータを、画素毎に1つの輝度信号Yと、前記画素領域毎にk個(kは、k<jの自然数)の画素に対応する色差信号UVとから構成されたYUV方式の映像信号に変換する変換部とを含み、
前記映像処理装置は、前記仮数部変換手段において前記仮数部のデータを前記YUV方式の映像信号に変換したときに、前記画素領域毎に間引かれた(j−k)個の画素に対応する色差信号UVを補間する色差信号補間手段を備えることを特徴とする。
[Mode 7] Furthermore, the video processing system of mode 7 is the same as the video processing system of mode 6,
The mantissa conversion means includes a dividing unit that divides the second image data into a plurality of data units in a pixel area composed of j pixels (j is a natural number of 2 or more) adjacent to each other, and each of the pixels The mantissa data in the pixel data corresponding to j pixels in a region is converted into one luminance signal Y for each pixel and k pixels (k is a natural number where k <j) for each pixel region. A conversion unit for converting into a YUV video signal composed of a corresponding color difference signal UV,
The video processing apparatus corresponds to (j−k) pixels thinned out for each pixel area when the mantissa data is converted into the YUV video signal by the mantissa conversion means. A color difference signal interpolation means for interpolating the color difference signal UV is provided.

このような構成であれば、第2画像データを、YUV411、YUV211、YUV422などの様々なフォーマットに対応した映像信号に変換することができる。
更に、第2の画像データをYUV方式の映像信号に変換したときに間引かれた画素の色差信号UVを補間することができるので、より画質の高い表示データを生成することができるという効果が得られる。
With such a configuration, the second image data can be converted into video signals corresponding to various formats such as YUV411, YUV211 and YUV422.
Furthermore, since the color difference signal UV of the pixels thinned out when the second image data is converted into a YUV video signal can be interpolated, display data with higher image quality can be generated. can get.

〔形態8〕 また、上記目的を達成するために、形態8の映像処理装置は、
画素値を浮動小数点形式で表した画素データから構成される画像データの各前記画素データにおける仮数部のデータを輝度信号Y及び色差信号UVに変換すると共に、各前記色差信号UVに前記各画素データの指数部のデータを多重化してなる映像信号に基づき、所定の表示形式で映像を表示し得る表示データを生成する映像処理装置であって、
前記指数部のデータが多重化された色差信号UVを、前記仮数部の色差信号UVと、前記指数部のデータ信号とに分離する信号分離手段と、
前記輝度信号Y及び前記分離して得られた色差信号UVを、前記YUV方式に変換する前の仮数部のデータ形式の信号に変換する形式変換手段と、
前記信号分離手段で分離した指数部のデータ信号と、前記形式変換手段で変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成する表示データ生成手段と、を備えることを特徴とする。
[Mode 8] In order to achieve the above object, the video processing apparatus according to mode 8
Data of the mantissa part in each pixel data of image data composed of pixel data representing pixel values in a floating point format is converted into a luminance signal Y and a color difference signal UV, and each pixel data is converted into each color difference signal UV. A video processing device for generating display data capable of displaying a video in a predetermined display format based on a video signal obtained by multiplexing the exponent data of
A signal separating means for separating the color difference signal UV in which the exponent data is multiplexed into the mantissa color difference signal UV and the exponent data signal;
Format conversion means for converting the luminance signal Y and the color difference signal UV obtained by the separation into a signal of a data format of a mantissa part before being converted into the YUV system;
Display data generating means for generating display data based on the data signal of the exponent part separated by the signal separating means and the signal of the data format of the mantissa part obtained by conversion by the format converting means. Features.

これにより、上記形態6の映像処理システムにおける映像処理装置と同様に、指数部のデータが多重化されたYUV方式の映像信号から、所定の表示形式で表示し得る表示データを生成することができるので、例えば、浮動小数点形式のHDR画像データの映像を表示する表示システム等を簡易に構築できるという効果が得られる。   Accordingly, display data that can be displayed in a predetermined display format can be generated from the YUV video signal in which the exponent data is multiplexed, as in the video processing apparatus in the video processing system of aspect 6. Therefore, for example, it is possible to easily construct a display system or the like that displays a video of the HDR image data in the floating point format.

〔形態9〕 また、上記目的を達成するために、形態9の映像出力方法は、
画像データを、輝度信号Y及び色差信号UVからなるYUV方式の映像信号に変換し、当該変換して得られた映像信号を所定のインターフェースを介して出力する映像出力方法であって、
画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される第1の画像データに対して、当該第1の画像データの各画素データにおける仮数部のデータを、前記YUV方式の映像信号に変換する仮数部変換ステップと、
前記第1の画像データを構成する各画素データの指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化する多重ステップと、
前記輝度信号Y及び前記指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力する映像信号出力ステップと、を含むことを特徴とする。
これにより、形態1の映像出力装置と同等の作用及び効果が得られる。
[Mode 9] In order to achieve the above object, the video output method according to mode 9 includes:
A video output method for converting image data into a YUV video signal including a luminance signal Y and a color difference signal UV, and outputting the video signal obtained by the conversion via a predetermined interface,
The pixel value is expressed in a floating-point format with a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent part of M bits (M is a natural number of 2 or more). A mantissa conversion step of converting mantissa data in each pixel data of the first image data into the YUV video signal for the first image data composed of the pixel data;
A multiplexing step of multiplexing the data of the exponent part of each pixel data constituting the first image data into the color difference signal UV in the YUV video signal;
A video signal output step of outputting a YUV video signal composed of the luminance signal Y and the color difference signal UV in which the exponent data is multiplexed.
Thereby, the same operation and effect as those of the video output device of mode 1 can be obtained.

〔形態10〕 また、上記目的を達成するために、形態10の映像処理方法は、
画素値を浮動小数点形式で表した画素データから構成される画像データの各画素データにおける仮数部のデータを輝度信号Y及び色差信号UVに変換すると共に、各前記色差信号UVに前記各画素データの指数部のデータを多重化してなる映像信号に基づき、所定の表示形式で映像を表示し得る表示データを生成する映像処理方法であって、
前記指数部のデータが多重化された色差信号UVを、前記仮数部の色差信号UVと、前記指数部のデータ信号とに分離する信号分離ステップと、
前記輝度信号Y及び前記分離して得られた色差信号UVを、前記YUV方式に変換する前の仮数部のデータ形式の信号に変換する形式変換ステップと、
前記信号分離ステップで分離した指数部のデータ信号と、前記形式変換ステップで変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成する表示データ生成ステップと、を含むことを特徴とする。
これにより、形態8の映像処理装置と同等の作用及び効果が得られる。
[Mode 10] In order to achieve the above object, a video processing method according to mode 10 includes:
Data of the mantissa part in each pixel data of image data composed of pixel data representing pixel values in floating point format is converted into a luminance signal Y and a color difference signal UV, and each color difference signal UV is converted to each pixel data. A video processing method for generating display data capable of displaying video in a predetermined display format based on a video signal obtained by multiplexing data of exponent parts,
A signal separation step of separating the color difference signal UV obtained by multiplexing the exponent data into the mantissa color difference signal UV and the exponent data signal;
A format conversion step of converting the luminance signal Y and the color difference signal UV obtained by the separation into a signal of a data format of a mantissa part before being converted into the YUV method;
A display data generation step of generating display data based on the data signal of the exponent part separated in the signal separation step and the signal in the data format of the mantissa part obtained by the conversion in the format conversion step. Features.
Thereby, the same operation and effect as those of the video processing apparatus according to mode 8 can be obtained.

〔形態11〕 一方、上記目的を達成するために、形態11の映像出力プログラムは、
画像データを、輝度信号Y及び色差信号UVからなるYUV方式の映像信号に変換し、当該変換して得られた映像信号を所定のインターフェースを介して出力する映像出力プログラムであって、
画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される第1の画像データに対して、当該第1の画像データを構成する各画素データの仮数部のデータを、前記YUV方式の映像信号に変換する仮数部変換ステップと、
前記第1の画像データを構成する各画素データの指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化する多重ステップと、
前記輝度信号Y及び前記指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力する映像信号出力ステップとからなる処理をコンピュータに実行させるためのプログラムを含むことを特徴とする。
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、形態1の映像出力装置と同等の作用および効果が得られる。
[Mode 11] On the other hand, in order to achieve the above object, the video output program of mode 11
A video output program that converts image data into a YUV video signal including a luminance signal Y and a color difference signal UV, and outputs the video signal obtained by the conversion via a predetermined interface,
The pixel value is expressed in a floating-point format with a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent part of M bits (M is a natural number of 2 or more). A mantissa conversion step of converting the mantissa data of each pixel data constituting the first image data into the YUV video signal for the first image data composed of the pixel data;
A multiplexing step of multiplexing the data of the exponent part of each pixel data constituting the first image data into the color difference signal UV in the YUV video signal;
And a program for causing a computer to execute a process including a video signal output step of outputting a video signal of a YUV system including the luminance signal Y and the color difference signal UV multiplexed with the exponent data. And
With such a configuration, when the program is read by the computer and the computer executes processing in accordance with the read program, the same operation and effect as those of the video output device of mode 1 can be obtained.

〔形態12〕 一方、上記目的を達成するために、形態12の映像処理プログラムは、
画素値を浮動小数点形式で表した画素データから構成される画像データの各画素データにおける仮数部のデータを輝度信号Y及び色差信号UVに変換すると共に、各前記色差信号UVに前記各画素データの指数部のデータを多重化してなる映像信号に基づき、所定の表示形式で映像を表示し得る表示データを生成する映像処理プログラムであって、
前記指数部のデータが多重化された色差信号UVを、前記仮数部の色差信号UVと、前記指数部のデータ信号とに分離する信号分離ステップと、
前記輝度信号Y及び前記分離して得られた色差信号UVを、前記YUV方式に変換する前の仮数部のデータ形式の信号に変換する形式変換ステップと、
前記信号分離ステップで分離した指数部のデータ信号と、前記形式変換ステップで変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成する表示データ生成ステップとからなる処理をコンピュータに実行させるためのプログラムを含むことを特徴とする。
[Mode 12] On the other hand, in order to achieve the above object, the video processing program of mode 12
Data of the mantissa part in each pixel data of image data composed of pixel data representing pixel values in floating point format is converted into a luminance signal Y and a color difference signal UV, and each color difference signal UV is converted to each pixel data. A video processing program for generating display data capable of displaying video in a predetermined display format based on a video signal obtained by multiplexing exponential data,
A signal separation step of separating the color difference signal UV obtained by multiplexing the exponent data into the mantissa color difference signal UV and the exponent data signal;
A format conversion step of converting the luminance signal Y and the color difference signal UV obtained by the separation into a signal of a data format of a mantissa part before being converted into the YUV method;
A process comprising: a display data generation step for generating display data based on the exponent data signal separated in the signal separation step and the mantissa data format signal obtained by conversion in the format conversion step Including a program to be executed.

このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、形態8の映像処理装置と同等の作用および効果が得られる。   With such a configuration, when the program is read by the computer and the computer executes processing in accordance with the read program, the same operations and effects as those of the video processing apparatus according to mode 8 are obtained.

以下、本発明に係る映像出力装置、映像出力方法、映像処理システム、映像処理装置、及び映像処理方法の実施の形態を、図面に基づいて説明する。図1〜図12は、本発明に係る映像出力装置、映像出力方法、映像処理システム、映像処理装置、及び映像処理方法の実施の形態を示す図である。ここで、図1は、映像処理システム1の概略構成を示すブロック図である。   Embodiments of a video output device, a video output method, a video processing system, a video processing device, and a video processing method according to the present invention will be described below with reference to the drawings. 1 to 12 are diagrams showing embodiments of a video output device, a video output method, a video processing system, a video processing device, and a video processing method according to the present invention. Here, FIG. 1 is a block diagram showing a schematic configuration of the video processing system 1.

以下、図1に基づき、映像処理システム1の概略構成を説明する。
映像処理システム1は、図1に示すように、HDR映像信号源10からの浮動小数点形式のHDR映像信号及び同期信号に基づき、前記HDR映像信号をYUV方式の映像信号に変換して映像処理装置30に出力する映像出力装置20と、映像出力装置20からの輝度信号Y(以下、Y信号と称す)、色差信号UVに指数部のデータが多重化されたUVEp多重信号及び同期信号に基づき、HDR映像信号を生成する映像処理装置30とを含んで構成され、映像出力装置20と映像処理装置30とは、各種信号の入出力を行うインターフェース(ポート)を介して接続されている。
The schematic configuration of the video processing system 1 will be described below with reference to FIG.
As shown in FIG. 1, the video processing system 1 converts the HDR video signal into a YUV video signal based on a floating-point format HDR video signal and a synchronization signal from the HDR video signal source 10, and generates a video processing device. 30 based on a UVE p multiplexed signal and a synchronizing signal in which exponent data is multiplexed with a luminance signal Y (hereinafter referred to as a Y signal) from the video output device 20 and a color difference signal UV. The video output device 20 and the video processing device 30 are connected via an interface (port) for inputting and outputting various signals.

ここで、HDR映像信号源10は、例えば、電子カメラ等で撮像した撮像データからHDR映像信号を生成して出力する撮像装置や、HDR映像データの記憶された記憶媒体などから構成される。そして、HDR映像信号源10は、本実施の形態において、RGB(Red Green Blue)色空間の各色要素について、各色要素を表す値を、仮数部がNビット(Nは8以上の自然数)、基数が2及び指数部がMビット(Mは8以上の自然数)の浮動小数点形式で表した画素データから構成された、Radiance形式のRGBE画像データ(以下、単にHDR画像データという)の情報を含む映像信号(以下、HDR映像信号と称す)を出力する。   Here, the HDR video signal source 10 includes, for example, an imaging device that generates and outputs an HDR video signal from imaging data captured by an electronic camera or the like, a storage medium in which HDR video data is stored, and the like. In this embodiment, the HDR video signal source 10 uses a value representing each color element for each color element in the RGB (Red Green Blue) color space, the mantissa part is N bits (N is a natural number of 8 or more), and the radix. Includes information on Radiance format RGBE image data (hereinafter simply referred to as HDR image data) composed of pixel data expressed in floating-point format with 2 and exponent part M bits (M is a natural number of 8 or more). A signal (hereinafter referred to as an HDR video signal) is output.

具体的に、上記HDR画像データは、各画素データが、R,G,Bの各色要素のNビットの仮数部(Ri[(N−1):0]、Gi[(N−1):0]、Bi[(N−1):0])のデータと、全ての色要素に共通の指数部(E[(M−1):0])のデータとから構成される、浮動小数点形式のHDR画像データとなる。
更に、図2に基づき、映像出力装置20の詳細な構成を説明する。ここで、図2は、映像出力装置20の詳細な構成を示すブロック図である。
Specifically, in the HDR image data, each pixel data includes an N-bit mantissa part (R i [(N−1): 0], G i [(N−1)) of each color element of R, G, B. : 0], B i [(N−1): 0]) and data of the exponent (E [(M−1): 0]) common to all the color elements. It becomes the HDR image data in decimal format.
Further, a detailed configuration of the video output device 20 will be described with reference to FIG. Here, FIG. 2 is a block diagram showing a detailed configuration of the video output device 20.

映像出力装置20は、図2に示すように、指数部変換部200と、YUV411変換部201と、パッキング指数部データ生成部202と、UVEp多重部203と、遅延部204と、画素カウンタ・制御部205と、Y信号ポート206と、UV信号ポート207と、同期信号ポート208とを含んで構成される。
指数部変換部200は、HDR映像信号源10からの浮動小数点形式のHDR映像信号の示すデータに基づき、当該データを構成する各HDR画像データの指数部のビット数を、YUV411方式の出力フォーマットに基づき変換する。
As shown in FIG. 2, the video output device 20 includes an exponent part converter 200, a YUV411 converter 201, a packing index part data generator 202, a UVE p multiplexer 203, a delay part 204, a pixel counter The controller 205 includes a Y signal port 206, a UV signal port 207, and a synchronization signal port 208.
Based on the data indicated by the HDR video signal in the floating-point format from the HDR video signal source 10, the exponent conversion unit 200 converts the number of bits of the exponent part of each HDR image data constituting the data into the output format of the YUV411 system. Convert based on.

具体的には、HDR画像データにおける各画素データの指数部のビット数が5ビット以上である場合に、指数部を4ビット以下で表現できるように仮数部の数値を変更すると共に、指数部のビット数を4ビットに変換する。
この変換後のHDR画像データ(以下、指数部変換形式HDR画像データと称す)においては、その各画素データが、各色要素のNビットの仮数部(R'i[(N−1):0]、G'i[(N−1):0]、B'i[(N−1):0])のデータと、全ての色に共通の指数部(E'[(M−1):0])のデータとから構成される。
Specifically, when the bit number of the exponent part of each pixel data in the HDR image data is 5 bits or more, the numerical value of the mantissa part is changed so that the exponent part can be expressed by 4 bits or less, and the exponent part Convert the number of bits to 4 bits.
In the HDR image data after conversion (hereinafter referred to as exponent part conversion format HDR image data), each pixel data has an N-bit mantissa part (R ′ i [(N−1): 0] of each color element. , G ′ i [(N−1): 0], B ′ i [(N−1): 0]) and the exponent (E ′ [(M−1): 0) common to all colors. ]) Data.

指数部変換部200は、指数部変換形式HDR画像データの各画素データにおける、仮数部のデータを、YUV411変換部201に出力し、一方、指数部のデータを、パッキング指数部データ生成部202に出力する。
YUV411変換部201は、指数部変換部200から、変換後の仮数部のデータが入力されると、これをYUV411方式の出力フォーマットの映像信号へと変換する。
The exponent conversion unit 200 outputs the mantissa data in each pixel data of the exponent conversion format HDR image data to the YUV411 conversion unit 201, while the exponent data is supplied to the packing exponent data generation unit 202. Output.
When the converted mantissa data is input from the exponent conversion unit 200, the YUV411 conversion unit 201 converts the converted data into a video signal in the YUV411 output format.

ここでYUV411方式の出力フォーマットは、前述したように、輝度信号であるY信号は全画素分を出力し、色差信号であるU信号及びV信号については、人間の眼の色に対する空間周波数の低さを考慮して出力する情報量を削減する。具体的に、U信号及びV信号については、4画素から1つの代表値を求め、この代表値のみを出力する。例えば、仮数部が8ビットの画像データであれば、Y信号4バイトに対して、U信号1バイト、V信号1バイトを出力する。   Here, as described above, the YUV411 output format outputs all pixels of the Y signal, which is a luminance signal, and the U signal and V signal, which are color difference signals, have a low spatial frequency relative to the color of the human eye. In consideration of this, the amount of information to be output is reduced. Specifically, for the U signal and the V signal, one representative value is obtained from four pixels, and only this representative value is output. For example, if the mantissa part is 8-bit image data, 1 byte of U signal and 1 byte of V signal are output for 4 bytes of Y signal.

従って、YUV411変換部201は、指数部変換形式HDR画像データの各画素データにおける仮数部のデータ(R'i[(N−1):0]、G'i[(N−1):0]、B'i[(N−1):0])を、YUV411方式のデータ(Y[(N−1):0]、U[(N−1):0]、V[(N−1):0])へと変換する。
そして、YUV411変換部201は、変換後の仮数部のデータにおける、Y[(N−1):0]を、遅延部204に出力し、一方、U[(N−1):0]及びV[(N−1):0]を、UVEp多重部203に出力する。
Therefore, the YUV411 conversion unit 201 uses the mantissa data (R ′ i [(N−1): 0], G ′ i [(N−1): 0]) in each pixel data of the exponent part conversion format HDR image data. , B ′ i [(N−1): 0]) is converted into YUV411 data (Y [(N−1): 0], U [(N−1): 0], V [(N−1)). : 0]).
Then, the YUV411 conversion unit 201 outputs Y [(N−1): 0] in the converted mantissa data to the delay unit 204, while U [(N−1): 0] and V [(N−1): 0] is output to the UVE p multiplexer 203.

パッキング指数部データ生成部202は、指数部変換部200から、変換後の指数部のデータ(E'[m(mは4以下の自然数):0])が入力されると、水平走査方向に連続する4画素毎に、当該4画素分の指数部のデータから構成されるパッキング指数部データ(Ep={En(n=1,2,3,・・・),En+1,En+2,En+3})を生成する。具体的に、指数部変換部200において、各画素の指数部のビット数は4ビット以下に変換されているので、パッキング指数部データは、最大でも4ビット×4=16ビット(2バイト)のデータとなる。 When the exponent data after conversion (E ′ [m (m is a natural number of 4 or less): 0]) is input from the exponent conversion unit 200, the packing exponent data generation unit 202 in the horizontal scanning direction. Packing exponent data (E p = {E n (n = 1, 2, 3,...) , En + 1 , E n + 2 , E n + 3 }). Specifically, since the exponent part conversion unit 200 converts the number of bits of the exponent part of each pixel to 4 bits or less, the packing exponent part data has a maximum of 4 bits × 4 = 16 bits (2 bytes). It becomes data.

そして、YUV411変換部201は、上記生成したパッキング指数部データを、UVEp多重部203に出力する。
UVEp多重部203は、YUV411変換部201からU信号及びV信号が入力され且つパッキング指数部データ生成部202からパッキング指数部データのデータ信号(以下、パッキング指数部データ信号と称す)が入力されると、画素カウンタ・制御部205から入力される多重制御信号に基づき、UV信号及びパッキング指数部データ信号を多重化して、UV信号ポート207へと出力する。
Then, the YUV411 conversion unit 201 outputs the generated packing index part data to the UVE p multiplexing unit 203.
The UVE p multiplexing unit 203 receives the U signal and the V signal from the YUV 411 conversion unit 201 and the packing exponent data generation unit 202 from the packing exponent data generation unit 202 (hereinafter referred to as a packing exponent data signal). Then, based on the multiplex control signal input from the pixel counter / control unit 205, the UV signal and the packing index part data signal are multiplexed and output to the UV signal port 207.

具体的に、U信号及びV信号が、先述したように1/4の情報量に削減されることで、奇数ライン又は偶数ラインのいずれか一方の出力タイミングにおいて発生するダミーデータの出力に代えて、上記パッキング指数部データ信号を出力する。従って、奇数ラインの出力タイミングにおいてU信号及びV信号が出力されると、偶数ラインの出力タイミングにおいてパッキング指数部データ信号(以下、Ep信号と称す)が出力されることになる。 Specifically, the U signal and the V signal are reduced to ¼ information amount as described above, so that the dummy data generated at the output timing of either the odd line or the even line can be substituted. The packing index part data signal is output. Therefore, when the U and V signals at the output timing of the odd lines are outputted, the packing exponential part data signals at the output timing of the even lines (hereinafter, referred to as E p signal) is to be output.

遅延部204は、Y信号と、UV信号と、Ep信号との同期を取るためのバッファである。具体的に、パッキング指数部データ生成部202及びUVEp多重部203により発生する遅延量を、Y信号を遅らせることで補正する。
画素カウンタ・制御部205は、HDR映像信号源10からの同期信号INに基づき、HDR画像データのライン番号及び画素番号をカウントする。そして、当該カウント結果に基づき、指数部変換部200、パッキング指数部データ生成部202を制御するための制御信号を生成し、UVE多重部203を制御するための多重制御信号を生成する。そして、これら生成した制御信号を各構成部に入力する。一方、遅延後のY信号と、UV信号、Ep信号との同期をとるために、同期信号INを遅延させた同期信号OUTを生成し、これを同期信号ポート208に出力する。
Delay unit 204, a Y signal, and the UV signal is a buffer for synchronizing the E p signal. Specifically, the delay amount generated by the packing index part data generation unit 202 and the UVE p multiplexing unit 203 is corrected by delaying the Y signal.
The pixel counter / control unit 205 counts the line number and pixel number of the HDR image data based on the synchronization signal IN from the HDR video signal source 10. Based on the count result, a control signal for controlling the exponent part conversion unit 200 and the packing exponent part data generation unit 202 is generated, and a multiplex control signal for controlling the UVE multiplexing unit 203 is generated. Then, these generated control signals are input to each component. On the other hand, the Y signal after a delay, in order to synchronize the UV signal, E p signal, generates a sync signal OUT obtained by delaying the synchronizing signal IN, and outputs it to the synchronization signal port 208.

Y信号ポート206は、8ビットのデータ出力幅(バス幅)を有したポートであり、遅延部204を介して入力されるY信号を映像処理装置30に出力する。
UV信号ポート207は、8ビットのデータ出力幅(バス幅)を有したポートであり、UVEp多重部203から入力される多重化されたUV信号及びEp信号(以下、UVEp多重信号と称す)を映像処理装置30に出力する。
同期信号ポート208は、画素カウンタ・制御部205から入力される同期信号OUTを映像処理装置30に出力する。
The Y signal port 206 is a port having a data output width (bus width) of 8 bits, and outputs the Y signal input via the delay unit 204 to the video processing device 30.
The UV signal port 207 is a port having a data output width (bus width) of 8 bits, and is a multiplexed UV signal and E p signal (hereinafter referred to as UVE p multiplexed signal) input from the UVE p multiplexing unit 203. Is output to the video processing device 30.
The synchronization signal port 208 outputs the synchronization signal OUT input from the pixel counter / control unit 205 to the video processing device 30.

更に、図3に基づき、映像処理装置30の詳細な構成を説明する。ここで、図3は、映像処理装置30の詳細な構成を示すブロック図である。
映像処理装置30は、Y信号ポート300と、UV信号ポート301と、同期信号ポート302と、遅延量調整部303と、UVEp多重信号分離部304と、HDR映像変換部305と、指数部分離部306と、指数部拡張部307と、画素カウンタ・制御部308と、VRAM(Video Random Access Memory)309とを含んで構成される。
Further, a detailed configuration of the video processing device 30 will be described with reference to FIG. Here, FIG. 3 is a block diagram showing a detailed configuration of the video processing device 30.
The video processing device 30 includes a Y signal port 300, a UV signal port 301, a synchronization signal port 302, a delay amount adjustment unit 303, a UVE p multiple signal separation unit 304, an HDR video conversion unit 305, and an exponent part separation. 306, an exponent expansion unit 307, a pixel counter / control unit 308, and a VRAM (Video Random Access Memory) 309.

Y信号ポート300は、8ビットのデータ出力幅(バス幅)を有したポートであり、映像出力装置20から出力され且つ入力されたY信号を遅延量調整部303に出力する。
UV信号ポート301は、8ビットのデータ出力幅(バス幅)を有したポートであり、映像出力装置20から出力され且つ入力されたUVEp多重信号をUVEp多重信号分離部304に出力する。
The Y signal port 300 is a port having an 8-bit data output width (bus width), and outputs the Y signal output from the video output device 20 and input to the delay amount adjustment unit 303.
The UV signal port 301 is a port having a data output width (bus width) of 8 bits, and outputs the UVE p multiplexed signal output and input from the video output device 20 to the UVE p multiplexed signal separation unit 304.

同期信号ポート302は、映像出力装置20から出力され且つ入力された同期信号OUTを画素カウンタ・制御部308に出力する。
遅延量調整部303は、Y信号と、UVEp多重信号との同期をとるためのバッファである。具体的に、UVEp多重信号分離部304において発生する遅延量を、Y信号を遅らせることで補正する。
The synchronization signal port 302 outputs the synchronization signal OUT output and input from the video output device 20 to the pixel counter / control unit 308.
The delay amount adjusting unit 303 is a buffer for synchronizing the Y signal and the UVE p multiplexed signal. Specifically, the delay amount generated in the UVE p multiple signal demultiplexing unit 304 is corrected by delaying the Y signal.

UVEp多重信号分離部304は、UVEp多重信号を、UV信号と、Ep信号とに分離すると共に、UV信号と、Ep信号と、同期信号OUTとの同期をとる。
また、UVEp多重信号分離部304は、分離したUV信号をHDR映像変換部305に出力し、分離したEp信号を指数部分離部306に出力する。
HDR映像変換部305は、遅延量調整部303から入力されるY信号と、UVEp多重信号分離部304から入力されるUV信号とに基づき、まず、UV信号に対して補間処理を施して欠如した画素部分のUV信号を生成すると共に、U信号とV信号とを分離する。次に、Y信号と、補間後のU信号及びV信号とに基づき、これらY信号、U信号及びV信号を、RGB信号へと変換する(戻す)。
The UVE p multiplexed signal separation unit 304 separates the UVE p multiplexed signal into a UV signal and an E p signal, and synchronizes the UV signal, the E p signal, and the synchronization signal OUT.
In addition, the UVE p multiple signal separation unit 304 outputs the separated UV signal to the HDR video conversion unit 305 and outputs the separated E p signal to the exponent part separation unit 306.
Based on the Y signal input from the delay amount adjustment unit 303 and the UV signal input from the UVE p multiplex signal separation unit 304, the HDR video conversion unit 305 first performs interpolation processing on the UV signal and lacks it. The UV signal of the pixel portion thus generated is generated, and the U signal and the V signal are separated. Next, based on the Y signal and the interpolated U signal and V signal, the Y signal, U signal, and V signal are converted (returned) to an RGB signal.

そして、HDR映像変換部305は、変換後のRGBデータ(R'i[(N−1):0]、G'i[(N−1):0]、B'i[(N−1):0])を、VRAM309に出力する。
指数部分離部306は、UVEp多重信号分離部304から入力されるEp信号に基づき、4画素分が1つにまとめられた構成のパッキング指数部データ(Ep[4:0])を4つに分割して、これら分割した指数部データを指数部拡張部307に出力する。
The HDR video conversion unit 305 then converts the converted RGB data (R ′ i [(N−1): 0], G ′ i [(N−1): 0], B ′ i [(N−1)). : 0]) is output to the VRAM 309.
The exponent part separation unit 306 stores packing exponent part data (E p [4: 0]) having a configuration in which four pixels are combined into one based on the E p signal input from the UVE p multiple signal separation unit 304. The data is divided into four parts, and the divided exponent part data is output to the exponent part extension unit 307.

指数部拡張部307は、4ビットの指数部データを、8ビットへと拡張(上位4ビットに0を挿入)し、当該拡張後の8ビットの指数部データをVRAM309に出力する。
画素カウンタ・制御部308は、同期信号ポート302から入力された同期信号OUTをカウントして、画素のアドレス(XY座標)を与えるアドレス制御信号を生成して、これをVRAM309に出力する。
The exponent part extension unit 307 extends the 4-bit exponent part data to 8 bits (inserts 0 in the upper 4 bits), and outputs the expanded 8-bit exponent part data to the VRAM 309.
The pixel counter / control unit 308 counts the synchronization signal OUT input from the synchronization signal port 302, generates an address control signal that gives a pixel address (XY coordinates), and outputs this to the VRAM 309.

VRAM309は、画素カウンタ・制御部308からのアドレス制御信号に基づいて、HDR映像変換部305から入力されるRGBデータと、指数部拡張部307から入力される指数部データとを対応付けて格納する。   Based on the address control signal from the pixel counter / control unit 308, the VRAM 309 stores the RGB data input from the HDR video conversion unit 305 and the exponent data input from the exponent expansion unit 307 in association with each other. .

次に、図4〜図12に基づき、上記構成の映像処理システム1の動作を説明する。
まず、図4〜図9に基づき、映像出力装置20の動作を説明する。
ここで、図4は、指数部変換部で変換後の指数部変換形式HDR画像データのデータ構成の一例を示す図である。また、図5は、Y信号の出力順を示す図である。また、図6は、U信号の間引き方法及び出力方法を示す図である。また、図7は、U信号とV信号とを多重化して出力する方法を示す図である。また、図8は、UVEp多重部203の内部構成の一例を示す図である。また、図9(a)は、Ep信号の構成を示す図であり、(b)は、UV信号とEp信号とを多重化して出力する方法を示す図である。
Next, the operation of the video processing system 1 having the above configuration will be described with reference to FIGS.
First, the operation of the video output device 20 will be described with reference to FIGS.
Here, FIG. 4 is a diagram illustrating an example of the data configuration of the exponent part conversion format HDR image data after being converted by the exponent part converter. FIG. 5 is a diagram showing the output order of the Y signal. FIG. 6 is a diagram showing a U signal thinning method and an output method. FIG. 7 is a diagram illustrating a method of multiplexing and outputting the U signal and the V signal. FIG. 8 is a diagram illustrating an example of an internal configuration of the UVE p multiplexing unit 203. Further, FIG. 9 (a) is a diagram showing the configuration of E p signals, (b) are diagrams illustrating a method of outputting by multiplexing the UV signal and the E p signal.

HDR映像信号源10は、RGBの各色について、仮数部が8ビット、基数が2及び指数部が8ビットの画素データから構成される、Radiance形式のHDR映像信号を、同期信号INと共に映像出力装置20に出力する。
HDR映像信号源10から出力されたHDR映像信号は、映像出力装置20の指数部変換部200に入力され、一方、同期信号INは、映像出力装置20の画素カウンタ・制御部205に入力される。
The HDR video signal source 10 outputs an HDR video signal in the Radiance format composed of pixel data having a mantissa part of 8 bits, a radix of 2 and an exponent part of 8 bits for each color of RGB together with a synchronization signal IN. 20 is output.
The HDR video signal output from the HDR video signal source 10 is input to the exponent conversion unit 200 of the video output device 20, while the synchronization signal IN is input to the pixel counter / control unit 205 of the video output device 20. .

映像出力装置20は、画素カウンタ・制御部205に同期信号INが入力されると、同期信号INのパルス数をカウントすると共に、指数部変換部200、パッキング指数部データ生成部202の動作を制御する制御信号及びUVEp多重部203の動作を制御する多重制御信号を生成し、前記各部に出力する。
指数部変換部200は、画素カウンタ・制御部205から入力される制御信号に基づき、入力されたHDR映像信号における8ビットの指数部を4ビットの指数部に変換して、図4に示すように、RGBの各色要素を表す値を、8ビットの仮数部と、これら各色要素に共通の4ビットの指数部とで表した画素データを有する指数部変換形式HDR画像データ(R'i[7:0]、G'i[7:0]、B'i[7:0]、E'[3:0])を生成する。
When the synchronization signal IN is input to the pixel counter / control unit 205, the video output device 20 counts the number of pulses of the synchronization signal IN and controls the operations of the exponent part conversion unit 200 and the packing index part data generation unit 202. And a control signal for controlling the operation of the UVE p multiplexing unit 203 are generated and output to the respective units.
The exponent conversion unit 200 converts an 8-bit exponent in the input HDR video signal into a 4-bit exponent based on a control signal input from the pixel counter / control unit 205, as shown in FIG. In addition, exponent part conversion format HDR image data (R ′ i [7] having pixel data in which values representing RGB color elements are represented by an 8-bit mantissa part and a 4-bit exponent part common to these color elements. : 0], G ′ i [7: 0], B ′ i [7: 0], E ′ [3: 0]).

そして、指数部変換部200は、上記生成した指数部変換形式HDR画像データにおける、仮数部のデータ(R'i[7:0]、G'i[7:0]、B'i[7:0])を、YUV411変換部201に出力し、一方、指数部のデータ(E'[3:0])を、パッキング指数部データ生成部202に出力する。
YUV411変換部201は、仮数部のデータが入力されると、これらをYUV411のフォーマットへと変換して出力する。
Then, the exponent part conversion unit 200 uses the mantissa data (R ′ i [7: 0], G ′ i [7: 0], B ′ i [7: 0]) is output to the YUV411 conversion unit 201, while the exponent data (E ′ [3: 0]) is output to the packing exponent data generation unit 202.
When the mantissa data is input, the YUV 411 conversion unit 201 converts the data into the YUV 411 format and outputs it.

以下、水平走査方向(以下、横方向という)の画素数が640、垂直走査方向(以下、縦方向という)の画素数が480のHDR画像データを例に挙げて説明する。
YUV411変換部201は、まず、R'i、G'i、B'iの画素データを、輝度情報(Y)、輝度と赤色成分の差(U)、輝度と青色成分の差(V)の画素データへと変換する。この変換方法は公知であるので記載を省略する。
Hereinafter, description will be given by taking HDR image data having 640 pixels in the horizontal scanning direction (hereinafter referred to as horizontal direction) and 480 pixels in the vertical scanning direction (hereinafter referred to as vertical direction) as an example.
The YUV411 conversion unit 201 first converts the pixel data of R ′ i , G ′ i , and B ′ i into luminance information (Y), the difference between the luminance and the red component (U), and the difference between the luminance and the blue component (V). Convert to pixel data. Since this conversion method is well-known, description is abbreviate | omitted.

次に、上記YUVに変換した画素データにおける、Y信号の画素データ(Y[7:0])については、図5に示すように、1ライン目の図中左端にある画素Y1のデータから順に出力する。そして、ラインの図中右端にある画素Y640のデータを出力した後、2ライン目の左端にある画素Y1のデータを出力する。以上のようにしてY信号の画素データは、指数部変換部200から順次先に入力された画素データから順に全画素分が遅延部204に出力される。   Next, regarding the pixel data (Y [7: 0]) of the Y signal in the pixel data converted into YUV, as shown in FIG. 5, the data of the pixel Y1 at the left end of the first line in the figure is sequentially applied. Output. Then, after outputting the data of the pixel Y640 at the right end of the line in the drawing, the data of the pixel Y1 at the left end of the second line is output. As described above, the pixel data of the Y signal is output to the delay unit 204 in order from the pixel data sequentially input from the exponent part conversion unit 200 in order.

また、YUV411変換部201は、U信号及びV信号については、図6に示すように、横方向2画素×縦方向2画素の4画素のデータ毎に、これら4画素のデータ(例えばu11、u12、u21、u22)から1つの代表値(例えばU1)を算出する。そして、求めた代表値だけをUVEp多重部203に出力する 。同様に、V信号についても4画素から算出される代表値だけをUVEp多重部203に出力する。従って、YUV411変換部201からUVEp多重部203に出力されるU信号及びV信号は、Y信号の全データ量の1/4となる。 Further, as shown in FIG. 6, the YUV 411 conversion unit 201, as shown in FIG. 6, for each of 4 pixel data of 2 pixels in the horizontal direction × 2 pixels in the vertical direction, the data of these 4 pixels (for example, u11, u12 , U21, u22), one representative value (for example, U1) is calculated. Then, only the obtained representative value is output to the UVE p multiplexing unit 203. Similarly, for the V signal, only the representative value calculated from the four pixels is output to the UVE p multiplexing unit 203. Therefore, the U signal and the V signal output from the YUV411 conversion unit 201 to the UVE p multiplexing unit 203 are ¼ of the total data amount of the Y signal.

一方、パッキング指数部データ生成部202は、指数部変換形式HDR画像データにおける指数部のデータ(E'[3:0])が入力されると、画素カウンタ・制御部205から入力される制御信号に基づき、横方向に連続する4画素毎に、当該4画素分のE'[3:0]から構成されるパッキング指数部データ(Ep={E'n,E'n+1,E'n+2,E'n+3})を生成する。ここで、nは、画像の各ラインの画素番号であり、横方向の画素数が640の場合、nは「1〜637」の範囲の値となる。従って、パッキング指数部データは、ライン毎に、「Ep1={E'1,E'2,E'3,E'4}、Ep2={E'5,E'6,E'7,E'8}、・・・、Ep159={E'633,E'634,E'635,E'636}、Ep160={E'637,E'638,E'639,E'640}」となる。 On the other hand, when the exponent data (E ′ [3: 0]) in the exponent conversion format HDR image data is input, the packing exponent data generation unit 202 receives a control signal input from the pixel counter / control unit 205. Based on the above, the packing index portion data (E p = {E ′ n , E ′ n + 1 , E ′) composed of E ′ [3: 0] for the four pixels for every four consecutive pixels in the horizontal direction. n + 2 , E ′ n + 3 }). Here, n is the pixel number of each line of the image. When the number of pixels in the horizontal direction is 640, n is a value in the range of “1-637”. Therefore, the packing index portion data is “E p1 = {E ′ 1 , E ′ 2 , E ′ 3 , E ′ 4 }, E p2 = {E ′ 5 , E ′ 6 , E ′ 7 , E ′ 8 },..., E p159 = {E ′ 633 , E ′ 634 , E ′ 635 , E ′ 636 }, E p160 = {E ′ 637 , E ′ 638 , E ′ 639 , E ′ 640 } "

上記生成されたパッキング指数部データの信号(以下、Ep信号と称す)は、UVEp多重部203に順次出力される。
UVEp多重部203は、U信号及びV信号と、Ep信号とが入力されると、画素カウンタ・制御部205から入力される多重制御信号に基づき、U信号及びV信号と、Ep信号とを多重化し、この多重化されたUVEp多重信号を、UV信号ポート207に出力する。
The generated packing index part data signal (hereinafter referred to as an E p signal) is sequentially output to the UVE p multiplexing unit 203.
UVE p multiplexing unit 203, and the U and V signals, when the E p signal is input, based on the multiplex control signal input from the pixel counter control unit 205, and the U and V signals, E p signal Are multiplexed and the multiplexed UVE p multiplexed signal is output to the UV signal port 207.

ここで、YUV411方式においては、U信号及びV信号の出力において、先述したように、4画素に対して1つの代表値の信号のみを出力するため、U信号及びV信号は、タイミング的に、Y信号の4画素分の出力が行われる期間に、それぞれ1画素分を出力すれば良いことになる。そこで、従来は、例えば、図7に示すように、奇数ラインの出力タイミングにおいて、U信号及びV信号を交互に出力(多重出力)し、偶数ラインの出力タイミングにおいて、ダミーデータを出力している。なお、奇数ラインの出力期間でダミーデータ、偶数ラインの出力期間でU信号及びV信号を出力する場合もある。   Here, in the YUV411 system, as described above, only one representative value signal is output for four pixels in the output of the U signal and the V signal. It is sufficient to output one pixel each during a period in which four pixels of the Y signal are output. Therefore, conventionally, for example, as shown in FIG. 7, U signal and V signal are alternately output (multiple output) at the odd line output timing, and dummy data is output at the even line output timing. . In some cases, dummy data is output during an odd line output period, and U and V signals are output during an even line output period.

つまり、従来のYUV411方式においては、U信号及びV信号を、奇数ラインの出力期間において多重化して出力することで、1ライン分の出力期間において、Y信号の2ライン分に対応するUV信号データを出力している。このように、Y信号の2ラインに対して、UV信号は奇数ラインの1ライン分の出力で済むため、従来は、Y信号とのタイミングを合わせるために、偶数ラインの出力期間においてダミーデータを出力していた。   That is, in the conventional YUV411 system, the U signal and the V signal are multiplexed and output in the output period of the odd lines, so that the UV signal data corresponding to two lines of the Y signal in the output period of one line. Is output. In this way, since the UV signal only needs to be output for one odd-numbered line with respect to two Y-signal lines, conventionally, in order to synchronize the timing with the Y signal, dummy data is output during the even-line output period. It was output.

一方、本実施の形態の映像出力装置20は、ダミーデータを出力する期間(上記例では、従来ではダミーデータを出力していた偶数ラインの出力期間)において、指数部のデータ信号であるEp信号を出力する。これにより、Ep信号とUV信号とを多重化する。
具体的に、UVEp多重部203は、図8に示すように、マルチプレクサ203aを内部に有しており、当該マルチプレクサ203aにおいて、画素カウンタ・制御部205からの多重制御信号に基づき、出力する信号を、UV信号とEp信号とのいずれか一方に切り替えることで、UV信号にEp信号を多重化する。
On the other hand, the video output device 20 according to the present embodiment has an exponent data signal E p in the period for outputting dummy data (in the above example, the output period for the even lines in which dummy data was conventionally output). Output a signal. Thereby, the E p signal and the UV signal are multiplexed.
Specifically, as shown in FIG. 8, the UVE p multiplexing unit 203 includes a multiplexer 203a, and the multiplexer 203a outputs a signal based on the multiplexing control signal from the pixel counter / control unit 205. and by switching to one of the UV signal and the E p signal, multiplexes the E p signal to the UV signal.

一方、画素カウンタ・制御部205は、画素のカウントが奇数ラインのときに「1」を示す多重制御信号を出力し、一方偶数ラインのときに「0」を示す多重制御信号を出力するようになっている。
従って、マルチプレクサ203aは、Ep信号とUV信号とが入力されると、多重制御信号「1」が入力されている期間は、UV信号を出力し、一方、多重制御信号「0」が入力されている期間は、Ep信号を出力するように回路が構成されている。
On the other hand, the pixel counter / control unit 205 outputs a multiplex control signal indicating “1” when the pixel count is an odd line, and outputs a multiplex control signal indicating “0” when the pixel count is an even line. It has become.
Thus, the multiplexer 203a, when the E p signal and UV signal is input, the period during which the multiplexing control signal "1" is inputted, outputs a UV signal, whereas, the input multiplexed control signal "0" During this period, the circuit is configured to output the E p signal.

これにより、図9(a)に示すデータ構成のEp信号(データ)が、図9(b)に示すように、偶数ラインの出力期間においてUV信号ポート207に出力され、UV信号が奇数ラインの出力期間においてUV信号ポート207に出力される。
なお、図9(b)中のE'1E'2、E'3E'4などにおける下付文字の数字は、画素番号を示しており、例えば、E'1であれば、画素番号1番の画素の指数部データとなる。
As a result, the E p signal (data) having the data structure shown in FIG. 9A is output to the UV signal port 207 in the even line output period, as shown in FIG. 9B, and the UV signal is output to the odd line. Is output to the UV signal port 207 during the output period.
Note that the subscript numerals in E ′ 1 E ′ 2 , E ′ 3 E ′ 4, etc. in FIG. 9B indicate pixel numbers. For example, if E ′ 1 , pixel number 1 This is the exponent data of the numbered pixel.

一方、遅延部204では、パッキング指数部データ生成部202及びUVEp多重部203において生じた遅延量分、Y信号を遅延させるようになっており、Y信号は、UV信号又はEp信号と同期して、Y信号ポート206に出力される。
以上のようにして、Y信号ポート206へと出力されたY信号は、Y信号ポート206から映像処理装置30に出力される。また、UV信号ポート207へと出力されたUVEp多重信号は、UV信号ポート207から映像処理装置30に出力される。
On the other hand, in the delay unit 204, a delay amount generated in the packing exponential part data generating unit 202 and UVE p multiplexing unit 203 being adapted to delay the Y signal, the Y signal is, UV signal or E p signal and synchronization Then, it is output to the Y signal port 206.
As described above, the Y signal output to the Y signal port 206 is output from the Y signal port 206 to the video processing device 30. The UVE p multiplexed signal output to the UV signal port 207 is output from the UV signal port 207 to the video processing device 30.

本実施の形態のY信号及びUVEp多重信号の出力は、30[fps]のフレームレートで行われる。具体的に、HDR映像信号源10から入力された同期信号INを遅延させて生成した同期信号(同期信号OUT)に基づいて行われる。
ここで、同期信号OUTは、出力される映像データのフレームの開始を示す垂直同期信号、ラインの開始を示す水平同期信号、画素の同期信号の3信号もしくはこれら3信号の複合信号である。
The output of the Y signal and the UVE p multiplexed signal in this embodiment is performed at a frame rate of 30 [fps]. Specifically, it is performed based on a synchronization signal (synchronization signal OUT) generated by delaying the synchronization signal IN input from the HDR video signal source 10.
Here, the synchronization signal OUT is a vertical synchronization signal indicating the start of a frame of video data to be output, a horizontal synchronization signal indicating the start of a line, three signals of pixel synchronization signals, or a composite signal of these three signals.

以上のような処理手順で、HDR映像信号源10からの浮動小数点形式のHDR映像信号がYUV方式のフォーマットに変換され、且つ、指数部のデータがUV信号に多重化されてY信号と共に映像処理装置30へと出力される。
次に、図10〜図12に基づき、映像処理装置30の動作を説明する。
ここで、図10は、UVEp多重信号分離部304の有するデマルチプレクサ304aの構成を示す図である。また、図11は、UVEp多重信号分離部304の有するUV信号分離回路の構成を示す図である。また、図12は、UV信号の補間処理の流れを示す図である。
Through the above processing procedure, the HDR video signal in the floating-point format from the HDR video signal source 10 is converted into the YUV format, and the exponent data is multiplexed with the UV signal and processed together with the Y signal. It is output to the device 30.
Next, based on FIGS. 10-12, operation | movement of the video processing apparatus 30 is demonstrated.
Here, FIG. 10 is a diagram illustrating a configuration of a demultiplexer 304 a included in the UVE p multiplexed signal demultiplexing unit 304. FIG. 11 is a diagram illustrating a configuration of a UV signal separation circuit included in the UVE p multiplexed signal separation unit 304. FIG. 12 is a diagram showing the flow of UV signal interpolation processing.

映像処理装置30において、映像出力装置20から出力された信号のうち、Y信号は、Y信号ポート300を介して遅延量調整部303に入力される。また、UVEp多重信号は、UVEp多重信号分離部304に入力され、同期信号OUTは画素カウンタ・制御部308に入力される。
画素カウンタ・制御部308は、入力された同期信号OUTに基づき、画素のアドレス(XY座標)を与えるアドレス制御信号を生成して、VRAM309に出力する。また、入力された同期信号OUTに基づき、ライン番号に応じて「0」、「1」が切り替わる分離制御信号を生成して、これをUVEp多重信号分離部304に出力する。
In the video processing device 30, the Y signal among the signals output from the video output device 20 is input to the delay amount adjustment unit 303 via the Y signal port 300. The UVE p multiplexed signal is input to the UVE p multiplexed signal separation unit 304, and the synchronization signal OUT is input to the pixel counter / control unit 308.
The pixel counter / control unit 308 generates an address control signal that gives a pixel address (XY coordinates) based on the input synchronization signal OUT, and outputs the address control signal to the VRAM 309. Also, based on the input synchronization signal OUT, a separation control signal that switches between “0” and “1” according to the line number is generated, and this is output to the UVE p multiplexed signal separation unit 304.

UVEp多重信号分離部304は、図10に示す、デマルチプレクサ302aを内部に有しており、当該デマルチプレクサ302aにおいて、UVEp多重信号をUV信号とEp信号とに分離する。具体的に、多重化されたUV信号とEp信号とを、画素カウンタ・制御部308から入力される、先述したライン番号ごとに切り替わる分離制御信号に基づいて別々に出力することによってUV信号とEp信号とに分離する。 The UVE p multiplex signal separation unit 304 includes a demultiplexer 302a shown in FIG. 10, and the demultiplexer 302a separates the UVE p multiplex signal into a UV signal and an E p signal. Specifically, the UV signal and the E p signals multiplexed, and the UV signal by being inputted from the pixel counter control unit 308, and outputs separately on the basis of the isolation control signal switched every aforementioned the line number Separated into E p signal.

また、UVEp多重信号分離部304は、図11に示す、UV信号分離回路302bを有しており、当該UV信号分離回路302bにおいて、デマルチプレクサ302aで分離されたUV信号において、4画素に対して代表値を1つ選択したことによって失われた残り3画素分のデータを補間し、且つ多重化されたUV信号をU信号及びV信号に分離して、これら補間後のU信号及びV信号をHDR映像変換部305に出力する。 Further, the UVE p multiplex signal demultiplexing unit 304 includes a UV signal demultiplexing circuit 302b shown in FIG. 11. In the UV signal demultiplexed by the demultiplexer 302a in the UV signal demultiplexing circuit 302b, four UV pixels are separated. The data for the remaining three pixels lost by selecting one representative value is interpolated, and the multiplexed UV signal is separated into a U signal and a V signal, and the U signal and V signal after the interpolation are separated. Is output to the HDR video conversion unit 305.

UV信号分離回路302bは、図11に示すように、入力したUV信号を1ライン分蓄積するラインメモリ1300と、マルチプレクサ1301と、遅延素子1302と、マルチプレクサ1303とを備えている。UV信号は、ラインメモリ1300を介して、あるいは直接マルチプレクサ1303に入力される。UV信号分離回路302bは、奇数番目のラインに対応するUV信号が出力されてきた場合、この信号を出力し、かつラインメモリ1300に格納する。一方、偶数番目のラインに対応するUV信号が出力されてきた場合にはラインメモリ1300に格納されている奇数番目の信号を出力する。この結果、マルチプレクサ1301からは、常に奇数番目のラインに対応するUV信号が出力される。   As shown in FIG. 11, the UV signal separation circuit 302 b includes a line memory 1300 that accumulates an input UV signal for one line, a multiplexer 1301, a delay element 1302, and a multiplexer 1303. The UV signal is input to the multiplexer 1303 via the line memory 1300 or directly. When a UV signal corresponding to an odd-numbered line is output, the UV signal separation circuit 302b outputs this signal and stores it in the line memory 1300. On the other hand, when the UV signal corresponding to the even-numbered line is output, the odd-numbered signal stored in the line memory 1300 is output. As a result, the multiplexer 1301 always outputs UV signals corresponding to odd-numbered lines.

また、UV信号分離回路302bでは、奇数番目(画素単位)の画素データが入力された場合、この画素データをHDR映像変換部305に出力すると共に遅延素子1302で遅延させる。そして、偶数番目(画素単位)の画素データが入力された場合には遅延素子1302で遅延させた画素データをHDR映像変換部305に出力する。この結果、U信号はV信号と分離してHDR映像変換部305に出力される。このようにして出力される画素データは、図12に示すような画素配列となる。図12では、ラインメモリ1300、遅延素子1302において遅延して出力された画素データを補間画素データとしてグレーにして示している。以上述べた動作によってV信号もU信号と分離してHDR映像変換部305に出力される。   In the UV signal separation circuit 302b, when odd-numbered (pixel unit) pixel data is input, the pixel data is output to the HDR video conversion unit 305 and delayed by the delay element 1302. When even-numbered (pixel unit) pixel data is input, the pixel data delayed by the delay element 1302 is output to the HDR video conversion unit 305. As a result, the U signal is separated from the V signal and output to the HDR video conversion unit 305. The pixel data output in this way has a pixel array as shown in FIG. In FIG. 12, the pixel data delayed and output by the line memory 1300 and the delay element 1302 are shown in gray as interpolation pixel data. Through the operation described above, the V signal is also separated from the U signal and output to the HDR video conversion unit 305.

また、デマルチプレクサ302aでUV信号と分離したEp信号は、指数部分離部306に出力される。
一方、遅延量調整部303は、Y信号ポート300を介して入力されてくるY信号をUVEp多重信号分離部304における処理時間分遅延させ、Y信号の出力タイミングをUV信号に同期させる。
Also, E p signal separated with UV signal at the demultiplexer 302a is output to the exponent part separating section 306.
On the other hand, the delay amount adjustment unit 303 delays the Y signal input via the Y signal port 300 by the processing time in the UVE p multiple signal demultiplexing unit 304, and synchronizes the output timing of the Y signal with the UV signal.

HDR映像変換部305は、UVEp多重信号分離部304から入力されたU信号及びV信号と、遅延量調整部303において遅延され、前記U信号及びV信号と同期して入力されるY信号とを、RGBのHDR映像信号(仮数部)に変換する。そして、この変換後のHDR映像信号(R'i[7:0]、G'i[7:0]、B'i[7:0])を、VRAM309に出力する。 The HDR video conversion unit 305 includes a U signal and a V signal input from the UVE p multiplex signal demultiplexing unit 304, a Y signal that is delayed in the delay amount adjustment unit 303, and is input in synchronization with the U signal and the V signal. Is converted into an RGB HDR video signal (mantissa part). The converted HDR video signal (R ′ i [7: 0], G ′ i [7: 0], B ′ i [7: 0]) is output to the VRAM 309.

指数部分離部306は、UVEp多重信号分離部304からEp信号が入力されると、当該Ep信号に含まれる4画素分の指数部データ(E'n,E'n+1,E'n+2,E'n+3)を、画素毎のデータに分割する。そして、当該分割した各画素の指数部データ(E'[3:0])を、指数部拡張部307に出力する。
指数部拡張部307は、指数部分離部306で分離された各画素の4ビットの指数部データを、8ビットの指数部データ(E'[7:0])に拡張し、この8ビットの指数部データをVRAM309に出力する。指数部の拡張は、具体的に、入力された4ビットの指数部データを下位4ビットとし、その上位4ビットとして「0」を挿入することで拡張を行う。
When the E p signal is input from the UVE p multiplex signal demultiplexing unit 304, the exponent demultiplexing unit 306 receives four pixels of exponent data (E ′ n , E ′ n + 1 , E) included in the E p signal. ' n + 2 , E' n + 3 ) is divided into data for each pixel. Then, the exponent part data (E ′ [3: 0]) of each divided pixel is output to the exponent part expansion unit 307.
The exponent expansion unit 307 expands the 4-bit exponent data of each pixel separated by the exponent separation unit 306 into 8-bit exponent data (E ′ [7: 0]). The exponent data is output to the VRAM 309. Specifically, the expansion of the exponent part is performed by setting the input 4-bit exponent part data as the lower 4 bits and inserting “0” as the upper 4 bits thereof.

VRAM309は、画素カウンタ・制御部308から入力されるアドレス制御信号を基準にして動作し、HDR映像変換部305から入力されるHDR映像信号の仮数部データ(R'i[7:0]、G'i[7:0]、B'i[7:0])と、指数部拡張部307から入力される指数部データ(E'[7:0])とを対応付けて格納する。従って、VRAM309には、各色要素の値を、仮数部(R'i[7:0]、G'i[7:0]、B'i[7:0])及び指数部(E'[7:0])の浮動小数点形式で表した画素データから構成されるHDR画像データがメモリ上に構成されることとなる。 The VRAM 309 operates on the basis of the address control signal input from the pixel counter / control unit 308, and mantissa data (R ′ i [7: 0], G) of the HDR video signal input from the HDR video conversion unit 305. ' i [7: 0], B' i [7: 0]) and exponent part data (E '[7: 0]) input from the exponent part extension unit 307 are stored in association with each other. Therefore, the value of each color element is stored in the VRAM 309 with the mantissa part (R ′ i [7: 0], G ′ i [7: 0], B ′ i [7: 0]) and the exponent part (E ′ [7 : 0]) HDR image data composed of pixel data expressed in a floating-point format is configured on the memory.

なお、映像処理装置30は、必要に応じてVRAM309に格納された浮動小数点形式のHDR画像データを処理して別の形式で画像を表示し得る表示データを生成する構成としても良い。例えば、浮動小数点形式のHDR画像データを、固定小数点形式のHDR画像データに変換する。
以上、本実施の形態の映像処理システム1によれば、電子カメラ等のHDR映像信号源で得られた浮動小数点形式のHDR映像信号を、映像出力装置20において、YUV411方式の映像信号に変換して映像処理装置30に出力するときに、指数部のデータをUV信号に多重化して既存のUV信号ポートをそのまま利用して出力することができる。このため、従来のYUV方式の出力インターフェースを変更することなく、指数部のデータを出力することができるので、コストアップすることなく、浮動小数点形式のHDR映像信号を映像処理装置30に出力できるシステムを構成することができる。
Note that the video processing device 30 may be configured to generate display data that can display the image in another format by processing the floating-point format HDR image data stored in the VRAM 309 as necessary. For example, the HDR image data in the floating point format is converted into the HDR image data in the fixed point format.
As described above, according to the video processing system 1 of the present embodiment, the video output device 20 converts the floating-point format HDR video signal obtained by the HDR video signal source such as an electronic camera into a YUV411 video signal. When the data is output to the video processing device 30, the exponent data can be multiplexed with the UV signal and output using the existing UV signal port as it is. For this reason, since the exponent data can be output without changing the conventional YUV output interface, the system can output the floating-point format HDR video signal to the video processing device 30 without increasing the cost. Can be configured.

また、映像出力装置20において、4画素分の指数部データをひとまとめにしたパッキング指数部データを生成し、このパッキング指数部データをUV信号に多重化することができるので、YUV411方式において、UV信号を出力時のダミーデータの出力期間において、パッキング指数部データを出力することができる。これにより、簡易に、指数部のデータをUV信号に多重化して出力することができる。   Further, in the video output device 20, packing index part data in which index data for four pixels are collected together can be generated, and this packing index part data can be multiplexed with the UV signal. In the dummy data output period at the time of output, the packing index part data can be output. As a result, the exponent data can be easily multiplexed with the UV signal and output.

また、映像処理装置30において、パッキング指数部データがUV信号に多重化されたUVEp多重信号を、UV信号と、Ep信号とに分離できると共に、Ep信号を各画素の指数部データに分離することができる。また、Y信号及びUV信号をRGBの信号に変換し、HDR画像データの仮数部のデータを生成(復元)し、VRAM309に格納することができる。また、分離した指数部データを拡張し、HDR画像データの指数部のデータを生成(復元)し、VRAM309に格納することができる。これにより、VRAM309のメモリ上に浮動小数点形式のHDR画像データを形成することができる。 Further, in the image processing apparatus 30, the UVE p multiple signal packing exponential part data are multiplexed in the UV signal, and the UV signal, together can be separated into the E p signal, the E p signal to the exponent data of each pixel Can be separated. Further, the Y signal and the UV signal can be converted into RGB signals, and the mantissa data of the HDR image data can be generated (restored) and stored in the VRAM 309. Further, the separated exponent data can be expanded, and the exponent data of the HDR image data can be generated (restored) and stored in the VRAM 309. Thereby, the HDR image data in the floating point format can be formed on the memory of the VRAM 309.

以上より、映像処理装置30において、映像出力装置20からYUV411方式で出力された映像信号を、元の形式のHDR画像データに変換してVRAM309に蓄積することができるので、本システム1を用いて、監視カメラなどを利用した防犯システムやセキュリティーシステムなどの映像システムを簡易に構成することができる。
上記実施の形態において、指数部変換部200は、形態2乃至4のいずれか1の指数部変換手段に対応し、YUV411変換部201は、形態1、2、3、6及び7のいずれか1の仮数部変換手段又は形態9若しくは11の仮数部変換ステップに対応し、UVEp多重部203は、形態1、2、5及び6のいずれか1の多重手段又は形態9若しくは11の多重ステップに対応し、パッキング指数部データ生成部202は、形態2又は3のパッキング指数部データ生成手段に対応する。
As described above, the video processing apparatus 30 can convert the video signal output from the video output apparatus 20 by the YUV411 system into the HDR image data in the original format and store it in the VRAM 309. Therefore, the system 1 is used. In addition, a video system such as a security system using a surveillance camera or a security system can be easily configured.
In the above embodiment, the exponent part conversion unit 200 corresponds to any one of the exponent part conversion means of the forms 2 to 4, and the YUV411 conversion unit 201 is any one of the forms 1, 2, 3, 6 and 7. The UVE p multiplexing unit 203 corresponds to the multiplexing unit of any one of the first, second, fifth and sixth or the multiplexing step of the ninth or eleventh aspect. Correspondingly, the packing index part data generation unit 202 corresponds to the packing index part data generation means of the form 2 or 3.

また、上記実施の形態において、UVEp多重信号分離部304におけるUV信号とEpとを分離する処理は、形態6若しくは8の信号分離手段又は形態10若しくは12の信号分離ステップに対応し、UVEp多重信号分離部304におけるUV信号の不足分のデータを補間する処理は、形態7の色差信号補間手段に対応し、HDR映像変換部305は、形態6若しくは8の形式変換手段又は形態10若しくは12の形式変換ステップに対応し、HDR映像変換部305で変換後の仮数部のデータ、指数部分離部306及び指数部拡張部307を経て分離及び拡張された指数部のデータとをVRAM309に格納して、メモリ上に浮動小数点形式のHDR画像データを形成する処理は、形態6若しくは8の表示データ生成手段又は形態10若しくは12の表示データ生成ステップに対応する。 Further, in the above embodiment, the process of separating the UV signal and E p in the UVE p multiple signal demultiplexing unit 304 corresponds to the signal demultiplexing means of mode 6 or 8 or the signal demultiplexing step of mode 10 or 12, and UVE The process of interpolating the deficient data of the UV signal in the p multiplex signal separation unit 304 corresponds to the color difference signal interpolation unit of mode 7, and the HDR video conversion unit 305 is the format conversion unit of mode 6 or 8, or mode 10 or Corresponding to the 12 format conversion steps, the mantissa data converted by the HDR video conversion unit 305 and the exponent data separated and expanded through the exponent separation unit 306 and the exponent expansion unit 307 are stored in the VRAM 309. Then, the process of forming the floating-point format HDR image data on the memory is the display data generation means of form 6 or 8, or form 10 Ku corresponds to the display data generation step 12.

なお、上記実施の形態においては、映像出力装置20及び映像処理装置30を、ハードウェア主体の構成としたが、これに限らず、変換処理、多重化処理、分離処理などの各種処理機能をソフトウェアで実現するソフトウェア主体の構成としても良い。この場合に、映像出力装置20及び映像処理装置30は、プログラムを実行するためのプロセッサと、上記各処理を実現させるためのプログラムの記憶されたROMと、実行するプログラムやプログラムの実行に必要な各種データを記憶するRAM、これら構成要素間のデータの授受を行うためのバスなどから構成されるコンピュータシステムを有している。   In the above-described embodiment, the video output device 20 and the video processing device 30 are configured mainly by hardware. However, the present invention is not limited to this, and various processing functions such as conversion processing, multiplexing processing, and separation processing are performed by software. It is also possible to adopt a software-based configuration realized in In this case, the video output device 20 and the video processing device 30 are necessary for executing a processor for executing a program, a ROM storing a program for realizing each of the above-described processes, a program to be executed, and a program. The computer system includes a RAM for storing various data, a bus for transferring data between these components, and the like.

また、上記実施の形態においては、HDR映像信号源10から出力されるHDR画像データを、仮数部8ビット、基数2及び指数部8ビットの構成としたが、これに限らず、仮数部を7ビット以下又は9ビット以上としても良いし、基数を2以外の数値としても良いし、指数部を3ビット以下又は5ビット以上としても良い。
また、上記実施の形態においては、YUV方式の一種であるYUV411方式に本発明を適用する構成としたが、これに限らず、YUV211方式、YUV422方式、YUV444方式など他のYUV方式に本発明を適用する構成としても良い。
In the above embodiment, the HDR image data output from the HDR video signal source 10 has a mantissa part of 8 bits, a radix 2 and an exponent part of 8 bits. It may be less than 9 bits or 9 bits or more, the radix may be a numerical value other than 2, and the exponent may be 3 bits or less or 5 bits or more.
In the above embodiment, the present invention is applied to the YUV411 system, which is a kind of YUV system. However, the present invention is not limited to this. It is good also as composition to apply.

映像処理システム1の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a video processing system 1. FIG. 映像出力装置20の詳細な構成を示すブロック図である。2 is a block diagram illustrating a detailed configuration of a video output device 20. FIG. 映像処理装置30の詳細な構成を示すブロック図である。2 is a block diagram illustrating a detailed configuration of a video processing device 30. FIG. 指数部変換部で変換後の指数部変換形式HDR画像データのデータ構成の一例を示す図である。It is a figure which shows an example of the data structure of the exponent part conversion format HDR image data after conversion by the exponent part conversion part. Y信号の出力順を示す図である。It is a figure which shows the output order of Y signal. U信号の間引き方法及び出力方法を示す図である。It is a figure which shows the thinning-out method and output method of U signal. U信号とV信号とを多重化して出力する方法を示す図である。It is a figure which shows the method of multiplexing and outputting a U signal and a V signal. UVEp多重部203の内部構成の一例を示す図である。3 is a diagram illustrating an example of an internal configuration of a UVE p multiplexing unit 203. FIG. (a)は、Ep信号の構成を示す図であり、(b)は、UV信号とEp信号とを多重化して出力する方法を示す図である。(A) is a diagram showing a structure of E p signals, (b) are diagrams illustrating a method of outputting by multiplexing the UV signal and the E p signal. UVEp多重信号分離部304の有するデマルチプレクサ304aの構成を示す図である。It is a figure which shows the structure of the demultiplexer 304a which the UVE p multiplex signal separation part 304 has. UVEp多重信号分離部304の有するUV信号分離回路の構成を示す図である。3 is a diagram illustrating a configuration of a UV signal separation circuit included in a UVE p multiple signal separation unit 304. FIG. UV信号の補間処理の流れを示す図である。It is a figure which shows the flow of the interpolation process of UV signal. 従来のYUV方式を用いた映像処理システムの構成を説明するための図である。It is a figure for demonstrating the structure of the video processing system using the conventional YUV system.

符号の説明Explanation of symbols

1は映像処理システム、10はHDR映像信号源、20は映像出力装置、30は映像処理装置、200は指数部変換部、201はYUV411変換部、202はパッキング指数部データ生成部、203はUVEp多重部203、206,300はY信号ポート、207,301はUV信号ポート、304はUVEp多重信号分離部304、305はHDR映像変換部、306は指数部分離部、307は指数部拡張部、309はVRAM 1 is a video processing system, 10 is a HDR video signal source, 20 is a video output device, 30 is a video processing device, 200 is an exponent conversion unit, 201 is a YUV411 conversion unit, 202 is a packing exponent data generation unit, and 203 is UVE p multiplexing sections 203, 206, and 300 are Y signal ports, 207 and 301 are UV signal ports, 304 are UVE p multiplexed signal separating sections 304 and 305 are HDR video converting sections, 306 is an exponent separating section, and 307 is an exponent expanding section. 309 is VRAM

Claims (12)

画像データを、輝度信号Y及び色差信号UVからなるYUV方式の映像信号に変換し、当該変換して得られた映像信号を所定のインターフェースを介して出力する映像出力装置であって、
画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される第1の画像データに対して、当該第1の画像データを構成する各画素データの仮数部のデータを、前記YUV方式の映像信号に変換する仮数部変換手段と、
前記第1の画像データを構成する各画素データの指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化する多重手段と、
前記輝度信号Y及び前記指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力する映像信号出力手段と、を備えることを特徴とする映像出力装置。
A video output device that converts image data into a YUV video signal including a luminance signal Y and a color difference signal UV, and outputs the video signal obtained by the conversion via a predetermined interface,
The pixel value is expressed in a floating-point format with a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent part of M bits (M is a natural number of 2 or more). Mantissa conversion means for converting the mantissa data of each pixel data constituting the first image data into the YUV video signal for the first image data composed of the pixel data;
Multiplexing means for multiplexing the data of the exponent part of each pixel data constituting the first image data into the color difference signal UV in the YUV video signal;
A video output device comprising: a video signal output means for outputting a YUV video signal comprising the luminance signal Y and the color difference signal UV multiplexed with the exponent data.
前記第1の画像データを構成する各画素データの前記Mビットの指数部を、mビット(mは、M>mの自然数)の指数部に変換する指数部変換手段と、
前記指数部変換手段で指数部を変換した後の画像データである第2の画像データにおいて、所定走査方向に連続する所定数の画素の画素データ毎に、当該所定数の画素の画素データにおける指数部のデータによって構成されたパッキング指数部データを生成するパッキング指数部データ生成手段と、を備え、
前記仮数部変換手段は、前記第2の画像データを構成する各画素データの仮数部のデータを前記YUV方式の映像信号に変換し、
前記多重手段は、前記パッキング指数部データを、前記YUV方式の映像信号における色差信号UVに多重化することを特徴とする請求項1に記載の映像出力装置。
Exponent part conversion means for converting the M-bit exponent part of each pixel data constituting the first image data into an m-bit exponent part (m is a natural number of M>m);
In the second image data, which is image data after the exponent part is converted by the exponent part conversion means, for each pixel data of a predetermined number of pixels continuous in a predetermined scanning direction, an exponent in the pixel data of the predetermined number of pixels Packing index part data generating means for generating packing index part data composed of parts of data,
The mantissa conversion means converts mantissa data of each pixel data constituting the second image data into the YUV video signal,
2. The video output apparatus according to claim 1, wherein the multiplexing unit multiplexes the packing index part data into a color difference signal UV in the YUV video signal.
前記第1の画像データは、RGB(Red,Green,Blue)形式のカラー画像データであって、前記画素値を構成するR、G、Bの各色要素を表す値が、仮数部が前記Nビット、基数が2及び指数部が前記Mビットの浮動小数点形式で表され、且つ前記Mビットの指数部が示す値が各色要素において同じ値となる画素データから構成されており、
前記指数部変換手段は、前記第1の画像データを構成する各画素データの前記各色要素に対応する前記Mビットの指数部を、前記各色要素において同じ値となる4ビット以下の指数部に変換し、
前記仮数部変換手段は、前記第2の画像データを構成する各画素データの前記各色要素に対応する仮数部のデータを、前記YUV方式の1種であるYUV411方式の映像信号に変換し、
前記パッキング指数部データ生成手段は、前記第2の画像データにおいて、水平走査方向に連続する4画素の画素データ毎に、当該4画素の画素データにおける指数部のデータから構成されたパッキング指数部データを生成することを特徴とする請求項2に記載の映像出力装置。
The first image data is color image data in RGB (Red, Green, Blue) format, and a value representing each of R, G, and B color elements constituting the pixel value has a mantissa part of the N bits. The radix is 2 and the exponent is represented in the M-bit floating point format, and the value indicated by the M-bit exponent is composed of pixel data having the same value in each color element,
The exponent part converting means converts the M-bit exponent part corresponding to each color element of each pixel data constituting the first image data into an exponent part of 4 bits or less having the same value in each color element. And
The mantissa conversion means converts mantissa data corresponding to each color element of each pixel data constituting the second image data into a YUV411 video signal that is one type of the YUV method,
In the second image data, the packing index part data generation unit is configured to include, for each pixel data of four pixels continuous in the horizontal scanning direction, packing index part data composed of index part data in the pixel data of the four pixels. The video output device according to claim 2, wherein:
前記第1の画像データは、前記画素値を構成するR、G、Bの各色要素を表す値が、仮数部が8ビット、基数が2及び指数部が8ビットの浮動小数点形式で表され、且つ前記8ビットの指数部が示す値が各色要素において同じ値となる画素データから構成されており、
前記指数部変換手段は、前記第1の画像データを構成する各画素データの前記各色要素に対応する前記8ビットの指数部を、前記各色要素において同じ値となる4ビットの指数部に変換することを特徴とする請求項3に記載の映像出力装置。
The first image data is expressed in a floating-point format in which values representing the R, G, and B color elements constituting the pixel value are 8 bits for the mantissa, 2 for the radix, and 8 bits for the exponent. And the value indicated by the 8-bit exponent part is composed of pixel data having the same value in each color element,
The exponent part conversion means converts the 8-bit exponent part corresponding to each color element of each pixel data constituting the first image data into a 4-bit exponent part having the same value in each color element. The video output apparatus according to claim 3.
前記多重手段は、前記指数部のデータを、画像の奇数ライン又は偶数ラインのいずれか一方に対応する前記色差信号UVに多重化することを特徴とする請求項1乃至請求項4のいずれか1項に記載の映像出力装置。   The multiplexing means multiplexes the data of the exponent part with the color difference signal UV corresponding to either an odd line or an even line of an image. The video output device according to item. 映像出力装置と映像処理装置とを備え、前記映像処理装置は、前記映像出力装置から出力された映像信号に基づき、所定の表示形式で映像を表示し得る表示データを生成する映像処理システムであって、
前記映像出力装置は、
画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される第1の画像データに対して、当該第1の画像データの各画素データにおける仮数部のデータを、輝度信号Y及び色差信号UVからなるYUV方式の映像信号に変換する仮数部変換手段と、
前記第1の画像データを構成する各画素データの指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化する多重手段と、
前記仮数部変換手段で変換して得られたYUV方式の映像信号における前記輝度信号Yと、前記多重手段で前記指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力する映像信号出力手段と、を備え、
前記映像信号出力手段は、前記輝度信号Yと前記色差信号UVとを、それぞれ独立に前記映像処理装置に出力し、
前記映像処理装置は、
前記映像出力装置から入力された前記指数部のデータが多重化された色差信号UVを、前記仮数部の色差信号UVと、前記指数部のデータ信号とに分離する信号分離手段と、
前記映像出力装置から入力された輝度信号Y及び前記分離して得られた色差信号UVを、前記YUV方式に変換する前の仮数部のデータ形式の信号に変換する形式変換手段と、
前記信号分離手段で分離した指数部のデータ信号と、前記形式変換手段で変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成する表示データ生成手段と、を備えることを特徴とする映像処理システム。
A video processing system comprising a video output device and a video processing device, the video processing device generating display data capable of displaying video in a predetermined display format based on a video signal output from the video output device. And
The video output device
The pixel value is expressed in a floating-point format with a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent part of M bits (M is a natural number of 2 or more). A mantissa for converting mantissa data in each pixel data of the first image data into YUV video signal composed of the luminance signal Y and the color difference signal UV with respect to the first image data composed of the pixel data. Part conversion means;
Multiplexing means for multiplexing the data of the exponent part of each pixel data constituting the first image data into the color difference signal UV in the YUV video signal;
A YUV video signal comprising the luminance signal Y in the YUV video signal obtained by the conversion by the mantissa conversion means and the color difference signal UV in which the exponent data is multiplexed by the multiplexing means. Video signal output means for outputting,
The video signal output means outputs the luminance signal Y and the color difference signal UV to the video processing device independently of each other,
The video processing device includes:
A signal separation means for separating the color difference signal UV multiplexed with the exponent data input from the video output device into the mantissa color difference signal UV and the exponent data signal;
A format converting means for converting the luminance signal Y input from the video output device and the color difference signal UV obtained by the separation into a signal in a data format of a mantissa before being converted into the YUV format;
Display data generating means for generating display data based on the data signal of the exponent part separated by the signal separating means and the signal of the data format of the mantissa part obtained by conversion by the format converting means. Characteristic video processing system.
前記仮数部変換手段は、前記第2画像データを、隣接するj個(jは、2以上の自然数)の画素から構成される画素領域のデータ単位で複数に分割する分割部と、各前記画素領域のj個の画素に対応する前記画素データにおける前記仮数部のデータを、画素毎に1つの輝度信号Yと、前記画素領域毎にk個(kは、k<jの自然数)の画素に対応する色差信号UVとから構成されたYUV方式の映像信号に変換する変換部とを含み、
前記映像処理装置は、前記仮数部変換手段において前記仮数部のデータを前記YUV方式の映像信号に変換したときに、前記画素領域毎に間引かれた(j−k)個の画素に対応する色差信号UVを補間する色差信号補間手段を備えることを特徴とする請求項6に記載の映像処理システム。
The mantissa conversion means includes a dividing unit that divides the second image data into a plurality of data units in a pixel area composed of j pixels (j is a natural number of 2 or more) adjacent to each other, and each of the pixels The mantissa data in the pixel data corresponding to j pixels in a region is converted into one luminance signal Y for each pixel and k pixels (k is a natural number where k <j) for each pixel region. A conversion unit for converting into a YUV video signal composed of a corresponding color difference signal UV,
The video processing apparatus corresponds to (j−k) pixels thinned out for each pixel area when the mantissa data is converted into the YUV video signal by the mantissa conversion means. The video processing system according to claim 6, further comprising color difference signal interpolation means for interpolating the color difference signal UV.
画素値を浮動小数点形式で表した画素データから構成される画像データの各前記画素データにおける仮数部のデータを輝度信号Y及び色差信号UVに変換すると共に、各前記色差信号UVに前記各画素データの指数部のデータを多重化してなる映像信号に基づき、所定の表示形式で映像を表示し得る表示データを生成する映像処理装置であって、
前記指数部のデータが多重化された色差信号UVを、前記仮数部の色差信号UVと、前記指数部のデータ信号とに分離する信号分離手段と、
前記輝度信号Y及び前記分離して得られた色差信号UVを、前記YUV方式に変換する前の仮数部のデータ形式の信号に変換する形式変換手段と、
前記信号分離手段で分離した指数部のデータ信号と、前記形式変換手段で変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成する表示データ生成手段と、を備えることを特徴とする映像処理装置。
Data of the mantissa part in each pixel data of image data composed of pixel data representing pixel values in a floating point format is converted into a luminance signal Y and a color difference signal UV, and each pixel data is converted into each color difference signal UV. A video processing device for generating display data capable of displaying a video in a predetermined display format based on a video signal obtained by multiplexing the exponent data of
A signal separating means for separating the color difference signal UV in which the exponent data is multiplexed into the mantissa color difference signal UV and the exponent data signal;
Format conversion means for converting the luminance signal Y and the color difference signal UV obtained by the separation into a signal of a data format of a mantissa part before being converted into the YUV system;
Display data generating means for generating display data based on the data signal of the exponent part separated by the signal separating means and the signal of the data format of the mantissa part obtained by conversion by the format converting means. A video processing device.
画像データを、輝度信号Y及び色差信号UVからなるYUV方式の映像信号に変換し、当該変換して得られた映像信号を所定のインターフェースを介して出力する映像出力方法であって、
画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される第1の画像データに対して、当該第1の画像データの各画素データにおける仮数部のデータを、前記YUV方式の映像信号に変換する仮数部変換ステップと、
前記第1の画像データを構成する各画素データの指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化する多重ステップと、
前記輝度信号Y及び前記指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力する映像信号出力ステップと、を含むことを特徴とする映像出力方法。
A video output method for converting image data into a YUV video signal including a luminance signal Y and a color difference signal UV, and outputting the video signal obtained by the conversion via a predetermined interface,
The pixel value is expressed in a floating-point format with a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent part of M bits (M is a natural number of 2 or more). A mantissa conversion step of converting mantissa data in each pixel data of the first image data into the YUV video signal for the first image data composed of the pixel data;
A multiplexing step of multiplexing the data of the exponent part of each pixel data constituting the first image data into the color difference signal UV in the YUV video signal;
And a video signal output step of outputting a YUV video signal comprising the luminance signal Y and the color difference signal UV in which the exponent data is multiplexed.
画素値を浮動小数点形式で表した画素データから構成される画像データの各画素データにおける仮数部のデータを輝度信号Y及び色差信号UVに変換すると共に、各前記色差信号UVに前記各画素データの指数部のデータを多重化してなる映像信号に基づき、所定の表示形式で映像を表示し得る表示データを生成する映像処理方法であって、
前記指数部のデータが多重化された色差信号UVを、前記仮数部の色差信号UVと、前記指数部のデータ信号とに分離する信号分離ステップと、
前記輝度信号Y及び前記分離して得られた色差信号UVを、前記YUV方式に変換する前の仮数部のデータ形式の信号に変換する形式変換ステップと、
前記信号分離ステップで分離した指数部のデータ信号と、前記形式変換ステップで変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成する表示データ生成ステップと、を含むことを特徴とする映像処理方法。
Data of the mantissa part in each pixel data of image data composed of pixel data representing pixel values in floating point format is converted into a luminance signal Y and a color difference signal UV, and each color difference signal UV is converted to each pixel data. A video processing method for generating display data capable of displaying video in a predetermined display format based on a video signal obtained by multiplexing data of exponent parts,
A signal separation step of separating the color difference signal UV obtained by multiplexing the exponent data into the mantissa color difference signal UV and the exponent data signal;
A format conversion step of converting the luminance signal Y and the color difference signal UV obtained by the separation into a signal of a data format of a mantissa part before being converted into the YUV method;
A display data generation step of generating display data based on the data signal of the exponent part separated in the signal separation step and the signal in the data format of the mantissa part obtained by the conversion in the format conversion step. A characteristic video processing method.
画像データを、輝度信号Y及び色差信号UVからなるYUV方式の映像信号に変換し、当該変換して得られた映像信号を所定のインターフェースを介して出力する映像出力プログラムであって、
画素値を、仮数部がNビット(Nは2以上の自然数)、基数がX(Xは2以上の自然数)及び指数部がMビット(Mは2以上の自然数)の浮動小数点形式で表した画素データから構成される第1の画像データに対して、当該第1の画像データを構成する各画素データの仮数部のデータを、前記YUV方式の映像信号に変換する仮数部変換ステップと、
前記第1の画像データを構成する各画素データの指数部のデータを、前記YUV方式の映像信号における色差信号UVに多重化する多重ステップと、
前記輝度信号Y及び前記指数部のデータが多重化された色差信号UVとからなるYUV方式の映像信号を出力する映像信号出力ステップとからなる処理をコンピュータに実行させるためのプログラムを含むことを特徴とする映像出力プログラム。
A video output program that converts image data into a YUV video signal including a luminance signal Y and a color difference signal UV, and outputs the video signal obtained by the conversion via a predetermined interface,
The pixel value is expressed in a floating-point format with a mantissa part of N bits (N is a natural number of 2 or more), a radix of X (X is a natural number of 2 or more), and an exponent part of M bits (M is a natural number of 2 or more). A mantissa conversion step of converting the mantissa data of each pixel data constituting the first image data into the YUV video signal for the first image data composed of the pixel data;
A multiplexing step of multiplexing the data of the exponent part of each pixel data constituting the first image data into the color difference signal UV in the YUV video signal;
And a program for causing a computer to execute a process including a video signal output step of outputting a video signal of a YUV system including the luminance signal Y and the color difference signal UV multiplexed with the exponent data. A video output program.
画素値を浮動小数点形式で表した画素データから構成される画像データの各画素データにおける仮数部のデータを輝度信号Y及び色差信号UVに変換すると共に、各前記色差信号UVに前記各画素データの指数部のデータを多重化してなる映像信号に基づき、所定の表示形式で映像を表示し得る表示データを生成する映像処理プログラムであって、
前記指数部のデータが多重化された色差信号UVを、前記仮数部の色差信号UVと、前記指数部のデータ信号とに分離する信号分離ステップと、
前記輝度信号Y及び前記分離して得られた色差信号UVを、前記YUV方式に変換する前の仮数部のデータ形式の信号に変換する形式変換ステップと、
前記信号分離ステップで分離した指数部のデータ信号と、前記形式変換ステップで変換して得られた仮数部のデータ形式の信号とに基づき表示データを生成する表示データ生成ステップとからなる処理をコンピュータに実行させるためのプログラムを含むことを特徴とする映像処理プログラム。
Data of the mantissa part in each pixel data of image data composed of pixel data representing pixel values in floating point format is converted into a luminance signal Y and a color difference signal UV, and each color difference signal UV is converted to each pixel data. A video processing program for generating display data capable of displaying video in a predetermined display format based on a video signal obtained by multiplexing exponential data,
A signal separation step of separating the color difference signal UV obtained by multiplexing the exponent data into the mantissa color difference signal UV and the exponent data signal;
A format conversion step of converting the luminance signal Y and the color difference signal UV obtained by the separation into a signal of a data format of a mantissa part before being converted into the YUV method;
A process comprising: a display data generation step for generating display data based on the exponent data signal separated in the signal separation step and the mantissa data format signal obtained by conversion in the format conversion step A video processing program comprising a program for causing the program to be executed.
JP2007333903A 2007-02-20 2007-12-26 VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD, VIDEO OUTPUT PROGRAM, VIDEO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM Expired - Fee Related JP5012493B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007333903A JP5012493B2 (en) 2007-02-20 2007-12-26 VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD, VIDEO OUTPUT PROGRAM, VIDEO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM
US12/033,041 US20080198266A1 (en) 2007-02-20 2008-02-19 Video output device, video output method, video output program, video processing system, video processing device, video processing method, and video processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007038919 2007-02-20
JP2007038919 2007-02-20
JP2007333903A JP5012493B2 (en) 2007-02-20 2007-12-26 VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD, VIDEO OUTPUT PROGRAM, VIDEO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM

Publications (2)

Publication Number Publication Date
JP2008236725A JP2008236725A (en) 2008-10-02
JP5012493B2 true JP5012493B2 (en) 2012-08-29

Family

ID=39908896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007333903A Expired - Fee Related JP5012493B2 (en) 2007-02-20 2007-12-26 VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD, VIDEO OUTPUT PROGRAM, VIDEO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP5012493B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101256030B1 (en) * 2009-03-10 2013-04-23 돌비 레버러토리즈 라이쎈싱 코오포레이션 Extended dynamic range and extended dimensionality image signal conversion
TWI711310B (en) 2013-06-21 2020-11-21 日商新力股份有限公司 Transmission device, high dynamic range image data transmission method, reception device, high dynamic range image data reception method and program
JP6602414B2 (en) * 2018-03-16 2019-11-06 キヤノン株式会社 Apparatus, method, and program
JP7005570B2 (en) * 2019-10-09 2022-01-21 キヤノン株式会社 Equipment, methods, and programs
CN113784060B (en) * 2021-09-09 2023-06-30 北京跳悦智能科技有限公司 Gesture video stitching method and system and computer equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2966977B2 (en) * 1991-07-15 1999-10-25 キヤノン株式会社 Imaging device
BRPI0511474B1 (en) * 2004-07-29 2017-11-21 Microsoft Technology Licensing, Llc METHOD FOR PROCESSING IMAGE INFORMATION IN A LINEAR FORM ??

Also Published As

Publication number Publication date
JP2008236725A (en) 2008-10-02

Similar Documents

Publication Publication Date Title
US20080198266A1 (en) Video output device, video output method, video output program, video processing system, video processing device, video processing method, and video processing program
US8384765B2 (en) Transmitter, receiver, signal transmission system, and signal transmission method
JPH07255067A (en) System and method for packing data in video processor
JP2004522365A (en) Apparatus and method for high-quality multi-screen division with multi-channel input
JP5012493B2 (en) VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD, VIDEO OUTPUT PROGRAM, VIDEO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM
JP2006013828A (en) Imaging apparatus
JP4475225B2 (en) Video signal transmission system, imaging device, signal processing device, and video signal transmission method
JP6948810B2 (en) Image processing system
US6762792B1 (en) Digital still camera
JP5362954B2 (en) Image processor
US6677991B1 (en) Portable display apparatus with a real-time data display capability and display control method
JP2011061327A (en) Video signal digital interface device
JP2004260265A (en) Pixel extracting circuit having pixel turning over function, and image pickup apparatus
JP7022544B2 (en) Image processing equipment and methods, and imaging equipment
JP3983500B2 (en) Data conversion circuit and digital camera
KR100842829B1 (en) Signal generating apparatus for focus adjusting and imaging apparatus
JP5271243B2 (en) Image feature information multiplexing device, interpolation video generation device, receiver, image feature information multiplexing program, and interpolation video generation program
JP4049157B2 (en) Video signal processing device
JP2003348442A (en) Television camera
JP2018185460A (en) Picture creation system, picture signal generation device, and display device
JP2005269163A (en) Test pattern generating means
JP2007174097A (en) Video image signal processor
JP2003111092A (en) Data conversion circuit
KR100350981B1 (en) Apparatus for PIP processing
TWI410983B (en) Memory access system and method for efficiently utilizing memory bandwidth

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120521

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees