JP2009038682A - Image processor, and image processing method - Google Patents

Image processor, and image processing method Download PDF

Info

Publication number
JP2009038682A
JP2009038682A JP2007202379A JP2007202379A JP2009038682A JP 2009038682 A JP2009038682 A JP 2009038682A JP 2007202379 A JP2007202379 A JP 2007202379A JP 2007202379 A JP2007202379 A JP 2007202379A JP 2009038682 A JP2009038682 A JP 2009038682A
Authority
JP
Japan
Prior art keywords
color space
image
color
signal
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007202379A
Other languages
Japanese (ja)
Inventor
Hiroshi Kobayashi
博 小林
Osamu Konno
修 金野
Hiroshi Kuno
啓 久野
Masashi Ota
正志 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007202379A priority Critical patent/JP2009038682A/en
Priority to US12/452,902 priority patent/US8538197B2/en
Priority to PCT/JP2008/062045 priority patent/WO2009016914A1/en
Priority to EP08790838A priority patent/EP2175660A4/en
Priority to KR1020107001293A priority patent/KR20100036330A/en
Priority to CN2008801016118A priority patent/CN101772961B/en
Publication of JP2009038682A publication Critical patent/JP2009038682A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and image processing method, capable of preventing a color change in display if the image is synthesized. <P>SOLUTION: The image processor includes a video graphic processor 12 for synthesizing a plurality of image signals to generate a synthesized image signal and an HDMI Tx 14 for transmitting the recognition flag of a first color space standard or a second color space standard having a color gamut wider than that specified by the first color space standard as the color space standard of the synthesized image signal if the synthesized signal is transmitted. A host CPU 13 determines the first or second color space standard so as to prevent the color change in display. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、色空間情報が異なる複数の画像データを処理する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for processing a plurality of image data having different color space information.

従来より、ディスプレイやHDTV(High Definition TeleVision)の放送では、sRGB(IEC(International Electrotechnical Commission)61966−2−1)やITU−R(International Telecommunication Union-Radiocommunication Sector) BT.709で規格化された色空間が広く使われているが、近年、広色域パネルの出現により、受像機側でsRGBを超える広色域の色表現が可能となっている。   Conventionally, in display and HDTV (High Definition TeleVision) broadcasting, sRGB (IEC (International Electrotechnical Commission) 61966-2-1) and ITU-R (International Telecommunication Union-Radiocommunication Sector) BT. The color space standardized in 709 is widely used, but in recent years, with the advent of wide color gamut panels, color representation of a wide color gamut exceeding sRGB has become possible on the receiver side.

このような受像機には、パネルの広色域を活かすために、sRGBの色空間の映像コンテンツに対して信号処理によって色域を伸長する技術(以下、「色域伸長処理」と呼ぶ。)が採用されており、受像機は、sRGB色空間でクリップされてしまうような彩度の高い色を色域伸長処理することで、より鮮やかな色を再現することができる。また、ユーザは、受像機の画質モードを選択することにより、色域伸長処理をオン/オフすることが可能となっている。   In such a receiver, in order to make use of the wide color gamut of the panel, a technique for expanding the color gamut by signal processing on the video content in the sRGB color space (hereinafter referred to as “color gamut expansion processing”). The receiver can reproduce a more vivid color by performing color gamut expansion processing on a highly saturated color that is clipped in the sRGB color space. In addition, the user can turn on / off the color gamut expansion processing by selecting the image quality mode of the receiver.

また、受像機は、例えば、HDMI(High-Definition Multimedia Interface)を使って、映像信号とともに色空間情報を、ソース機器から受信することも可能となっており、色空間情報に従って、BT.709の場合は、色域伸長処理をオン状態にし、他の広色域の色空間情報の場合は、色域伸長処理をオフ状態にする、といった制御を自動的に行うことができる。   The receiver can also receive color space information from the source device together with the video signal using, for example, HDMI (High-Definition Multimedia Interface). In the case of 709, it is possible to automatically perform control such as turning on the color gamut expansion process and turning off the color gamut expansion process in the case of color space information of other wide color gamuts.

一方、撮像素子やカメラ信号処理も広色域化しており、カメラで撮影したsRGBを超える色域の広色域信号を、ディスクやテープへ記録し、再生することも可能となっている。また、ディスクやテープに記録された広色域信号を、IEEE(Institute of Electrical and Electronic Engineers)1394などのデジタルインターフェースを介して光ディスクレコーダにダビングしたり、広色域信号が記録された該ディスクを光ディスクレコーダやプレーヤで再生したりすることも可能となっている。また、カメラやレコーダは、HDMIを使って、これらの広色域信号や色空間情報などを受像機に伝送することもできる。   On the other hand, the image sensor and camera signal processing have also widened color gamut, and a wide color gamut signal with a color gamut exceeding the sRGB taken by the camera can be recorded and reproduced on a disk or tape. Also, a wide color gamut signal recorded on a disk or tape is dubbed to an optical disk recorder via a digital interface such as IEEE (Institute of Electrical and Electronic Engineers) 1394, or the disk on which a wide color gamut signal is recorded is recorded. It can also be played back by an optical disk recorder or player. Cameras and recorders can also transmit these wide color gamut signals and color space information to the receiver using HDMI.

特開2006−180477号公報JP 2006-180477 A

ところで、受像機の色域伸長処理をオン/オフすると、表示される画像の色味、色の濃さなどが変化する。例えば、一定色のグラフィックスの背景に動画/静止画をブレンディングする場合、背景の動画/静止画の属性によって色空間情報を変化させると、受像機は該色空間情報に従って色域伸長処理を切り換えるため、一定色であるはずのグラフィックスの色が表示上変化してしまう。このため、ユーザにとって、表示上見苦しく感じることがあった。   By the way, when the color gamut expansion processing of the receiver is turned on / off, the color of the displayed image, the color density, and the like change. For example, in the case of blending a moving image / still image on a graphic background of a certain color, if the color space information is changed according to the attribute of the moving image / still image of the background, the receiver switches the color gamut expansion processing according to the color space information. For this reason, the color of graphics that should be a constant color changes on display. For this reason, the user may feel uncomfortable in display.

また、複数の動画/静止画やグラフィックスなどを合成する場合、例えば、合成画の色空間規格が、全てBT.709の状態から、一つの動画/静止画が広色域に変化した際にも、動画/静止画の属性によって色空間情報を変化させると、受像機は該色空間情報に従って色域伸長処理を切り換えるため、グラフィックスや他の動画/静止画の色が表示上変化してしまい、見苦しく感じることがあった。   When a plurality of moving images / still images, graphics, and the like are combined, for example, the color space standard of the combined image is all BT. Even when one moving image / still image changes to a wide color gamut from the state of 709, if the color space information is changed according to the attribute of the moving image / still image, the receiver performs the color gamut expansion processing according to the color space information. Since switching, the colors of graphics and other moving images / still images may change on the display, which may make it unsightly.

本発明は、このような従来の実情に鑑みて提案されたものであり、画像が合成された場合、色が表示上変化するのを防ぐことができる画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been proposed in view of such a conventional situation, and provides an image processing apparatus and an image processing method capable of preventing a color from being changed on display when an image is synthesized. With the goal.

上述の課題を解決するために、本発明に係る画像処理装置は、第1の色空間規格の画像信号と当該第1の色空間規格で規定される色域よりも広い色域の第2の色空間規格の画像信号とを信号処理する画像処理装置であって、複数の画像信号を合成し、合成画像信号を生成する画像処理手段と、上記合成画像信号の色空間情報を上記第1の色空間規格又は第2の色空間規格のいずれかに決定する制御手段と、所定のデジタル映像信号伝送規格にて上記合成画像信号と上記決定された色空間情報とを伝送する伝送手段とを備え、上記制御手段は、上記画像処理手段にて合成される複数の画像信号の色空間規格、上記合成画像信号に切り換える前に伝送された色空間情報のうち少なくとも1つに応じて上記合成画像信号の色空間情報を決定する。   In order to solve the above-described problem, an image processing apparatus according to the present invention includes an image signal of a first color space standard and a second color gamut wider than a color gamut defined by the first color space standard. An image processing apparatus that performs signal processing on an image signal of a color space standard, the image processing means for combining a plurality of image signals to generate a combined image signal, and the color space information of the combined image signal as the first image signal. Control means for determining either the color space standard or the second color space standard; and transmission means for transmitting the composite image signal and the determined color space information in accordance with a predetermined digital video signal transmission standard. The control means is configured to respond to at least one of color space standards of a plurality of image signals synthesized by the image processing means and color space information transmitted before switching to the synthesized image signal. Determine the color space information.

また、本発明に係る画像処理方法は、第1の色空間規格の画像信号と当該第1の色空間規格で規定される色域よりも広い色域の第2の色空間規格の画像信号とを信号処理する画像処理方法であって、複数の画像信号を合成し、合成画像信号を生成する画像処理工程と、上記合成画像信号の色空間情報を上記第1の色空間規格又は第2の色空間規格のいずれかに決定する制御工程と、所定のデジタル映像信号伝送規格にて上記合成画像信号と上記決定された色空間情報とを伝送する伝送工程とを備え、上記制御工程では、上記画像処理手段にて合成される複数の画像信号の色空間規格、上記合成画像信号に切り換える前に伝送された色空間情報のうち少なくとも1つに応じて上記合成画像信号の色空間情報を決定する。   The image processing method according to the present invention includes an image signal of the first color space standard, an image signal of the second color space standard having a wider color gamut than the color gamut defined by the first color space standard, and An image processing method for synthesizing a plurality of image signals to generate a synthesized image signal, and color space information of the synthesized image signal as the first color space standard or the second image processing method. A control step for determining one of the color space standards, and a transmission step for transmitting the composite image signal and the determined color space information in accordance with a predetermined digital video signal transmission standard. The color space information of the composite image signal is determined according to at least one of the color space standards of the plurality of image signals combined by the image processing means and the color space information transmitted before switching to the composite image signal. .

本発明によれば、合成画像信号の色空間情報が固定されているため、受像機側で色が表示上変化するのを防ぐことができる。   According to the present invention, since the color space information of the composite image signal is fixed, it is possible to prevent the color on the display side from changing on the display side.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る再生システムを示す図である。この再生システムは、記録再生装置1と、受像機2とが、HDMI(High-Definition Multimedia Interface)ケーブル3を介して接続されており、受像機2は、第1の色空間規格の画像データを、第1の色空間規格で規定される色域よりも広い色域の第2の色空間規格の画像データに擬似的に色域を伸張して表示することが可能となっている。第1の色空間規格の例としては、sRGB(IEC61966−2−1)、ITU−R BT.709等が挙げられる。また、第2の色空間規格の例としては、xvYCC等が挙げられる。   FIG. 1 is a diagram showing a playback system according to an embodiment of the present invention. In this playback system, a recording / playback apparatus 1 and a receiver 2 are connected via an HDMI (High-Definition Multimedia Interface) cable 3, and the receiver 2 receives image data of the first color space standard. Thus, it is possible to display the image data of the second color space standard having a wider color gamut than the color gamut defined by the first color space standard in a pseudo-expanded manner. Examples of the first color space standard include sRGB (IEC 61966-2-1), ITU-R BT. 709 and the like. Examples of the second color space standard include xvYCC.

xvYCCは、国際電気標準会議(IEC)が国際標準(IEC 61966−2−4)として発行した規格であり、HDTV(High Definition TeleVision)で利用するITU−R BT.709の色域(sRGBと同等)との互換性を確保しながら、色空間を広げたものである。そして、このxvYCCによれば、現行の動画コンテンツの色空間規格「ITU−R BT.709」(静止画ではsRGBに相当)では表現できない色を表現することができる。   xvYCC is a standard issued by the International Electrotechnical Commission (IEC) as an international standard (IEC 61966-2-4), and is an ITU-R BT. The color space is expanded while ensuring compatibility with the 709 color gamut (equivalent to sRGB). According to this xvYCC, it is possible to express a color that cannot be expressed by the color space standard “ITU-R BT.709” (corresponding to sRGB in a still image) of the current moving image content.

図2は、xvYCCの色域を平面に投射した場合の模式図である。この図2において、色域aはsRGBの色域であり、色域bはxvYCCで拡張された色域である。図2に示すようにsRGBでは、R,G,Bそれぞれを0〜1で表現する色のみを利用してきたのに対し、xvYCCでは負の値や1を超える色も定義されている。したがって、例えば、受像機2がsRGBの色域aの映像コンテンツを色域bにまで伸長する処理(以下、「色域伸長処理」と呼ぶ。)を行って、物体の素材感・立体感を忠実に再現すれば、ユーザは広色域のカラー画像を楽しむことができる。   FIG. 2 is a schematic diagram when a color gamut of xvYCC is projected onto a plane. In FIG. 2, a color gamut a is an sRGB color gamut, and a color gamut b is a color gamut expanded by xvYCC. As shown in FIG. 2, in sRGB, only colors expressing R, G, and B as 0 to 1 have been used, whereas in xvYCC, negative values and colors exceeding 1 are defined. Therefore, for example, the receiver 2 performs a process of expanding the video content of the sRGB color gamut a to the color gamut b (hereinafter referred to as “color gamut expansion process”), thereby giving the material feeling and stereoscopic effect of the object. If faithfully reproduced, the user can enjoy a color image with a wide color gamut.

HDMIケーブル3の規格であるHDMIは、IEEE1394の上位互換とされており、物理層にはTMDS(Transition Minimized Differential Signaling)、信号の暗号化にはHDCP(High-bandwidth Digital Content Protection)、機器間認証にはEDID(Extended Display Identification Data)、系全体の制御系接続にはCEC(Consumer Electronics Control)が採用されている。また、HDMIバージョン1.3には、メタデータとxvYCC色空間の定義が追加されている。したがって、例えば、受像機2が記録再生装置1から受信したメタデータと自身の色域情報とに基づいて画像データを色域伸張処理すれば、より具体的には画像データに対し機器間の色空間の変換処理(Gamut Mapping Algorithm)をすれば、正しい色を再現することができる。   HDMI, which is the standard for the HDMI cable 3, is upwardly compatible with IEEE 1394, TMDS (Transition Minimized Differential Signaling) for the physical layer, HDCP (High-bandwidth Digital Content Protection) for signal encryption, and inter-device authentication EDID (Extended Display Identification Data) is used, and CEC (Consumer Electronics Control) is used for control system connection of the entire system. Also, the definition of metadata and xvYCC color space is added to HDMI version 1.3. Therefore, for example, if the image data is subjected to the color gamut expansion processing based on the metadata received from the recording / reproducing apparatus 1 and its own color gamut information, more specifically, the inter-device color for the image data. If a space conversion process (Gamut Mapping Algorithm) is performed, correct colors can be reproduced.

図1に戻って、再生システムの構成について説明する。記録再生装置1は、MPEG(Moving Picture Expert Group)デコーダ11と、ビデオ・グラフィック・プロセッサ12と、ホストCPU(Central Processing Unit)13と、HDMI Tx(トランスミッタ)14と、HDMIコネクタ15とを備えている。   Returning to FIG. 1, the configuration of the playback system will be described. The recording / reproducing apparatus 1 includes a moving picture expert group (MPEG) decoder 11, a video graphic processor 12, a host CPU (Central Processing Unit) 13, an HDMI Tx (transmitter) 14, and an HDMI connector 15. Yes.

MPEGデコーダ11は、MPEG1、MPEG2、MPEG4、MPEG4−AVC/H.264などのビデオストリームをデコードし、ベースバンド信号を生成する。   The MPEG decoder 11 includes MPEG1, MPEG2, MPEG4, MPEG4-AVC / H. A video stream such as H.264 is decoded to generate a baseband signal.

ビデオ・グラフィック・プロセッサ12は、MPEGデコーダ11にて生成されたベースバンド信号を所望の画枠サイズへ変換処理したり、複数のベースバンド信号を合成処理したりする。   The video graphic processor 12 converts the baseband signal generated by the MPEG decoder 11 into a desired image frame size or synthesizes a plurality of baseband signals.

ホストCPU13は、MPEGデコーダ11及びビデオ・グラフィック・プロセッサ12を制御する。例えば、MPEGデコーダ11に所望のビデオストリームのデコードを指示し、ビデオ・グラフィック・プロセッサ12にデコードされたベースバンド信号を用いた合成画像の生成を指示する。また、合成画像の色空間規格を決定し、その色空間情報をHDMI Tx14に送る。また、ホストCPU13は、HDMIケーブル3のDDC(Display Data Channel)ラインにより受像機2と通信を行う。   The host CPU 13 controls the MPEG decoder 11 and the video graphic processor 12. For example, the MPEG decoder 11 is instructed to decode a desired video stream, and the video graphic processor 12 is instructed to generate a composite image using the decoded baseband signal. Also, the color space standard of the composite image is determined, and the color space information is sent to the HDMI Tx14. The host CPU 13 communicates with the receiver 2 through a DDC (Display Data Channel) line of the HDMI cable 3.

HDMI Tx14は、ビデオ・グラフィック・プロセッサ12にて信号処理された映像音声信号とともに、ホストCPU13から送られた色空間規格を示す色域識別フラグ、メタデータなどの属性データをTMDS信号に変換し、HDMIコネクタ15に出力する。この属性データは、HDMI規格で定義されているAVI(Auxiliary Video Information)InfoFrameを使って伝送することができる。   The HDMI Tx 14 converts attribute data such as a color gamut identification flag indicating the color space standard and metadata sent from the host CPU 13 together with the video / audio signal signal-processed by the video graphic processor 12 into a TMDS signal, Output to the HDMI connector 15. This attribute data can be transmitted using AVI (Auxiliary Video Information) InfoFrame defined in the HDMI standard.

HDMIコネクタ15は、HDMIケーブル3と接続され、HDMI Tx14にて変換されたTMDS信号を受像機2に伝送する。   The HDMI connector 15 is connected to the HDMI cable 3 and transmits a TMDS signal converted by the HDMI Tx 14 to the receiver 2.

次に、受像機2の構成について説明する。受像機2は、HDMIコネクタ21と、HDMI Rx(レシーバ)22と、ホストCPU23と、EDIDROM(Extended Display Identification Data Read Only Memory)24と、ビデオ・グラフィック・プロセッサ25と、ディスプレイデバイス26とを備えている。   Next, the configuration of the receiver 2 will be described. The receiver 2 includes an HDMI connector 21, an HDMI Rx (receiver) 22, a host CPU 23, an extended display identification data read only memory (EDIDROM) 24, a video graphic processor 25, and a display device 26. Yes.

HDMIコネクタ21は、HDMIケーブル3と接続され、TMDS信号を受信する。   The HDMI connector 21 is connected to the HDMI cable 3 and receives a TMDS signal.

HDMI Rx22は、TMDS信号から映像音声信号と属性データとを取得し、映像信号をビデオ・グラフィック・プロセッサ25に送る。   The HDMI Rx 22 acquires a video / audio signal and attribute data from the TMDS signal and sends the video signal to the video graphic processor 25.

ホストCPU23は、属性データに基づいてビデオ・グラフィック・プロセッサ25の色域伸長処理のオン/オフを制御する。具体的には、例えば、属性データの色空間情報がITU−R BT.709の場合、ビデオ・グラフィック・プロセッサ25の色域伸長処理をオン状態にし、属性データの色空間情報がxvYCCの場合、ビデオ・グラフィック・プロセッサ25の色域伸長処理をオフ状態にする。   The host CPU 23 controls on / off of the color gamut expansion processing of the video graphic processor 25 based on the attribute data. Specifically, for example, the color space information of the attribute data is ITU-R BT. In the case of 709, the color gamut expansion processing of the video graphic processor 25 is turned on. When the color space information of the attribute data is xvYCC, the color gamut expansion processing of the video graphic processor 25 is turned off.

EDIDROM24には、受像機2のディスプレイ情報が記憶されており、例えば、受像機2の対応解像度情報、色域の種別を示す色空間情報が書き込まれている。EDIDROM24に記憶されたディスプレイ情報は、HDMIケーブル3のDDC(Display Data Channel)ラインを介して記録再生装置1に提供される。   The display information of the receiver 2 is stored in the EDIDROM 24. For example, the corresponding resolution information of the receiver 2 and color space information indicating the type of color gamut are written. Display information stored in the EDIDROM 24 is provided to the recording / reproducing apparatus 1 through a DDC (Display Data Channel) line of the HDMI cable 3.

図3は、ビデオ・グラフィック・プロセッサ25の構成を示すブロック図である。ビデオ・グラフィック・プロセッサ25は、メモリ251と、スケーラ252と、カラーエキスパンダ253と、ビデオエンコーダ254とを備えている。HDMI Rx22から入力された映像信号は、メモリ251のビデオ・プレーンに書き込まれる。メモリ251に書き込まれた映像信号は、各プレーンから読み出され、スケーラ252で所望のサイズへのスケーリングが施される。また、ホストCPU23からの命令に応じてカラーエキスパンダ253で色域拡張処理が施される。カラーエキスパンダ253は、例えば、BT.709の映像信号を擬似的にxvYCCの映像信号の色域に拡張する。また、xvYCCの映像信号を色域伸張処理した場合、xvYCCの映像信号の色域を擬似的に拡張されたxvYCCの映像信号の色域と同じにする。ビデオエンコーダ254は、所望の出力仕様になるようにタイミング生成、同期信号の付加などを行う。   FIG. 3 is a block diagram showing the configuration of the video graphic processor 25. The video graphic processor 25 includes a memory 251, a scaler 252, a color expander 253, and a video encoder 254. The video signal input from the HDMI Rx 22 is written to the video plane of the memory 251. The video signal written in the memory 251 is read from each plane, and scaled to a desired size by the scaler 252. In addition, color gamut expansion processing is performed by the color expander 253 in response to a command from the host CPU 23. The color expander 253 is, for example, BT. The video signal 709 is expanded to the color gamut of the video signal of xvYCC in a pseudo manner. Further, when the color gamut expansion processing is performed on the xvYCC video signal, the color gamut of the xvYCC video signal is set to be the same as the color gamut of the xvYCC video signal which is pseudo-expanded. The video encoder 254 generates timing, adds a synchronization signal, and the like so as to obtain a desired output specification.

ディスプレイデバイス26は、広色域パネルを有し、ビデオ・グラフィック・プロセッサ25にて信号処理された画面を表示する。   The display device 26 has a wide color gamut panel and displays a screen processed by the video graphic processor 25.

このように、受像機2は、映像音声信号とともに受信した属性データに応じて色伸張処理をオン/オフすることにより、画面内の物体を広色域の色空間で忠実に再現することができる。   As described above, the receiver 2 can faithfully reproduce an object in the screen in the color space of the wide color gamut by turning on / off the color expansion processing according to the attribute data received together with the video / audio signal. .

ところで、このような再生システムにおいて、受像機2は該色空間情報に従って色域伸長処理を切り換えるため、例えば、記録再生装置1が一定色のグラフィックスの背景に動画/静止画をブレンディングし、背景の動画/静止画の属性によって色空間情報を変化させた場合、受像機2において一定色であるはずのグラフィックスの色が表示上変化してしまうことがある。以下では、このような問題を防ぐ方法について説明する。   By the way, in such a reproduction system, since the receiver 2 switches the color gamut expansion processing according to the color space information, for example, the recording / reproducing apparatus 1 blends a moving image / still image on a background of a certain color graphics, and the background When the color space information is changed depending on the moving image / still image attribute, the graphics color that should be a fixed color in the receiver 2 may change on the display. Hereinafter, a method for preventing such a problem will be described.

図4は、記録再生装置1の構成を具体的に示すブロック図である。記録再生装置1は、ライン入力端子41と、アナログチューナ42と、ディスクドライブ43と、ハードディスクドライブ44と、IEEE1394端子45と、デジタルチューナ46と、ライン入力端子41又はアナログチューナ42からの入力信号のいずれか1つを選択するセレクタ47と、セレクタ47からの映像音声信号をデコードするビデオデコーダ48と、ビデオデコーダ48にてデコードされたベースバンド信号又はビデオ・グラフィック・プロセッサ54にて画像合成等の信号処理が施されたベースバンド信号のいずれか1つを選択するセレクタ49と、セレクタ49からのベースバンド信号をエンコードするMPEGエンコーダ50と、HDV(High-Definition Video)プロセッサ51と、ストリームプロセッサ52と、MPEGデコーダ53a,53bと、ビデオ・グラフィック・プロセッサ54と、HDMI Tx55と、DAC56と、HDMIコネクタ57と、コンポーネント端子58と、コンポジット端子59と、ホストCPU60とを備えている。   FIG. 4 is a block diagram specifically showing the configuration of the recording / reproducing apparatus 1. The recording / reproducing apparatus 1 includes a line input terminal 41, an analog tuner 42, a disk drive 43, a hard disk drive 44, an IEEE 1394 terminal 45, a digital tuner 46, and an input signal from the line input terminal 41 or the analog tuner 42. A selector 47 for selecting one of them, a video decoder 48 for decoding the video / audio signal from the selector 47, a baseband signal decoded by the video decoder 48, or an image composition by the video graphic processor 54, etc. A selector 49 that selects any one of the baseband signals subjected to signal processing, an MPEG encoder 50 that encodes the baseband signal from the selector 49, an HDV (High-Definition Video) processor 51, and a stream processor 52 And MPE Decoder 53a, and 53b, a video graphic processor 54, an HDMI TX55, a DAC 56, an HDMI connector 57, and a component terminal 58, a composite terminal 59, and a host CPU 60.

ここで、MPEGデコーダ53a,53b、ビデオ・グラフィック・プロセッサ54、HDMI Tx55、HDMIコネクタ57、ホストCPU60は、それぞれ図1に示すMPEGデコーダ11、ビデオ・グラフィック・プロセッサ12、HDMI Tx14、HDMIコネクタ15、ホストCPU13に対応するものである。   Here, the MPEG decoders 53a and 53b, the video graphic processor 54, the HDMI Tx 55, the HDMI connector 57, and the host CPU 60 are respectively connected to the MPEG decoder 11, the video graphic processor 12, the HDMI Tx 14, the HDMI connector 15 shown in FIG. This corresponds to the host CPU 13.

続いて、記録再生装置1における記録動作について説明する。ライン入力端子41から入力される映像信号と、アナログチューナ42から出力される映像信号は、セレクタ47で所望の入力が選択された後、ビデオデコーダ48に入力される。ビデオデコーダ48は、例えば入力されたNTSC方式のアナログ映像信号をA/D変換した後、輝度信号とクロマ信号とに分離するとともにデコード処理を施す。デコードされたベースバンドビデオ信号は、セレクタ49、及びビデオ・グラフィック・プロセッサ54に入力される。セレクタ49で、ビデオデコーダ48からの出力と、ビデオ・グラフィック・プロセッサ54からの出力とのいずれかを選択した後、選択されたベースバンド信号がMPEGエンコーダ50に入力される。MPEGエンコーダ50は、MPEG1、MPEG2、MPEG4、MPEG4−AVC/H.264など所望のエンコードを行う。エンコードされたストリームは、ストリームプロセッサ52に入力される。ストリームプロセッサ52から、BD(Blu-ray Disc、商標)、DVD(Digital Versatile Disc)などのディスクドライブ43やハードディスクドライブ44などにストリームが送られ、所望のメディアに記録される。   Next, a recording operation in the recording / reproducing apparatus 1 will be described. The video signal input from the line input terminal 41 and the video signal output from the analog tuner 42 are input to the video decoder 48 after a desired input is selected by the selector 47. The video decoder 48 A / D converts, for example, an input NTSC analog video signal, separates it into a luminance signal and a chroma signal, and performs a decoding process. The decoded baseband video signal is input to the selector 49 and the video graphic processor 54. After the selector 49 selects either the output from the video decoder 48 or the output from the video graphic processor 54, the selected baseband signal is input to the MPEG encoder 50. MPEG encoder 50 includes MPEG1, MPEG2, MPEG4, MPEG4-AVC / H. H.264 or other desired encoding is performed. The encoded stream is input to the stream processor 52. A stream is sent from the stream processor 52 to a disk drive 43 such as a BD (Blu-ray Disc (trademark)) or a DVD (Digital Versatile Disc), a hard disk drive 44, and the like, and is recorded on a desired medium.

また、IEEE1394入力端子45から入力されたストリームは、HDVプロセッサ51を経てストリームプロセッサ52に入力され、デジタルチューナ46からのストリームもストリームプロセッサ52に入力される。ストリームプロセッサ52に入力されたストリームは、BD、DVDなどのディスクドライブ43やハードディスクドライブ44などの所望のメディアに記録される。   The stream input from the IEEE 1394 input terminal 45 is input to the stream processor 52 via the HDV processor 51, and the stream from the digital tuner 46 is also input to the stream processor 52. The stream input to the stream processor 52 is recorded on a desired medium such as a disk drive 43 or a hard disk drive 44 such as a BD or a DVD.

また、ストリームプロセッサ52に入力されたストリームは、ストリームプロセッサ52で所望のビデオストリームの抜き出しやパーズなどの処理を施し、MPEGデコーダ53でデコードした後、ビデオ・グラフィック・プロセッサ54、セレクタ49を経由してMPEGエンコーダ50に入力される。MPEGエンコーダ50は、MPEG1、MPEG2、MPEG4、MPEG4−AVC/H.264など所望のエンコードを行い、エンコードされたストリームは、ストリームプロセッサ52に入力される。ストリームプロセッサ52から、BD、DVDなどのディスクドライブ43やハードディスクドライブ44などにストリームが送られ、所望のメディアに記録される。   The stream input to the stream processor 52 is subjected to processing such as extraction and parsing of a desired video stream by the stream processor 52, decoding by the MPEG decoder 53, and then passing through the video graphic processor 54 and the selector 49. To the MPEG encoder 50. MPEG encoder 50 includes MPEG1, MPEG2, MPEG4, MPEG4-AVC / H. H.264 or the like is performed, and the encoded stream is input to the stream processor 52. A stream is sent from the stream processor 52 to a disk drive 43 such as a BD or DVD, a hard disk drive 44, or the like, and recorded on a desired medium.

次に、記録再生装置1における再生動作について説明する。BD、DVDなどのディスクドライブ43やハードディスクドライブ44で再生されたストリームは、ストリームプロセッサ52に入力される。ストリームプロセッサ52は、所望のビデオストリームの抜き出しや、ストリームから画像データの色空間属性に関する情報などのパーズを行った後、MPEGデコーダ53a、53bに送る。MPEGデコーダ53a、53bは、画像データをデコードする。MPEGデコーダ53a、53bでデコードされたベースバンドビデオ信号は、ビデオ・グラフィック・プロセッサ54に入力される。ビデオ・グラフィック・プロセッサ54では、所望の画枠サイズへの変換処理や種々のビデオ信号処理を施し、該映像信号にグラフィックス信号などを合成した後、HDMI Tx55に送られる。HDMI Tx55では、入力されたベースバンド信号をTMDS信号に変換して、制御信号とともにHDMIコネクタ57に出力する。また、ビデオ・グラフィック・プロセッサ54の出力は、DAC56に入力され、D/A変換したアナログコンポーネント信号がコンポーネント端子58に出力されるとともに、D/A変換したアナログコンポジットビデオ信号(あるいは、Y/Cセパレートビデオ信号)もコンポジットビデオ端子(あるいは、S端子)59に出力される。   Next, the reproducing operation in the recording / reproducing apparatus 1 will be described. A stream reproduced by the disk drive 43 or the hard disk drive 44 such as BD or DVD is input to the stream processor 52. The stream processor 52 extracts a desired video stream and parses information related to color space attributes of image data from the stream, and then sends the information to the MPEG decoders 53a and 53b. MPEG decoders 53a and 53b decode image data. The baseband video signal decoded by the MPEG decoders 53a and 53b is input to the video graphic processor 54. The video graphic processor 54 performs conversion processing to a desired image frame size and various video signal processing, synthesizes a graphics signal and the like with the video signal, and then sends them to the HDMI Tx 55. In HDMI Tx55, the input baseband signal is converted into a TMDS signal and output to the HDMI connector 57 together with a control signal. The output of the video graphic processor 54 is input to the DAC 56, and an analog component signal after D / A conversion is output to the component terminal 58, and an analog composite video signal (or Y / C converted) after D / A conversion is output. A separate video signal is also output to the composite video terminal (or S terminal) 59.

次に、図1〜4を参照して記録再生装置1における伝送動作について説明する。ここで、BD、DVDなどのディスクドライブ43やハードディスクドライブ44で再生されたストリームには、広色域映像信号とともに、色域の種別を識別するための識別フラグ、及び色域の付随情報であるメタデータが含まれているものとする。   Next, the transmission operation in the recording / reproducing apparatus 1 will be described with reference to FIGS. Here, the stream reproduced by the disk drive 43 or the hard disk drive 44 such as a BD and a DVD includes a wide color gamut video signal, an identification flag for identifying the type of the color gamut, and accompanying information of the color gamut. Assume that metadata is included.

再生された映像音声信号、及び識別フラグ等のメタデータを含んだストリームは、ストリームプロセッサ52に入力される。ストリームプロセッサ52は、ストリームのパーズを行い、識別フラグ及び、メタデータを抽出し、ホストCPU60は、ストリームの識別フラグ等のメタデータをストリームプロセッサ52から取得する。識別フラグ及びメタデータは、エレメンタリーストリームの付加情報として記録してあるので、ビデオ信号との同期は常に保たれる。広色域信号を含んだストリームは、前述の再生系の説明の通り、MPEGデコーダ53a、53bでデコードされた後、ビデオ・グラフィック・プロセッサ54を経てHDMI Tx55に送られる。   A stream including the reproduced video / audio signal and metadata such as an identification flag is input to the stream processor 52. The stream processor 52 parses the stream, extracts the identification flag and metadata, and the host CPU 60 acquires the metadata such as the stream identification flag from the stream processor 52. Since the identification flag and the metadata are recorded as additional information of the elementary stream, synchronization with the video signal is always maintained. The stream including the wide color gamut signal is decoded by the MPEG decoders 53a and 53b as described above in the reproduction system, and then sent to the HDMI Tx 55 via the video graphic processor 54.

また、ホストCPU60は、HDMIコネクタ57に接続されたHDMIケーブル3のDDC(Display Data Channel)ラインにより受像機2と通信を行い、受像機2に内蔵するHDMI Rx(レシーバ)22、ホストCPU23を介して、EDID(Extended Display Identification Data) ROM24に書かれているディスプレイ情報を取得する。EDID ROM24には、受像機2の対応解像度情報などの他に、色域の種別を示す色空間情報も書かれている。したがって、ホストCPU60は、ディスプレイ情報を取得することにより、接続している受像機2が広色域映像信号に対応しているか否かを判別することができる。そして、HDMIケーブル3によって接続された受像機2が広色域映像信号に対応している場合、ホストCPU60は、広色域映像信号を伝送する際、映像信号の属性としてディスクから取得した色域識別フラグ、及びメタデータをHDMI Tx55にセットすることができる。   Further, the host CPU 60 communicates with the receiver 2 through a DDC (Display Data Channel) line of the HDMI cable 3 connected to the HDMI connector 57, and via the HDMI Rx (receiver) 22 built in the receiver 2 and the host CPU 23. Then, EDID (Extended Display Identification Data) display information written in the ROM 24 is acquired. In the EDID ROM 24, color space information indicating the type of color gamut is written in addition to the corresponding resolution information of the receiver 2. Therefore, the host CPU 60 can determine whether or not the connected receiver 2 supports the wide color gamut video signal by acquiring the display information. When the receiver 2 connected by the HDMI cable 3 is compatible with the wide color gamut video signal, the host CPU 60 transmits the wide color gamut video signal when the color gamut acquired from the disk as an attribute of the video signal. The identification flag and metadata can be set in HDMI Tx55.

また、後述するように、ホストCPU60は、ビデオ・グラフィック・プロセッサ54にて合成される各画像のメタデータを取得し、HDMI Tx55にセットする色域識別フラグを所望の値に変更する。具体的には、画像合成される各画像の色空間規格や画像合成前の色空間規格に基づいてHDMI Tx55にセットする色域識別フラグを決定する。   As will be described later, the host CPU 60 acquires the metadata of each image synthesized by the video graphic processor 54 and changes the color gamut identification flag set in the HDMI Tx 55 to a desired value. Specifically, the color gamut identification flag to be set in the HDMI Tx 55 is determined based on the color space standard of each image to be combined and the color space standard before image combination.

HDMI Tx55は、映像音声信号とともに色域識別フラグ、メタデータなどの属性データをTMDS信号に変換し、HDMIコネクタ57から出力する。色域の種別を示す識別フラグ、メタデータは、HDMI規格で定義されているAVI(Axiliary Video Information) InfoFrameを使って伝送することができる。例えば、色域識別フラグは、AVI InfoFrameパケット内のColorimetryやExtended Colorimetryで定義される。また、オーディオ信号の属性データは、Audio InfoFrameを用いることができる。   The HDMI Tx 55 converts attribute data such as a color gamut identification flag and metadata into a TMDS signal together with the video / audio signal, and outputs the TMDS signal from the HDMI connector 57. The identification flag and metadata indicating the type of color gamut can be transmitted using AVI (Axialary Video Information) InfoFrame defined in the HDMI standard. For example, the color gamut identification flag is defined by Colorimetry or Extended Colorimetry in the AVI InfoFrame packet. Audio InfoFrame can be used as attribute data of the audio signal.

図5は、画像を合成する際のビデオ・グラフィック・プロセッサ54の機能ブロック図である。ビデオ・グラフィック・プロセッサ54は、メモリ541と、合成処理部542a〜542dと、グラフィックエンジン543と、JPEGエンジン544とを備えている。ここで、合成処理部542a〜542dは、出力フォーマット毎に用意されており、それぞれスケーラ545と、ブレンダ546と、ビデオエンコーダ547とを備えている。   FIG. 5 is a functional block diagram of the video graphic processor 54 when compositing images. The video graphic processor 54 includes a memory 541, synthesis processing units 542 a to 542 d, a graphic engine 543, and a JPEG engine 544. Here, the synthesis processing units 542a to 542d are prepared for each output format, and include a scaler 545, a blender 546, and a video encoder 547, respectively.

ビデオデコーダ48の出力、及びMPEGデコーダ53a、53bの出力は、メモリ541のビデオ・プレーンに書き込まれる。また、グラフィックエンジン543は、メモリ541のグラフィックス・プレーンにグラフィックス・データを書き込む。JPEGエンジン544は、JPEGファイルをデコードして、メモリ541のビデオ・プレーンにJPEGデータを書き込む。メモリ541に書き込まれた画像データは、各プレーンから読み出され、スケーラ545で所望のサイズへのスケーリングなどが行われ、ブレンダ546に送られる。ブレンダ546は、各プレーンから読み出された画像の合成を行う。ビデオエンコーダ547は、所望の出力仕様になるようにタイミング生成、同期信号の付加などを行う。   The output of the video decoder 48 and the outputs of the MPEG decoders 53a and 53b are written in the video plane of the memory 541. Further, the graphic engine 543 writes graphics data to the graphics plane of the memory 541. The JPEG engine 544 decodes the JPEG file and writes the JPEG data to the video plane in the memory 541. Image data written in the memory 541 is read from each plane, scaled to a desired size by the scaler 545, and sent to the blender 546. The blender 546 combines images read from the planes. The video encoder 547 generates timing, adds a synchronization signal, and the like so as to obtain a desired output specification.

以下、画像合成処理する際のホストCPU60の動作について具体例を挙げて説明する。なお、具体的な色空間規格として、BT.709を挙げ、それよりも広い色域の色空間規格としてxvYCC(xvYCC709)を挙げて説明する。   The operation of the host CPU 60 at the time of image composition processing will be described below with a specific example. As a specific color space standard, BT. 709 and xvYCC (xvYCC709) will be described as a color space standard having a wider color gamut.

図6は、画面合成を行わない場合、すなわち、1つの色空間規格からなる画像を出力する場合の映像信号の色空間規格と属性データの色空間情報との関係を示す模式図である。時刻t0において、映像信号の色空間規格がBT.709からxvYCCに切り換わる際、ホストCPU60は、映像信号の色空間規格と同期して、HDMI Tx55にセットする色域識別フラグをBT.709からxvYCC709に切り換える。また、時刻t1において、映像信号の色空間規格がxvYCCからBT.709に切り換わる際、ホストCPU60は、映像信号の色空間規格と同期して、HDMI Tx55にセットする色域識別フラグをBT.709からxvYCC709に切り換える。   FIG. 6 is a schematic diagram showing the relationship between the color space standard of the video signal and the color space information of the attribute data when screen composition is not performed, that is, when an image having one color space standard is output. At time t0, the color space standard of the video signal is BT. When switching from 709 to xvYCC, the host CPU 60 sets the gamut identification flag to be set in the HDMI Tx55 in synchronization with the color space standard of the video signal. Switch from 709 to xvYCC709. At time t1, the color space standard of the video signal is changed from xvYCC to BT. When switching to 709, the host CPU 60 sets a color gamut identification flag to be set in the HDMI Tx55 in synchronization with the color space standard of the video signal. Switch from 709 to xvYCC709.

図7〜図10は、画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例1〜具体例4を示す模式図である。これらの具体例では、画像a、画像b、画像cの3つの画像が合成された合成画面の映像信号を出力する。時刻t0及び時刻t1において、画像の色空間規格が変化し、それに伴い出力する映像信号の色空間規格も変化している。これらの場合において、ホストCPU60は、色空間情報を固定して出力する。   7 to 10 are schematic diagrams illustrating specific examples 1 to 4 of the screen image, the output video signal, and the color space information when performing screen composition. In these specific examples, a video signal of a combined screen in which three images of image a, image b, and image c are combined is output. At time t0 and time t1, the color space standard of the image changes, and the color space standard of the video signal to be output changes accordingly. In these cases, the host CPU 60 fixes and outputs the color space information.

図7に示す具体例1では、時刻t0の前において、BT.709の画像a、BT.709の画像b、xvYCCの画像cの3つの画像が合成された合成画面の映像信号を出力している。そして、時刻t0において画像aの映像信号の色空間規格がBT.709からxvYCCに切り換わり、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例1において、ホストCPU60は、合成する画像の色空間規格と関係なく、HDMI Tx55にセットする色域識別フラグを常にxvYCC709に固定する。具体例1では、色空間情報が常にxvYCC709に固定されるため、面積の広い画像cの色変化がないだけでなく、子画面の画像a,bへの影響も少なく、合成画面全体の色変化を小さくすることができる。   In the specific example 1 shown in FIG. 7, the BT. 709 image a, BT. A video signal of a composite screen in which three images of image 709 of b 709 and image c of xvYCC are combined is output. At time t0, the color space standard of the video signal of the image a is BT. 709 to xvYCC, and at time t1, the color space standard of the video signal of the image a is changed from xvYCC to BT. 709 has been switched. In this specific example 1, the host CPU 60 always fixes the color gamut identification flag to be set in the HDMI Tx55 to xvYCC 709 regardless of the color space standard of the image to be synthesized. In the first specific example, since the color space information is always fixed to xvYCC 709, not only the color change of the image c having a large area is not caused, but also the influence on the images a and b of the child screen is small, and the color change of the entire composite screen Can be reduced.

図8に示す具体例2では、時刻t0の前において、BT.709の画像a、BT.709の画像b、BT.709の画像cの3つの画像が合成された合成画面の映像信号を出力している。そして、時刻t0において画像aの映像信号の色空間規格がBT.709からxvYCCに切り換わり、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例2において、ホストCPU60は、合成する画像の色空間規格と関係なく、HDMI Tx55にセットする色域識別フラグを常にxvYCC709に固定する。具体例2では、色空間情報が常にxvYCC709に固定されるため、面積の広い画像cの色変化がないだけでなく、子画面の画像a,bへの影響も少なく、合成画面全体の色変化を小さくすることができる。   In specific example 2 shown in FIG. 8, before time t0, BT. 709 image a, BT. 709 image b, BT. A video signal of a composite screen in which three images c of image 709 are combined is output. At time t0, the color space standard of the video signal of the image a is BT. 709 to xvYCC, and at time t1, the color space standard of the video signal of the image a is changed from xvYCC to BT. 709 has been switched. In the second specific example, the host CPU 60 always fixes the color gamut identification flag set in the HDMI Tx55 to xvYCC 709 regardless of the color space standard of the image to be synthesized. In specific example 2, since the color space information is always fixed to xvYCC 709, not only the color change of the image c having a large area does not occur, but also the influence on the images a and b of the child screen is small, and the color change of the entire composite screen Can be reduced.

図9に示す具体例3では、時刻t0の前において、BT.709の画像a、BT.709の画像b、xvYCCの画像cの3つの画像が合成された合成画面の映像信号を出力している。そして、時刻t0において画像aの映像信号の色空間規格がBT.709からxvYCCに切り換わり、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例3において、ホストCPU60は、合成する画像の色空間規格と関係なく、HDMI Tx55にセットする色域識別フラグを常にBT.709に固定する。具体例3では、色空間情報が常にBT.709に固定されるため、面積の広い画像cの色変化がないだけでなく、子画面の画像a,bへの影響も少なく、合成画面全体の色変化を小さくすることができる。   In specific example 3 shown in FIG. 9, before time t0, BT. 709 image a, BT. A video signal of a composite screen in which three images of image 709 of b 709 and image c of xvYCC are combined is output. At time t0, the color space standard of the video signal of the image a is BT. 709 to xvYCC, and at time t1, the color space standard of the video signal of the image a is changed from xvYCC to BT. 709 has been switched. In this specific example 3, the host CPU 60 always sets the color gamut identification flag to be set in the HDMI Tx 55 regardless of the color space standard of the image to be synthesized. 709 is fixed. In specific example 3, the color space information is always BT. Since it is fixed to 709, not only the color change of the image c having a large area is not caused, but also the influence on the images a and b of the child screen is small, and the color change of the entire combined screen can be reduced.

図10に示す具体例4では、時刻t0の前において、BT.709の画像a、BT.709の画像b、BT.709の画像cの3つの画像が合成された合成画面の映像信号を出力している。そして、時刻t0において画像aの映像信号の色空間規格がBT.709からxvYCCに切り換わり、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例4において、ホストCPU60は、合成する画像の色空間規格と関係なく、HDMI Tx55にセットする色域識別フラグを常にBT.709に固定する。具体例4では、色空間情報が常にBT.709に固定されるため、面積の広い画像cの色変化がないだけでなく、子画面の画像a,bへの影響も少なく、合成画面全体の色変化を小さくすることができる。   In Specific Example 4 shown in FIG. 10, BT. 709 image a, BT. 709 image b, BT. A video signal of a composite screen in which three images c of image 709 are combined is output. At time t0, the color space standard of the video signal of the image a is BT. 709 to xvYCC, and at time t1, the color space standard of the video signal of the image a is changed from xvYCC to BT. 709 has been switched. In this specific example 4, the host CPU 60 always sets the color gamut identification flag to be set in the HDMI Tx 55 regardless of the color space standard of the image to be synthesized. 709 is fixed. In specific example 4, the color space information is always BT. Since it is fixed to 709, not only the color change of the image c having a large area is not caused, but also the influence on the images a and b of the child screen is small, and the color change of the entire combined screen can be reduced.

このように合成する画面の色空間規格と関係なく、1つの色空間規格の色域識別フラグをHDMI Tx55にセットすることにより、画面合成を行う際、色が表示上変化するのを防ぐことができる。   Regardless of the color space standard of the screen to be combined in this way, by setting the color gamut identification flag of one color space standard to HDMI Tx55, it is possible to prevent the color from changing on the display when performing screen composition. it can.

また、合成画面を出力する際の色空間規格は、ユーザが選択可能とすることが好ましい。例えば、「広色域設定」=[自動/オフ]の切り換えをユーザが設定できるようにする。自動設定の場合には、ソースである記録再生装置1から出力される映像信号が広色域であって、シンクである受像機2が広色域対応可能な装置である場合にのみ、xvYCC709の色空間情報を出力し、オフ設定の場合は、BT.709を固定して出力する。   Moreover, it is preferable that the user can select the color space standard when outputting the composite screen. For example, the user can set switching of “wide color gamut setting” = [automatic / off]. In the case of automatic setting, only when the video signal output from the recording / playback apparatus 1 that is the source has a wide color gamut and the receiver 2 that is the sink is an apparatus that can handle the wide color gamut, When color space information is output and set to OFF, BT. 709 is fixed and output.

また、例えば、「広色域設定」=[オン/オフ]の切り換えをユーザが設定できるようにする。オン設定の場合は、受像機2が広色域対応可能な装置である場合に、xvYCC709固定で色空間情報を伝送し、オフ設定の場合は、BT.709に固定して出力する。   Further, for example, the user can set switching of “wide color gamut setting” = [ON / OFF]. In the case of the on setting, when the receiver 2 is a device capable of handling a wide color gamut, the color space information is transmitted with the xvYCC 709 fixed, and in the case of the off setting, the BT. The output is fixed to 709.

なお、シンクである受像機2が広色域対応可能な装置であるか否かは、受像機2のEDID ROM24に書かれているディスプレイ情報を取得することにより検知することができる。   Note that whether or not the receiver 2 as a sink is a device capable of supporting a wide color gamut can be detected by acquiring display information written in the EDID ROM 24 of the receiver 2.

図11〜図15は、画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例5〜具体例9を示す模式図である。これらの具体例では、時刻t0において、画像a、画像b、画像cの3つの画像が合成された画面の映像信号が出力される。また、時刻t1において画像aの映像信号の色空間規格が変化する。これらの場合において、ホストCPU60は、色空間情報を前時刻のものに固定して出力する。   FIGS. 11 to 15 are schematic diagrams illustrating specific examples 5 to 9 of screen images, output video signals, and color space information in the case of screen composition. In these specific examples, at time t0, a video signal of a screen in which three images a, b, and c are combined is output. Further, the color space standard of the video signal of the image a changes at time t1. In these cases, the host CPU 60 fixes and outputs the color space information at the previous time.

図11に示す具体例5では、時刻t0の前において、xvYCCの画面の映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像b、xvYCCの画像cの3つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例5において、ホストCPU60は、HDMI Tx55にセットする色域識別フラグを合成画面の映像信号よりも前に出力された映像信号のxvYCC709に固定して出力する。この具体例5において、例えば、〜t0の画像と画像cとのタイトルが同じであって、映像信号の色空間規格も同じ場合、時刻t0からの合成画面を違和感なく表示させることができる。   In Specific Example 5 illustrated in FIG. 11, the video signal of the xvYCC screen is output before time t0. At time t0, the image a, BT. A video signal of a composite screen in which three images of image b of 709 and image c of xvYCC are combined is output, and the color space standard of the video signal of image a is changed from xvYCC to BT. 709 has been switched. In Specific Example 5, the host CPU 60 fixes and outputs the color gamut identification flag set in the HDMI Tx55 to the xvYCC 709 of the video signal output before the video signal of the composite screen. In this specific example 5, for example, when the titles of the image of t0 and the image c are the same and the color space standard of the video signal is also the same, the synthesized screen from the time t0 can be displayed without a sense of incongruity.

図12に示す具体例6では、時刻t0の前において、BT.709の画面の映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像b、xvYCCの画像cの3つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例6において、ホストCPU60は、HDMI Tx55にセットする色域識別フラグを合成画面の映像信号よりも前に出力された映像信号のBT.709に固定して出力する。この具体例6において、例えば、〜t0の画像と画像bとのタイトルが同じであって、映像信号の色空間規格も同じ場合、時刻t0からの合成画面を違和感なく表示させることができる。   In the specific example 6 shown in FIG. 12, the BT. The video signal of the screen 709 is output. At time t0, the image a, BT. A video signal of a composite screen in which three images of image b of 709 and image c of xvYCC are combined is output, and the color space standard of the video signal of image a is changed from xvYCC to BT. 709 has been switched. In this specific example 6, the host CPU 60 sets the color gamut identification flag to be set in the HDMI Tx55 to the BT. Of the video signal output before the video signal of the composite screen. The output is fixed to 709. In this specific example 6, for example, when the titles of the image of t0 and the image b are the same and the color space standard of the video signal is the same, the composite screen from the time t0 can be displayed without a sense of incongruity.

図13に示す具体例7では、時刻t0の前において、xvYCCの画面の映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像b、BT.709の画像cの3つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例7において、ホストCPU60は、HDMI Tx55にセットする色域識別フラグを合成画面の映像信号よりも前に出力された映像信号のxvYCC709に固定して出力する。この具体例7において、例えば、〜t0の画像と画像aとのタイトルが同じであって、映像信号の色空間規格も同じ場合、時刻t0からの合成画面を違和感なく表示させることができる。   In Concrete Example 7 shown in FIG. 13, the video signal of the xvYCC screen is output before time t0. At time t0, the image a, BT. 709 image b, BT. 709. The video signal of the composite screen in which three images c of image 709 are combined is output, and the color space standard of the video signal of image a is changed from xvYCC to BT. 709 has been switched. In this specific example 7, the host CPU 60 fixes and outputs the color gamut identification flag set in the HDMI Tx55 to the xvYCC 709 of the video signal output before the video signal of the composite screen. In the specific example 7, for example, when the titles of the image of t0 and the image a are the same and the color space standard of the video signal is the same, the composite screen from the time t0 can be displayed without a sense of incongruity.

図14に示す具体例8では、時刻t0の前において、BT.709の画面の映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像b、BT.709の画像cの3つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例8において、ホストCPU60は、HDMI Tx55にセットする色域識別フラグを合成画面の映像信号よりも前に出力された映像信号のBT.709に固定して出力する。この具体例8において、例えば、〜t0の画像と画像cとのタイトルが同じであって、映像信号の色空間規格も同じ場合、時刻t0からの合成画面を違和感なく表示させることができる。   In Concrete Example 8 shown in FIG. 14, BT. The video signal of the screen 709 is output. At time t0, the image a, BT. 709 image b, BT. 709. The video signal of the composite screen in which three images c of image 709 are combined is output, and the color space standard of the video signal of image a is changed from xvYCC to BT. 709 has been switched. In this specific example 8, the host CPU 60 sets the color gamut identification flag to be set in the HDMI Tx55 to the BT. Of the video signal output before the video signal of the composite screen. The output is fixed to 709. In the specific example 8, for example, when the titles of the image of t0 and the image c are the same and the color space standard of the video signal is the same, the composite screen from the time t0 can be displayed without a sense of incongruity.

図15に示す具体例9では、時刻t0の前において、xvYCCの画面の映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像bの2つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの画面における面積が変更されている。この具体例9において、ホストCPU60は、HDMI Tx55にセットする色域識別フラグを合成画面の映像信号よりも前に出力された映像信号のxvYCC709に固定して出力する。この具体例9において、例えば、〜t0の画像と画像aとのタイトルが同じであって、映像信号の色空間規格も同じ場合、時刻t0からの合成画面を違和感なく表示させることができる。   In Specific Example 9 illustrated in FIG. 15, the video signal of the xvYCC screen is output before time t0. At time t0, the image a, BT. A video signal of a composite screen obtained by combining two images 709 of image b is output, and the area of the image a on the screen is changed at time t1. In this specific example 9, the host CPU 60 fixes and outputs the color gamut identification flag set in the HDMI Tx55 to the xvYCC 709 of the video signal output before the video signal of the composite screen. In this specific example 9, for example, when the titles of the image of t0 and the image a are the same and the color space standard of the video signal is also the same, the synthesized screen from the time t0 can be displayed without a sense of incongruity.

このように、画面合成を行う直前の色空間情報の状態を、画面合成モードに遷移した後も保持することにより、画面合成を行う際、色が表示上変化するのを防ぐことができる。   As described above, by maintaining the state of the color space information immediately before the screen composition after the transition to the screen composition mode, it is possible to prevent the color from being changed on the display when the screen composition is performed.

図16及び図17は、画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例10及び具体例11を示す模式図である。これらの具体例では、時刻t0において、画像a、画像b、画像cの3つの画像が合成された画面の映像信号が出力される。また、時刻t1において画像aの映像信号の色空間規格が変化する。これらの場合において、ホストCPU60は、色空間情報を面積やサイズ(画角)が最も大きい画像の色空間規格に合わせる。合成画面における各画像の大きさは、ビデオ・グラフィック・プロセッサ54のスケーラ545からの情報を取得することにより、検知することができる。   FIGS. 16 and 17 are schematic diagrams illustrating specific examples 10 and 11 of the screen image, the output video signal, and the color space information when performing screen composition. In these specific examples, at time t0, a video signal of a screen in which three images a, b, and c are combined is output. Further, the color space standard of the video signal of the image a changes at time t1. In these cases, the host CPU 60 matches the color space information with the color space standard of the image having the largest area and size (view angle). The size of each image on the composite screen can be detected by acquiring information from the scaler 545 of the video graphic processor 54.

図16に示す具体例10では、時刻t0の前において、BT.709の画面の映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像b、xvYCCの画像cの3つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例10において、ホストCPU60は、HDMI Tx55にセットする色域識別フラグを、合成画面を構成する画像の中で最も面積が大きい映像信号のxvYCC709にして出力する。具体的には、ホストCPU60は、時刻t0において、ビデオ・グラフィック・プロセッサ54のスケーラ545で所望の大きさにスケーリングされたxvYCCの画像a及び画像cの方がBT.709の画像bよりも大きいと判断し、xvYCC709をHDMI Tx55にセットする。また、時刻t1において、ビデオ・グラフィック・プロセッサ54のスケーラ545で所望の大きさにスケーリングされたxvYCCの画像cの方がBT.709の画像a及び画像bよりも大きいと判断し、xvYCC709をHDMI Tx55にセットする。   In specific example 10 shown in FIG. 16, before time t0, BT. The video signal of the screen 709 is output. At time t0, the image a, BT. A video signal of a composite screen in which three images of image b of 709 and image c of xvYCC are combined is output, and the color space standard of the video signal of image a is changed from xvYCC to BT. 709 has been switched. In this specific example 10, the host CPU 60 outputs the color gamut identification flag set in the HDMI Tx55 as xvYCC 709 of the video signal having the largest area in the image constituting the composite screen. Specifically, at time t0, the host CPU 60 determines that the xvYCC image a and image c scaled to a desired size by the scaler 545 of the video graphic processor 54 are BT. It is determined that the size is larger than the image b of 709, and xvYCC 709 is set to HDMI Tx55. At time t1, the xvYCC image c scaled to a desired size by the scaler 545 of the video graphic processor 54 is BT. It is determined that the image is larger than the image a and the image b in 709, and the xvYCC 709 is set in the HDMI Tx55.

図17に示す具体例11では、時刻t0の前において、xvYCCの画面の映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像b、BT.709の画像cの3つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。この具体例11において、ホストCPU60は、HDMI Tx55にセットする色域識別フラグを、合成画面を構成する画像の中で最も面積が大きい映像信号のBT.709にして出力する。具体的には、ホストCPU60は、時刻t0において、ビデオ・グラフィック・プロセッサ54のスケーラ545で所望の大きさにスケーリングされたBT.709の画像b及び画像cの方がxvYCCの画像aよりも大きいと判断し、BT.709をHDMI Tx55にセットする。また、時刻t1において、すべてBT.709の画像となるため、BT.709をHDMI Tx55にセットする。   In Specific Example 11 shown in FIG. 17, the video signal of the xvYCC screen is output before time t0. At time t0, the image a, BT. 709 image b, BT. 709. The video signal of the composite screen in which three images c of image 709 are combined is output, and the color space standard of the video signal of image a is changed from xvYCC to BT. 709 has been switched. In this specific example 11, the host CPU 60 sets the color gamut identification flag to be set in the HDMI Tx 55 to the BT. Of the video signal having the largest area in the image constituting the composite screen. 709 is output. Specifically, the host CPU 60 determines that the BT. Scaled to a desired size by the scaler 545 of the video graphic processor 54 at time t0. 709 is determined to be larger than the image a of xvYCC. 709 is set to HDMI Tx55. At time t1, all BT. 709. Therefore, BT. 709 is set to HDMI Tx55.

このように合成画面のサイズや表示面積が一番大きい映像の色空間情報に従うことにより、画面合成を行う際、色が表示上変化する箇所が少なくなるため、表示上の見苦しさを防ぐことができる。   By following the color space information of the video with the largest size and display area of the composite screen in this way, when screen composition is performed, the number of places where the color changes on the display is reduced, thereby preventing unsightly display. it can.

図18及図19は、画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例12及び具体例13を示す模式図である。これらの具体例では、時刻t0において、サイズが同じ画像a、画像bの2つの画像が合成された画面の映像信号が出力される。また、時刻t1において画像aの映像信号の色空間規格が変化する。これらの場合において、ホストCPU60は、サイズが同じ場合は、色空間情報を前時刻のものにして出力する。   FIGS. 18 and 19 are schematic diagrams showing specific examples 12 and 13 of screen images, output video signals, and color space information when performing screen composition. In these specific examples, at time t0, a video signal of a screen in which two images of the same size image a and image b are combined is output. Further, the color space standard of the video signal of the image a changes at time t1. In these cases, if the sizes are the same, the host CPU 60 outputs the color space information having the previous time.

図18に示す具体例12では、時刻t0の前において、xvYCCの画面の映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像bの2つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。ホストCPU60は、時刻t0において、ビデオ・グラフィック・プロセッサ54のスケーラ545で所望の大きさにスケーリングされたxvYCCの画像aとBT.709の画像bとの大きさが等しいと判断し、時刻t0よりも前時刻の色空間情報のxvYCC709をHDMI Tx55にセットする。また、時刻t1において、すべてBT.709の画像となるため、BT.709の識別フラグをHDMI Tx55にセットする。   In Concrete Example 12 shown in FIG. 18, the video signal of the xvYCC screen is output before time t0. At time t0, the image a, BT. 709, the video signal of the composite screen in which the two images b are combined, and the color space standard of the video signal of the image a is changed from xvYCC to BT. 709 has been switched. At time t 0, the host CPU 60 sends the xvYCC image a and the BT.s scaled to a desired size by the scaler 545 of the video graphic processor 54. 709 is determined to be equal in size to the image b, and xvYCC 709 of the color space information before the time t0 is set in the HDMI Tx55. At time t1, all BT. 709. Therefore, BT. The identification flag 709 is set in HDMI Tx55.

図19に示す具体例13では、時刻t0の前において、xvYCCの画像a、BT.709の画像bの2つの画像が合成された映像信号を出力している。そして、時刻t0においてxvYCCの画像a、BT.709の画像bの2つの画像の大きさが等しくなり、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。ホストCPU60は、時刻t0において、ビデオ・グラフィック・プロセッサ54のスケーラ545で所望の大きさにスケーリングされたxvYCCの画像aとBT.709の画像bとの大きさが等しいと判断し、時刻t0よりも前時刻の色空間情報のxvYCC709をHDMI Tx55にセットする。また、時刻t1において、すべてBT.709の画像となるため、BT.709の識別フラグをHDMI Tx55にセットする。   In the specific example 13 illustrated in FIG. 19, the xaYCC image a, BT. A video signal obtained by synthesizing two images 709 of image b is output. At time t0, the image a, BT. The size of the two images of the image b of 709 becomes equal, and the color space standard of the video signal of the image a is changed from xvYCC to BT. 709 has been switched. At time t 0, the host CPU 60 sends the xvYCC image a and the BT.s scaled to a desired size by the scaler 545 of the video graphic processor 54. 709 is determined to be equal in size to the image b, and xvYCC 709 of the color space information before the time t0 is set in the HDMI Tx55. At time t1, all BT. 709. Therefore, BT. The identification flag 709 is set in HDMI Tx55.

このように合成画面のサイズや表示面積が等しい場合、直前の色空間情報を保持することにより、画面合成を行う際、色が表示上変化する頻度が少なくなるため、表示上の見苦しさを防ぐことができる。   In this way, when the size and display area of the composite screen are the same, by retaining the previous color space information, when the screen is composited, the frequency with which the color changes on the display is reduced, thereby preventing unsightly display. be able to.

図20及図21は、画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例14及び具体例15を示す模式図である。これらの具体例では、時刻t0、t1において、合成された画像a、画像bの大きさが逆転している。これらの場合において、ホストCPU60は、時刻t0から時刻t1までの期間に応じて色空間情報を切り換えるか否かを判断する。具体的には、ホストCPU60は、プログラムによって合成される画像サイズの切り換え制御を行う場合など、時刻t0から時刻t1までの切り換え期間を予め検出できる場合は、検出された期間と閾値とを比較し、色空間情報を切り換えるか否かを判断する。   20 and 21 are schematic diagrams showing specific examples 14 and 15 of the screen image, the output video signal, and the color space information when screen composition is performed. In these specific examples, the sizes of the combined image a and image b are reversed at times t0 and t1. In these cases, the host CPU 60 determines whether or not to switch the color space information according to the period from time t0 to time t1. Specifically, when the switching period from time t0 to time t1 can be detected in advance, such as when controlling the switching of the image size synthesized by the program, the host CPU 60 compares the detected period with a threshold value. Then, it is determined whether to switch the color space information.

切り換え期間の検出方法として、ハードディスクドライブ44等にデータベースとして保持され、タイトルを構成する画像データの色空間属性がメタ情報として記録された情報を用いることができる。具体的には、現在の再生時刻の情報と、タイトルのメタ情報とから次回の色空間規格の切り換わりの発生までの所要時間、すなわち時刻t0から時刻t1までの期間を導出することができる。また、タイトルのメタ情報から、映像信号の色空間属性が頻繁に切り換わる区間を予め検出しておき、頻繁に切り換わる区間は色空間属性の切り換えを行わないようにしてもよい。   As a method for detecting the switching period, information stored as a database in the hard disk drive 44 or the like and having color space attributes of image data constituting a title recorded as meta information can be used. Specifically, it is possible to derive the time required from the current reproduction time information and the title meta information to the next occurrence of switching of the color space standard, that is, the period from time t0 to time t1. Further, a section where the color space attribute of the video signal is frequently switched may be detected in advance from the meta information of the title, and the color space attribute may not be switched in the section where the frequency is frequently switched.

図20に示す具体例14では、時刻t0の前において、xvYCCの画像a、BT.709の画像bの2つの画像が合成された映像信号を出力している。そして、時刻t0においてxvYCCの画像aがBT.709の画像bよりも小さくなり、時刻t1においてxvYCCの画像aがBT.709の画像bよりも大きくなっている。ここでは、ホストCPU60は、検出された期間と閾値とを比較し、検出された期間が閾値よりも大きいと判断している。そして、時刻t0において、ビデオ・グラフィック・プロセッサ54のスケーラ545で所望の大きさにスケーリングされたxvYCCの画像aとBT.709の画像bとの大きさ比較し、サイズ(面積)が大きい画像bの色空間情報BT.709をHDMI Tx55にセットする。また、時刻t1において、ビデオ・グラフィック・プロセッサ54のスケーラ545で所望の大きさにスケーリングされたxvYCCの画像aとBT.709の画像bとの大きさ比較し、サイズ(面積)が大きい画像bの色空間情報xvYCC709をHDMI Tx55にセットする。   In the specific example 14 illustrated in FIG. 20, the xaYCC image a, BT. A video signal obtained by synthesizing two images 709 of image b is output. At time t0, the image a of xvYCC is BT. 709 and the image a of xvYCC becomes BT. It is larger than the image b of 709. Here, the host CPU 60 compares the detected period with a threshold value, and determines that the detected period is greater than the threshold value. At time t0, the image a and BT.xvYCC scaled to a desired size by the scaler 545 of the video graphic processor 54. Compared with the image b of the image 709, the color space information BT. 709 is set to HDMI Tx55. At time t1, the xvYCC image a and the BT.scale scaled to a desired size by the scaler 545 of the video graphic processor 54 are used. The color space information xvYCC 709 of the image b having a large size (area) is set in the HDMI Tx 55 by comparing the size with the image 709 of the 709.

図21に示す具体例15では、時刻t0の前においてxvYCCの画像a、BT.709の画像bの2つの画像が合成された映像信号を出力している。そして、時刻t0においてxvYCCの画像aがBT.709の画像bよりも小さくなり、時刻t1においてxvYCCの画像aがBT.709の画像bよりも大きくなっている。ここでは、ホストCPU60は、検出された期間と閾値とを比較し、検出された期間が閾値よりも小さいと判断している。そして、時刻t0において、時刻t0より前の色空間情報の状態を保持し、xvYCC709をHDMI Tx55にセットする。また、時刻t1において、ビデオ・グラフィック・プロセッサ54のスケーラ545で所望の大きさにスケーリングされたxvYCCの画像aとBT.709の画像bとの大きさ比較し、サイズ(面積)が大きい画像aの色空間情報xvYCC709をHDMI Tx55にセットする。   In the specific example 15 illustrated in FIG. 21, the xaYCC image a, BT. A video signal obtained by synthesizing two images 709 of image b is output. At time t0, the image a of xvYCC is BT. 709 and the image a of xvYCC becomes BT. It is larger than the image b of 709. Here, the host CPU 60 compares the detected period with a threshold value, and determines that the detected period is smaller than the threshold value. At time t0, the state of the color space information before time t0 is held, and xvYCC 709 is set in HDMI Tx55. At time t1, the xvYCC image a and the BT.scale scaled to a desired size by the scaler 545 of the video graphic processor 54 are used. The color space information xvYCC 709 of the image a having a large size (area) is set in the HDMI Tx55.

このように合成画面のサイズや表示面積が短期間に変化する場合、直前の色空間情報を保持することにより、色が表示上変化する頻度が少なくなるため、表示上の見苦しさを防ぐことができる。   In this way, when the size or display area of the composite screen changes in a short period of time, retaining the previous color space information reduces the frequency with which the color changes on display, thereby preventing unsightly display. it can.

また、予め時刻t0から時刻t1までの期間を検出しなくても、色空間の切り換わりが発生してからの時間をカウントし、次の色空間の切り換わりの際に、カウントした所定期間が閾値よりも大きいか否かで色空間情報を切り換えるか否かを制御してもよい。   Further, even if the period from time t0 to time t1 is not detected in advance, the time after the color space switching occurs is counted, and when the next color space switching occurs, the counted predetermined period is Whether or not to switch color space information may be controlled based on whether or not the threshold value is greater than the threshold value.

図22は、画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例16を示す模式図である。この具体例では、時刻t0において、画像a、画像b、画像cの3つの画像が合成された合成画面の映像信号を出力し、時刻t1において画像aの映像信号の色空間規格がxvYCCからBT.709に切り換わっている。また、時刻t0において画像aの音声信号が出力され、時刻t1において画像bの音声信号が出力されている。この場合において、ホストCPU60は、音声信号が出力されている画像の色空間情報を出力する。具体的には、ホストCPU60は、ビデオ・グラフィック・プロセッサ54にて合成される複数の映像信号のうち主画像の映像信号を選択し、その映像信号の音声信号をHDMI Tx55にセットする。また、主画像は、ユーザが選択可能とすることが好ましい。   FIG. 22 is a schematic diagram showing a specific example 16 of the screen image, the output video signal, and the color space information when screen composition is performed. In this specific example, at time t0, a video signal of a composite screen in which three images of image a, image b, and image c are combined is output, and at time t1, the color space standard of the video signal of image a is changed from xvYCC to BT. . 709 has been switched. Further, the audio signal of the image a is output at time t0, and the audio signal of the image b is output at time t1. In this case, the host CPU 60 outputs the color space information of the image from which the audio signal is output. Specifically, the host CPU 60 selects a video signal of the main image from among a plurality of video signals synthesized by the video graphic processor 54 and sets the audio signal of the video signal in the HDMI Tx 55. The main image is preferably selectable by the user.

このように音声が出力される画面を主画面とし、主画面の映像の色空間情報に従うことにより、ユーザが注視する画像の色をより鮮やかに再現することができる。   In this way, by using the screen on which the sound is output as the main screen and following the color space information of the video on the main screen, the color of the image that the user is gazing at can be reproduced more vividly.

次に、図23〜図25を参照して記録再生装置1の他の構成例について説明する。図23は、合成処理部の他の構成を示すブロック図である。なお、図5に示す合成処理部542と同じ構成には、同じ符号を付し、ここでは説明を省略する。この合成処理部70では、図5に示す合成処理部542の機能にさらにsRGBの色域を擬似的にxvYCCの色域にエキスパンド(色域伸長処理)することが可能となっている。また、複数画像のブレンド比率も変更することが可能となっている。   Next, another configuration example of the recording / reproducing apparatus 1 will be described with reference to FIGS. FIG. 23 is a block diagram illustrating another configuration of the synthesis processing unit. Note that the same components as those of the synthesis processing unit 542 illustrated in FIG. 5 are denoted by the same reference numerals, and description thereof is omitted here. In the composition processing unit 70, in addition to the function of the composition processing unit 542 shown in FIG. 5, the sRGB color gamut can be expanded to the xvYCC color gamut in a pseudo manner (color gamut expansion processing). In addition, the blend ratio of a plurality of images can be changed.

この合成処理部70は、スケーラ545と、色域伸長処理するカラーエキスパンダ71と、ブレンダ546と、ビデオエンコーダ547とを備えている。   The composition processing unit 70 includes a scaler 545, a color expander 71 that performs color gamut expansion processing, a blender 546, and a video encoder 547.

図24は、ブレンダ546の構成例を示すブロック図である。このブレンダ546は、3つのブレンダ546a、546b、546cから構成され、各々、同じ機能を有している。この構成例では、4つの入力映像信号の任意のブレンド合成が可能である。   FIG. 24 is a block diagram illustrating a configuration example of the blender 546. The blender 546 includes three blenders 546a, 546b, and 546c, each having the same function. In this configuration example, any blend synthesis of four input video signals is possible.

また、図25は、ブレンダ546a、546b、546cの各構成を示すブロック図である。各ブレンダ546a、546b、546cは、2系統の入力信号IN1,IN2をブレンド比率αで合成を行う。すなわち、2つの画像を係数(α値)により合成する。セレクタ81は、ブレンド比率αを選択する。セレクタ81には、入力信号IN1、入力信号IN2とともに、画素毎にα1、α2が入力される。また、ホストCPU60から画面単位のブレンド比率αHostとともに、α値を選択する制御信号αSelectが入力され、該αSelectにより、所望のα値が選択される。2系統の入力信号IN1,IN2は、差分器82で差分が計算され、セレクタ83で選択されたブレンド比率αが乗算器83にて乗算される。ブレンド比率αが乗算された差分は、加算器84にて入力信号IN1と加算され、出力される。すなわち、出力信号OUTは、次式で計算することができる。   FIG. 25 is a block diagram showing each configuration of the blenders 546a, 546b, and 546c. Each blender 546a, 546b, 546c synthesizes two systems of input signals IN1, IN2 with a blend ratio α. That is, the two images are synthesized with a coefficient (α value). The selector 81 selects the blend ratio α. The selector 81 receives α1 and α2 for each pixel together with the input signal IN1 and the input signal IN2. A control signal αSelect for selecting an α value is input from the host CPU 60 together with a blend ratio αHost in increments of screens, and a desired α value is selected by the αSelect. The difference between the two systems of input signals IN 1 and IN 2 is calculated by the difference unit 82, and the blend ratio α selected by the selector 83 is multiplied by the multiplier 83. The difference multiplied by the blend ratio α is added to the input signal IN1 by the adder 84 and output. That is, the output signal OUT can be calculated by the following equation.

Figure 2009038682
Figure 2009038682

図23に戻って、スケーラ545で所望のサイズへのスケーリングされた画像データは、カラーエキスパンダ71に送られる。カラーエキスパンダ71では、後述するように、例えばsRGBの色域を擬似的にxvYCCの色域にエキスパンド(色域伸長処理)することができる。カラーエキスパンダ71から出力された画像データは、ブレンダ546に入力され、複数の画像がブレンド比率αで合成される。ビデオエンコーダ547は、所望の出力仕様になるようにタイミング生成、同期信号の付加などを行う。   Returning to FIG. 23, the image data scaled to a desired size by the scaler 545 is sent to the color expander 71. In the color expander 71, as described later, for example, the sRGB color gamut can be expanded into the xvYCC color gamut (color gamut expansion processing). The image data output from the color expander 71 is input to the blender 546, and a plurality of images are synthesized with the blend ratio α. The video encoder 547 generates timing, adds a synchronization signal, and the like so as to obtain a desired output specification.

次に、カラーエキスパンダ71にて、擬似的にxvYCCの色域にエキスパンドする方法について説明する。BT.601やBT.709ではクロマ(Cr,Cb)信号のレベルは、16−240の値で規定されている。xvYCCでは、更に色域を拡張するために、1−254の値の信号レベルを扱うことができる。これを擬似xvYCC信号に変換する場合、36−220までの信号はそのまま通過させ、16−36の信号と221−240までの信号はそれぞれ線形処理にてレベル変換(レベル伸張)を行い、16−36の信号を1−36の信号に、221−240の信号を221−254の信号に変換する。この結果、源信号の比較的飽和度の高い色信号が更に伸張され、擬似xvYCC信号が生成される。Cbについても同様に伸張を行うことができる。なお、RGB信号にて同様の色域伸張を行っても構わない。また、レベルの閾値を変えても構わないし、レベル変換を非線形処理することでも同様の効果を得ることができる。   Next, a description will be given of a method of performing a pseudo expansion to the xvYCC color gamut by the color expander 71. BT. 601 and BT. In 709, the level of the chroma (Cr, Cb) signal is defined by a value of 16-240. In xvYCC, in order to further expand the color gamut, a signal level of a value of 1-254 can be handled. When this is converted into a pseudo xvYCC signal, the signals up to 36-220 are passed as they are, and the signals of 16-36 and 221-240 are respectively subjected to level conversion (level expansion) by linear processing. The 36 signal is converted into a 1-36 signal and the 221-240 signal is converted into a 221-254 signal. As a result, the color signal having a relatively high saturation of the source signal is further expanded to generate a pseudo xvYCC signal. Similarly, Cb can be expanded. Note that the same color gamut expansion may be performed with RGB signals. Further, the level threshold value may be changed, and the same effect can be obtained by non-linear processing of level conversion.

また、xvYCCの色域にエキスパンドする他の方法を、以下に説明する。IDW(International Display Workshops)2006学会における「Recent Trend of Wide Gamut Standards for Color Imaging」(T.Matsumotoらによる)の文献中でも記載されているように、R’,G’,B’からY’709,Cb’709,Cr’709への変換式は、式(1)で表される。また、式(1)より、式(2)が得られる。   Further, another method for expanding to the xvYCC color gamut will be described below. As described in the document “Recent Trend of Wide Gamut Standards for Color Imaging” (by T. Matsumoto et al.) At the 2006 International Display Workshops (IDW) meeting, Y′709, R ′, G ′, B ′ A conversion formula to Cb′709 and Cr′709 is expressed by Formula (1). Moreover, Formula (2) is obtained from Formula (1).

Figure 2009038682
Figure 2009038682

BT.709の色域では、式(3)の条件を満たす必要がある。例えば、Cb=Crという条件を更に付加した場合(Cb=Cr=Cと置く)、式(2)、式(3)より、式(4)の条件式が得られる。   BT. In the color gamut 709, the condition of the expression (3) needs to be satisfied. For example, when the condition of Cb = Cr is further added (assuming that Cb = Cr = C), the conditional expression of Expression (4) is obtained from Expression (2) and Expression (3).

Figure 2009038682
Figure 2009038682

図26は、上記条件におけるBT.709の色域をY−Cb,Cb空間上に示す模式図である。この菱形のBT.709の色域領域の境界付近の信号を、境界の外の領域までエキスパンド(色域伸長処理)する。なお、上記条件に限らず、BT.709の色域の境界付近の信号に対してエキスパンド(色域伸長処理)してもよい。   FIG. 26 shows BT. FIG. 6 is a schematic diagram showing a color gamut of 709 on the Y-Cb, Cb space. This diamond-shaped BT. The signal near the boundary of the color gamut area 709 is expanded to the area outside the boundary (color gamut expansion processing). Note that the BT. The signal near the boundary of the color gamut 709 may be expanded (color gamut expansion processing).

このようにBT.709等の色域をxvYCC等の広色域に変換することにより、HDMIで伝送する色空間情報を、常にxvYCC709固定で出力することができる。また、色空間情報が切り換わらないので、色が表示上変化するのを防ぐことができる。   In this way, BT. By converting a color gamut such as 709 to a wide color gamut such as xvYCC, color space information transmitted by HDMI can always be output with xvYCC 709 fixed. Further, since the color space information is not switched, it is possible to prevent the color from being changed on display.

また、上術とは逆に、広色域の信号が入力された場合でも、BT.709、sRGBの狭い色空間情報に圧縮し、常にBT.709等の色空間情報に固定で出力してもよい。   Contrary to the above operation, even when a wide color gamut signal is input, BT. 709, compressed to narrow color space information of sRGB, always BT. The color space information such as 709 may be fixedly output.

図27は、色空間情報を圧縮する場合の合成処理部の構成例を示すブロック図である。なお、図5に示す合成処理部542と同じ構成には、同じ符号を付し、ここでは説明を省略する。この合成処理部90では、図5に示す合成処理部542の機能にさらにxvYCCの色域をBT.709の色域に圧縮処理することが可能となっている。また、複数画像のブレンド比率も変更することが可能となっている。   FIG. 27 is a block diagram illustrating a configuration example of a composition processing unit when color space information is compressed. Note that the same components as those of the synthesis processing unit 542 illustrated in FIG. 5 are denoted by the same reference numerals, and description thereof is omitted here. In the composition processing unit 90, in addition to the function of the composition processing unit 542 shown in FIG. It is possible to perform compression processing in the 709 color gamut. In addition, the blend ratio of a plurality of images can be changed.

カラーコンプレッサ91は、BT.709の色域の信号を、そのまま出力し、xvYCCの色域の信号を、BT.709に圧縮して出力する。   The color compressor 91 is BT. 709 color gamut signal is output as it is, and xvYCC color gamut signal is output as BT. Compressed to 709 and output.

これにより、色空間情報が常にBT.709固定で出力され、色空間情報が切り換わらないので、色が表示上変化するのを防ぐことができる。   As a result, the color space information is always BT. Since the output is fixed at 709 and the color space information is not switched, it is possible to prevent the color from changing on the display.

図28及図29は、画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例17及び具体例18を示す模式図である。これらの具体例では、ブレンド比率αによってGUI表画像が裏画像と合成されている。そして、時刻t0、t1において、裏画像の色空間規格が切り換えられている。これらの場合において、ホストCPU60はブレンダ546a、546b、546cからブレンド比率αを取得し、ブレンド比率αに応じて色空間情報を切り換えるか否かを判断する。具体的には、ブレンドする表画面(GUI)のα値が50%以上の場合、表画面(GUI)の色空間情報を出力する。   28 and 29 are schematic diagrams showing specific examples 17 and 18 of screen images, output video signals, and color space information when performing screen composition. In these specific examples, the GUI front image is combined with the back image by the blend ratio α. At time t0 and t1, the color space standard of the back image is switched. In these cases, the host CPU 60 acquires the blend ratio α from the blenders 546a, 546b, and 546c, and determines whether or not to switch the color space information according to the blend ratio α. Specifically, when the α value of the front screen (GUI) to be blended is 50% or more, the color space information of the front screen (GUI) is output.

図28に示す具体例17では、xvYCCのGUI表画像が裏画像にα値が50%以上でブレンディングされている。そして、時刻t0において、BT.709の裏画像がxvYCCの裏画像に切り換わり、時刻t1において、xvYCCの裏画像がBT.709の裏画像に切り換わる。ホストCPU60は、ブレンド比率αが50%以上であることを検知し、表画像の色空間情報xvYCC709をHDMI Tx55にセットする。   In Specific Example 17 shown in FIG. 28, the xvYCC GUI front image is blended with the back image with an α value of 50% or more. At time t0, BT. The back image of 709 is switched to the back image of xvYCC, and at time t1, the back image of xvYCC is BT. The back image of 709 is switched. The host CPU 60 detects that the blend ratio α is 50% or more, and sets the color space information xvYCC 709 of the front image in the HDMI Tx55.

図29に示す具体例18では、BT.709のGUI表画像が裏画像にα値が50%以上でブレンディングされている。そして、時刻t0において、BT.709の裏画像がxvYCCの裏画像に切り換わり、時刻t1において、xvYCCの裏画像がBT.709の裏画像に切り換わる。ホストCPU60は、ブレンド比率αが50%以上であることを検知し、表画像の色空間情報BT.709をHDMI Tx55にセットする。   In the specific example 18 shown in FIG. A GUI front image 709 is blended with a back image with an α value of 50% or more. At time t0, BT. The back image of 709 is switched to the back image of xvYCC, and at time t1, the back image of xvYCC is BT. The back image of 709 is switched. The host CPU 60 detects that the blend ratio α is 50% or more and detects the color space information BT. 709 is set to HDMI Tx55.

このようにブレンド比率αが50%以上の場合、表画像の色空間情報を伝送することにより、表画像の色が表示上変化する頻度が少なくなるため、表示上の見苦しさを防ぐことができる。   As described above, when the blend ratio α is 50% or more, by transmitting the color space information of the front image, the frequency of the front image color changing on the display is reduced, so that it is possible to prevent unsightly display. .

図30〜図32は、画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例19〜具体例21を示す模式図である。これらの具体例では、時刻t1において、GUI表画像が裏画像と合成されている。これらの場合において、ホストCPU60は、画面合成を行う直前の色空間情報の状態を保持する。   30 to 32 are schematic diagrams illustrating specific examples 19 to 21 of the screen image, the output video signal, and the color space information when performing screen composition. In these specific examples, the GUI front image is combined with the back image at time t1. In these cases, the host CPU 60 holds the state of the color space information immediately before screen composition.

図30に示す具体例19では、時刻t0よりも前の時刻において、xvYCCの色空間規格の映像信号が出力されている。時刻t0において、xvYCCのGUI表画像がxvYCCの裏画像にブレンディングされる。そして、時刻t1において、xvYCCの裏画像がBT.709の裏画像に切り換わる。この場合、ホストCPU60は、時刻t0において、直前の画像の色空間情報を保持し、xvYCC709をHDMI Tx55にセットする。また、時刻t1において、直前の色空間情報を保持し、xvYCC709をHDMI Tx55にセットする。   In the specific example 19 shown in FIG. 30, the video signal of the xvYCC color space standard is output at a time before the time t0. At time t0, the GUI front image of xvYCC is blended with the back image of xvYCC. At time t1, the back image of xvYCC is BT. The back image of 709 is switched. In this case, the host CPU 60 holds the color space information of the immediately preceding image at time t0, and sets xvYCC 709 to HDMI Tx55. At time t1, the previous color space information is held, and xvYCC 709 is set in HDMI Tx55.

図31に示す具体例20では、時刻t0よりも前の時刻において、BT.709の色空間規格の映像信号が出力されている。時刻t0において、xvYCCのGUI表画像がxvYCCの裏画像にブレンディングされる。そして、時刻t1において、xvYCCの裏画像がBT.709の裏画像に切り換わる。この場合、ホストCPU60は、時刻t0において、直前の画像の色空間情報を保持し、BT.709をHDMI Tx55にセットする。また、時刻t1において、直前の色空間情報を保持し、BT.709をHDMI Tx55にセットする。   In the specific example 20 shown in FIG. 31, at the time before the time t0, the BT. A video signal of 709 color space standard is output. At time t0, the GUI front image of xvYCC is blended with the back image of xvYCC. At time t1, the back image of xvYCC is BT. The back image of 709 is switched. In this case, the host CPU 60 holds the color space information of the immediately preceding image at time t0, and the BT. 709 is set to HDMI Tx55. At time t1, the previous color space information is held, and BT. 709 is set to HDMI Tx55.

図32に示す具体例21では、時刻t0よりも前の時刻において、BT.709の色空間規格の映像信号が出力されている。時刻t0において、xvYCCのGUI表画像がBT.709の裏画像にブレンディングされる。そして、時刻t1において、xvYCCの画像の映像信号に切り換わる。この場合、ホストCPU60は、時刻t0において、直前の画像の色空間情報を保持し、BT.709をHDMI Tx55にセットする。また、時刻t1においては、合成画像ではないので、画像の色空間であるxvYCC709をHDMI Tx55にセットする。   In the specific example 21 shown in FIG. 32, at the time before the time t0, the BT. A video signal of 709 color space standard is output. At time t0, the GUI table image of xvYCC is BT. The back image of 709 is blended. At time t1, the video signal is switched to an xvYCC image. In this case, the host CPU 60 holds the color space information of the immediately preceding image at time t0, and the BT. 709 is set to HDMI Tx55. At time t1, since it is not a composite image, xvYCC 709, which is the color space of the image, is set in HDMI Tx55.

このようにブレンディングにより画面合成を行う場合、画面合成を行う直前の色空間情報の状態を保持することにより、色が表示上変化するのを防ぐことができる。   When screen composition is performed by blending in this way, it is possible to prevent the color from being changed on display by maintaining the state of the color space information immediately before performing screen composition.

以上、詳細に説明したように、画面を合成する際に、HDMIで伝送する色空間情報を固定することにより、該色空間情報に従って色域伸長処理を切り換える受像機側でグラフィックスや合成画像の色が表示上変化する問題を回避できる。   As described above in detail, when the screen is synthesized, the color space information to be transmitted by HDMI is fixed, so that the receiver or the like that switches the color gamut expansion processing according to the color space information can be used for graphics and composite images. The problem that the color changes on display can be avoided.

また、画面を合成する前の色空間情報を保持し、画面合成後も該色空間情報を伝送することにより、該色空間情報に従って色域伸長処理を切り換える受像機側でグラフィックスや合成画像の色が表示上変化する問題を回避できる。   In addition, by retaining the color space information before the screen is synthesized and transmitting the color space information after the screen is synthesized, the receiver or the like that switches the color gamut expansion processing according to the color space information can be used. The problem that the color changes on display can be avoided.

また、合成画面のサイズや面積に従ってHDMIで伝送する色空間情報を決定することにより、該色空間情報に従って色域伸長処理を切り換える受像機側でグラフィックスや合成画像の色が表示上変化した際にも、視覚的にその変化を目立ちにくくすることができる。   In addition, when the color space information to be transmitted by HDMI is determined according to the size and area of the composite screen, the color of graphics or the composite image changes on the display side on the receiver side that switches the color gamut expansion processing according to the color space information. Moreover, the change can be made inconspicuous visually.

また、合成画面のサイズや面積に従ってHDMIで伝送する色空間情報を決定する際、サイズや面積が同じ場合、前の色空間情報を保持して伝送することにより、該色空間情報に従って色域伸長処理を切り換える受像機側でグラフィックスや合成画像の色が表示上変化した際にも、視覚的にその変化を目立ちにくくすることができる。   Also, when determining the color space information to be transmitted by HDMI according to the size and area of the composite screen, if the size and area are the same, the color space expansion is performed according to the color space information by holding and transmitting the previous color space information. Even when the color of graphics or composite image changes on the display side at the receiver side where the processing is switched, the change can be made visually inconspicuous.

また、アルファ・ブレンドによって全画面の画面合成を行う際、画面内のアルファ値の最小値が50%以上の表画面(GUI)の色空間情報を伝送することにより、該色空間情報に従って色域伸長処理を切り換える受像機側でグラフィックスや合成画像の色が表示上変化する問題を回避できる。   In addition, when performing screen composition of the entire screen by alpha blending, color space information according to the color space information is transmitted by transmitting color space information of the front screen (GUI) having a minimum alpha value of 50% or more in the screen. It is possible to avoid the problem that the color of graphics or composite image changes on display at the receiver side where the expansion process is switched.

また、合成画面のサイズや面積に従ってHDMIで伝送する色空間情報を決定する際、切り換え間隔が所定の時間以下の場合、前の色空間情報を保持して伝送することにより、該色空間情報に従って色域伸長処理を切り換える受像機側でグラフィックスや合成画像の色が表示上変化した際にも、視覚的にその変化を目立ちにくくすることができる。   Further, when determining color space information to be transmitted by HDMI according to the size and area of the composite screen, if the switching interval is equal to or less than a predetermined time, the previous color space information is retained and transmitted, and the color space information is transmitted. Even when the color of graphics or composite image changes on the display side on the receiver side where the color gamut expansion processing is switched, the change can be made visually inconspicuous.

また、画面を合成する際、通常色域の信号に対して色域伸長処理を施し擬似広色域信号を生成して合成し、HDMIで伝送する色空間情報を広色域に固定にすることにより、該色空間情報に従って色域伸長処理を切り換える受像機側でグラフィックスや合成画像の色が表示上変化する問題を回避できる。   Also, when synthesizing a screen, color gamut expansion processing is performed on the normal gamut signal to generate and synthesize a pseudo wide gamut signal, and the color space information transmitted by HDMI is fixed to the wide gamut. Thus, it is possible to avoid the problem that the color of graphics or the synthesized image changes on the display side on the receiver side where the color gamut expansion processing is switched according to the color space information.

また、画面を合成する際、広色域の信号に対して色域圧縮処理を施し、通常色域信号を生成して合成し、HDMIで伝送する色空間情報を通常色域に固定にすることにより、該色空間情報に従って色域伸長処理を切り換える受像機側でグラフィックスや合成画像の色が表示上変化する問題を回避できる。   Also, when synthesizing a screen, color gamut compression processing is performed on a wide color gamut signal, a normal color gamut signal is generated and synthesized, and color space information transmitted by HDMI is fixed to the normal color gamut. Thus, it is possible to avoid the problem that the color of graphics or the synthesized image changes on the display side on the receiver side where the color gamut expansion processing is switched according to the color space information.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。例えば、上記実施の形態では、HDMIを用いた伝送例に挙げて説明したが、これに限られるものではない。色域識別フラグ、メタデータなどの属性データを伝送することはできないが、例えば、コンポーネント端子58、コンポジットビデオ端子(あるいは、S端子)59から、広色域のアナログコンポーネント信号、アナログコンポジットビデオ信号(あるいは、Y/Cセパレートビデオ信号)を出力し、ホストCPU60が、例えば、TCP/IP(Transmission Control Protocol / Internet Protocol)等により受像機2のホストCPU23と通信するようにすればよい。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. For example, in the above embodiment, the transmission example using HDMI has been described, but the present invention is not limited to this. Although attribute data such as a color gamut identification flag and metadata cannot be transmitted, for example, from a component terminal 58 and a composite video terminal (or S terminal) 59, a wide color gamut analog component signal and analog composite video signal ( Alternatively, the Y / C separate video signal may be output, and the host CPU 60 may communicate with the host CPU 23 of the receiver 2 using, for example, TCP / IP (Transmission Control Protocol / Internet Protocol).

本発明の一実施の形態に係る再生システムを示す図である。It is a figure which shows the reproduction | regeneration system which concerns on one embodiment of this invention. xvYCCの色域を平面に投射した場合の模式図である。It is a schematic diagram at the time of projecting the color gamut of xvYCC on a plane. ビデオ・グラフィック・プロセッサの構成を示すブロック図である。It is a block diagram which shows the structure of a video graphic processor. 記録再生装置の構成を具体的に示すブロック図である。It is a block diagram which shows the structure of a recording / reproducing apparatus concretely. 画像を合成する際のビデオ・グラフィック・プロセッサの機能ブロック図である。It is a functional block diagram of a video graphic processor when combining images. 1つの色空間規格からなる画像を出力する場合の映像信号の色空間規格と属性データの色空間情報との関係を示す模式図である。It is a schematic diagram which shows the relationship between the color space standard of a video signal and the color space information of attribute data in the case of outputting the image which consists of one color space standard. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例1を示す模式図である。It is a schematic diagram which shows the specific example 1 of the screen image in the case of performing a screen synthesis | combination, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例2を示す模式図である。It is a schematic diagram which shows the specific example 2 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例3を示す模式図である。It is a schematic diagram which shows the specific example 3 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例4を示す模式図である。It is a schematic diagram which shows the specific example 4 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例5を示す模式図である。It is a schematic diagram which shows the specific example 5 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例6を示す模式図である。It is a schematic diagram which shows the specific example 6 of the screen image in the case of performing a screen synthesis | combination, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例7を示す模式図である。It is a schematic diagram which shows the specific example 7 of the screen image in the case of performing a screen synthesis | combination, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例8を示す模式図である。It is a schematic diagram which shows the specific example 8 of the screen image in the case of performing a screen synthesis | combination, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例9を示す模式図である。It is a schematic diagram which shows the specific example 9 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例10を示す模式図である。It is a schematic diagram which shows the specific example 10 of the screen image in the case of performing a screen synthesis | combination, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例11を示す模式図である。It is a schematic diagram which shows the specific example 11 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例12を示す模式図である。It is a schematic diagram which shows the specific example 12 of the screen image in the case of performing a screen synthesis | combination, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例13を示す模式図である。It is a schematic diagram which shows the specific example 13 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例14を示す模式図である。It is a schematic diagram which shows the specific example 14 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例15を示す模式図である。It is a schematic diagram which shows the specific example 15 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例16を示す模式図である。It is a schematic diagram which shows the specific example 16 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 合成処理部の他の構成を示すブロック図である。It is a block diagram which shows the other structure of a synthetic | combination process part. ブレンダの構成例を示すブロック図である。It is a block diagram which shows the structural example of a blender. ブレンダの各構成を示すブロック図である。It is a block diagram which shows each structure of a blender. ある条件におけるBT.709の色域をY−Cb,Cb空間上に示す模式図である。BT. FIG. 6 is a schematic diagram showing a color gamut of 709 on the Y-Cb, Cb space. 色空間情報を圧縮する場合の合成処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the synthetic | combination process part in the case of compressing color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例17を示す模式図である。It is a schematic diagram which shows the specific example 17 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例18を示す模式図である。It is a schematic diagram which shows the specific example 18 of the screen image in the case of performing a screen synthesis | combination, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例19を示す模式図である。It is a schematic diagram which shows the specific example 19 of the screen image in the case of performing a screen composition, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例20を示す模式図である。It is a schematic diagram which shows the specific example 20 of the screen image in the case of performing a screen synthesis | combination, an output video signal, and color space information. 画面合成を行う場合の画面イメージ、出力映像信号、及び色空間情報の具体例21を示す模式図である。It is a schematic diagram which shows the specific example 21 of the screen image in the case of performing a screen composition, an output video signal, and color space information.

符号の説明Explanation of symbols

1 記録再生装置、 2 受像機、 3 HDMIケーブル、 11 MPEGデコーダ、 12 ビデオ・グラフィック・プロセッサ、 13 ホストCPU、 14 HDMI Tx、 15 HDMIコネクタ、 21 HDMIコネクタ、 22 HDMI Rx、 23 ホストCPU、 24 EDIDROM、 25 ビデオ・グラフィック・プロセッサ、 26 ディスプレイデバイス、 41 ライン入力端子、 42 アナログチューナ、 43 ディスクドライブ、 44 ハードディスクドライブ、 45 IEEE1394入力端子、 46 デジタルチューナ、 47 セレクタ、 48 ビデオデコーダ、 49 セレクタ、 50 MPRGエンコーダ、 51 HDVプロセッサ、 52 ストリームプロセッサ、 53 MPEGデコーダ、 54 ビデオ・グラフィック・プロセッサ   DESCRIPTION OF SYMBOLS 1 Recording / reproducing apparatus, 2 Receiver, 3 HDMI cable, 11 MPEG decoder, 12 Video graphic processor, 13 Host CPU, 14 HDMI Tx, 15 HDMI connector, 21 HDMI connector, 22 HDMI Rx, 23 Host CPU, 24 EDIDROM 25 video graphics processor 26 display device 41 line input terminal 42 analog tuner 43 disk drive 44 hard disk drive 45 IEEE 1394 input terminal 46 digital tuner 47 selector 48 video decoder 49 selector 50 MPRG Encoder, 51 HDV processor, 52 stream processor, 53 MPEG decoder, 54 Video Graphics Processor

Claims (11)

第1の色空間規格の画像信号と当該第1の色空間規格で規定される色域よりも広い色域の第2の色空間規格の画像信号とを信号処理する画像処理装置であって、
複数の画像信号を合成し、合成画像信号を生成する画像処理手段と、
上記合成画像信号の色空間情報を上記第1の色空間規格又は第2の色空間規格のいずれかに決定する制御手段と、
所定のデジタル映像信号伝送規格にて上記合成画像信号と上記決定された色空間情報とを伝送する伝送手段とを備え、
上記制御手段は、上記画像処理手段にて合成される複数の画像信号の色空間規格、上記合成画像信号に切り換える前に伝送された色空間情報のうち少なくとも1つに応じて上記合成画像信号の色空間情報を決定することを特徴とする画像処理装置。
An image processing apparatus that performs signal processing on an image signal of a first color space standard and an image signal of a second color space standard having a color gamut wider than the color gamut defined by the first color space standard,
Image processing means for combining a plurality of image signals and generating a combined image signal;
Control means for determining color space information of the composite image signal to be either the first color space standard or the second color space standard;
Transmission means for transmitting the composite image signal and the determined color space information according to a predetermined digital video signal transmission standard,
The control means is configured to determine a color space standard of the plurality of image signals synthesized by the image processing means and at least one of the color space information transmitted before switching to the synthesized image signal. An image processing apparatus for determining color space information.
上記制御手段は、上記画像処理手段にて合成された複数の画像信号の色空間規格のうち、最も画面サイズが大きくなるように合成された画像信号の色空間規格に決定することを特徴とする請求項1記載の画像処理装置。   The control means determines the color space standard of the image signal synthesized so as to have the largest screen size among the color space standards of the plurality of image signals synthesized by the image processing means. The image processing apparatus according to claim 1. 上記制御手段は、上記画像処理手段にて合成された複数の画像信号の画面サイズが同じ場合、上記合成画像信号が伝送される前の色空間規格に決定することを特徴とする請求項2記載の画像処理装置。   3. The control unit according to claim 2, wherein when a plurality of image signals synthesized by the image processing unit have the same screen size, the control unit determines a color space standard before the synthesized image signal is transmitted. Image processing apparatus. 上記制御手段は、上記画像処理手段にて合成される2つの画像の合成比率に基づいて上記合成画像信号の色空間規格を決定することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the control unit determines a color space standard of the combined image signal based on a combining ratio of the two images combined by the image processing unit. 上記制御手段は、色空間情報の切り換え間隔が所定時間以下の場合、上記合成画像信号に切り換える前に伝送された色空間情報の色空間規格に決定することを特徴とする請求項1記載の画像処理装置。   2. The image according to claim 1, wherein the control means determines the color space standard of the color space information transmitted before switching to the composite image signal when the switching interval of the color space information is a predetermined time or less. Processing equipment. 上記画像処理手段は、上記第1の色空間規格の画像信号に対して擬似的な第2の色空間規格となるように伸張処理し、
上記制御手段は、上記第2の色空間規格に決定することを特徴とする請求項1記載の画像処理装置。
The image processing means expands the image signal of the first color space standard so as to be a pseudo second color space standard;
The image processing apparatus according to claim 1, wherein the control unit determines the second color space standard.
上記制御手段は、上記画像処理手段にて合成される複数の画像信号の色空間規格が異なる場合、上記合成画像信号に切り換える前に伝送された色空間情報の色空間規格に決定することを特徴とする請求項1記載の画像処理装置。   The control means determines the color space standard of the color space information transmitted before switching to the composite image signal when the color space standards of the plurality of image signals synthesized by the image processing means are different. The image processing apparatus according to claim 1. 上記画像処理手段にて合成された複数の画像信号のうち主画像の画像信号を選択する選択手段を備え、
上記制御手段は、上記主画像の画像信号の色空間規格に決定することを特徴とする請求項1記載の画像処理装置。
Selecting means for selecting an image signal of a main image among a plurality of image signals synthesized by the image processing means;
The image processing apparatus according to claim 1, wherein the control unit determines a color space standard of the image signal of the main image.
上記主画像は、音声が出力される画像であることを特徴とする請求項8記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the main image is an image from which sound is output. 上記画像処理手段は、上記第2の色空間規格の画像信号に対して擬似的な第1の色空間規格となるように圧縮処理し、
上記制御手段は、上記第1の色空間規格に決定することを特徴とする請求項1記載の画像処理装置。
The image processing means compresses the image signal of the second color space standard so as to be a pseudo first color space standard,
The image processing apparatus according to claim 1, wherein the control unit determines the first color space standard.
第1の色空間規格の画像信号と当該第1の色空間規格で規定される色域よりも広い色域の第2の色空間規格の画像信号とを信号処理する画像処理方法であって、
複数の画像信号を合成し、合成画像信号を生成する画像処理工程と、
上記合成画像信号の色空間情報を上記第1の色空間規格又は第2の色空間規格のいずれかに決定する制御工程と、
所定のデジタル映像信号伝送規格にて上記合成画像信号と上記決定された色空間情報とを伝送する伝送工程とを備え、
上記制御工程では、上記画像処理手段にて合成される複数の画像信号の色空間規格、上記合成画像信号に切り換える前に伝送された色空間情報のうち少なくとも1つに応じて上記合成画像信号の色空間情報を決定することを特徴とする画像処理方法。
An image processing method for performing signal processing on an image signal of a first color space standard and an image signal of a second color space standard having a color gamut wider than the color gamut defined by the first color space standard,
An image processing step of combining a plurality of image signals and generating a combined image signal;
A control step of determining the color space information of the composite image signal as either the first color space standard or the second color space standard;
A transmission step of transmitting the composite image signal and the determined color space information according to a predetermined digital video signal transmission standard;
In the control step, a color space standard of a plurality of image signals synthesized by the image processing means, and color space information transmitted before switching to the synthesized image signal, the synthesized image signal An image processing method characterized by determining color space information.
JP2007202379A 2007-08-02 2007-08-02 Image processor, and image processing method Pending JP2009038682A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2007202379A JP2009038682A (en) 2007-08-02 2007-08-02 Image processor, and image processing method
US12/452,902 US8538197B2 (en) 2007-08-02 2008-07-03 Image processing apparatus
PCT/JP2008/062045 WO2009016914A1 (en) 2007-08-02 2008-07-03 Image processor
EP08790838A EP2175660A4 (en) 2007-08-02 2008-07-03 Image processor
KR1020107001293A KR20100036330A (en) 2007-08-02 2008-07-03 Image processor
CN2008801016118A CN101772961B (en) 2007-08-02 2008-07-03 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007202379A JP2009038682A (en) 2007-08-02 2007-08-02 Image processor, and image processing method

Publications (1)

Publication Number Publication Date
JP2009038682A true JP2009038682A (en) 2009-02-19

Family

ID=40440206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007202379A Pending JP2009038682A (en) 2007-08-02 2007-08-02 Image processor, and image processing method

Country Status (1)

Country Link
JP (1) JP2009038682A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010278530A (en) * 2009-05-26 2010-12-09 Sanyo Electric Co Ltd Image display apparatus
JP2014048499A (en) * 2012-08-31 2014-03-17 Canon Inc Display control device, and control method therefor
JP2015211417A (en) * 2014-04-30 2015-11-24 ソニー株式会社 Information processing device, information recording medium, image processing method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086728A (en) * 2004-09-15 2006-03-30 Nec Viewtechnology Ltd Image output apparatus
WO2007023698A1 (en) * 2005-08-26 2007-03-01 Matsushita Electric Industrial Co., Ltd. Multiplexing method and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086728A (en) * 2004-09-15 2006-03-30 Nec Viewtechnology Ltd Image output apparatus
WO2007023698A1 (en) * 2005-08-26 2007-03-01 Matsushita Electric Industrial Co., Ltd. Multiplexing method and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010278530A (en) * 2009-05-26 2010-12-09 Sanyo Electric Co Ltd Image display apparatus
US8411204B2 (en) 2009-05-26 2013-04-02 Sanyo Electric Co., Ltd. Image display device
US8687122B2 (en) 2009-05-26 2014-04-01 Sanyo Electric Co., Ltd. Image display device
JP2014048499A (en) * 2012-08-31 2014-03-17 Canon Inc Display control device, and control method therefor
JP2015211417A (en) * 2014-04-30 2015-11-24 ソニー株式会社 Information processing device, information recording medium, image processing method and program
US10504484B2 (en) 2014-04-30 2019-12-10 Sony Corporation Information processing apparatus, information recording medium, image processing method, and program for converting a color space of an image

Similar Documents

Publication Publication Date Title
US8538197B2 (en) Image processing apparatus
JP6573238B2 (en) Display device, conversion device, display method, and computer program
EP3163890B1 (en) Data output device, data output method, and data generation method
JP5983651B2 (en) Receiving apparatus and receiving method
US8773590B2 (en) Video output apparatus, display system, and video output method for outputting video signal to display apparatus
JP6497522B2 (en) Reproduction method and reproduction apparatus
JP2009272791A (en) Transmitter, information transmission method, receiver, and information processing method
US8040433B2 (en) Video output apparatus, control method thereof, and video device
JP4785989B2 (en) Video / audio transmitter and video / audio receiver
JP2009038683A (en) Image signal output device and method
CN109691118B (en) Image display system and image display method
US8363167B2 (en) Image processing apparatus, image processing method, and communication system
JP2017050840A (en) Conversion method and conversion device
JP2009038682A (en) Image processor, and image processing method
JP2009038685A (en) Image signal output device, and image signal output method
JP2009038687A (en) Image processor, and image processing method
JP6928885B2 (en) Display device, display method and computer program
JP6868797B2 (en) Conversion method and conversion device
JP2009038684A (en) Image signal output device, and image signal output method
JP2009038686A (en) Image signal output device, and image signal output method
JP4915861B2 (en) Video information reproduction system and video information reproduction system control method
WO2017037971A1 (en) Conversion method and conversion apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120417